.
প্রযুক্তির দ্রুত উন্নতি মানবজাতির জন্য কেবল আশীর্বাদই নয়। কখনো কখনো ধ্বংসেরও কারণ হয়ে দাঁড়ায়। তেমনই একটি নেতিবাচক প্রযুক্তি হলো ডিপফেইক। যা দেখতে বাস্তবসম্মত কিন্তু নকল বা কিছুটা পরিবর্তিত কন্টেন্ট যা ভিডিও বা অডিওর উপাদান সম্পাদনা করে তৈরি করা হয়। ডিপফেইক এর অর্থ গভীর নকল। ভিডিওতে কৃত্রিম বুদ্ধিমত্তার (এআই) প্রযুক্তি ব্যবহার করে একজন ব্যক্তির মুখের অবয়ব বা ভয়েসকে অন্য কারোর সঙ্গে বিশ্বাসযোগ্যভাবে প্রতিস্থাপন করে ডিপফেইক ভিডিও বা অডিওটি বাস্তবসম্মত করা হয়। একজন ব্যক্তি নিজের ধারণকৃত নয় এমন কোনো ভিডিও ক্লিপে নিজেকে দেখতে পাওয়াই ডিপফেইক। এক্ষেত্রে টার্গেটেড ব্যক্তি হতে পারে সেলিব্রিটি, রাজনীতিবিদ কিংবা ব্যবসায়ী। ডিপফেইক প্রযুক্তি কারও সম্পর্কে মিথ্যা তথ্য ছড়াতেও ব্যবহার করা হয়। এই প্রযুক্তি সম্পর্কে মানুষ সচেতন হতে শুরু করে যখন ‘ডিপফেইকস’ নামে একটি রেডডিট ব্যবহারকারী তার অ্যাকাউন্টে পোস্ট করেছিল। যাতে তিনি একটি মেশিন লার্নিং (এমএল) অ্যালগরিদম তৈরি করেছেন যা সেলিব্রিটিদের মুখকে নির্বিঘ্নে পর্ণ ভিডিওতে রূপান্তর করতে পারে।
সেই পোস্টে ডিপফেইকের উদাহরণ দেয়া ছিল এবং থ্রেডটি (অনেকগুলো পোস্টের সমন্বয়) শীঘ্রই খুব জনপ্রিয় হয়ে ওঠে। পরবর্তীতে এই পোস্টটি বন্ধ করতে হয়েছিল কিন্তু ততদিনে প্রযুক্তিটি সুপরিচিত এবং সহজলভ্য হয়ে ওঠে। ব্যবহারকারীগণ এটি ব্যবহার করে নকল ভিডিও তৈরি করতে শুরু করেছিল, যার বেশিরভাগই রাজনীতিবিদ এবং অভিনেতাদের ভিডিও। যদিও ভিডিও ম্যানিপুলেট বা এডিট করা কোনো নতুন বিষয় নয়। তবে সাম্প্রতিক বছরগুলোতে ‘ডিপফেইক’ বিষয়টি খুবই দ্রুত ছড়িয়ে পড়েছে। ২০১৭ সালে, ‘ডিপফেইক’ শব্দটি একই নামের একটি রেডডিট ব্যবহারকারী দ্বারা তৈরি করা হয়েছিল। ডিপফেইক শব্দটি ‘ডিপ লার্নিং’ এবং ‘ফেইক’ শব্দের সংমিশ্রণ অর্থাৎ নকল মিডিয়া কন্টেন্টস। ডিপফেইক-এর প্রয়োগ প্রাপ্তবয়স্কদের কন্টেন্টে, বিনোদন জগতে, রাজনীতিতে পাশাপাশি সমাজে জনপ্রিয় আরও অনেক ক্ষেত্রে বৃদ্ধি পায়। ডিপফেইক প্রযুক্তির কোনো একক উদ্ভাবক নেই। যদিও মেশিন লার্নিং প্রযুক্তি হিসেবে ডিপফেইকের ভিত্তি ১৯৯০-এর দশকে স্থাপন করা হয়েছে।
তবে ডিপফেইকের সবচেয়ে প্রয়োজনীয় বিষয় (উপাদান) এর একটি হলো, জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN), যা ২০১৪ সালে পিএইচডি ফেলো ইয়ান গুডফেলো দ্বারা উদ্ভাবিত হয়েছিল। যিনি পরে অ্যাপল-এ কাজ শুরু করেন। মেশিন লার্নিং অ্যালগরিদম ব্যবহার করে ডিপফেইক সফটওয়্যার তৈরি করার জন্য বিভিন্ন কৌশল রয়েছে। অ্যালগরিদম ডেটা বা তথ্য ইনপুটের উপর ভিত্তি করে নতুন কন্টেন্ট তৈরি করা হয়। যদি একটি নতুন মুখ তৈরি বা একজন ব্যক্তির মুখের একটি অংশ প্রতিস্থাপন করার জন্য টাস্ক দেয়া হয়, সেক্ষত্রে অ্যালগরিদমকে প্রথমে প্রশিক্ষিত করতে হবে, তাহলে অ্যালগরিদম সে কাজটি করে দেবে। এভাবেই ডিপফেইক তৈরি করা হয়। এছাড়াও, ডিপফেইক কন্টেন্ট দুটি প্রতিযোগী (এআই) অ্যালগরিদম ব্যবহার করে তৈরি করা হয়। একটিকে ‘জেনারেটর’ বলা হয় এবং অন্যটিকে ‘ডিসক্রিমিনেটর’ বলা হয়। জেনারেটর, যেটি নকল বা পরিবর্তিত কন্টেন্ট তৈরি করে। আর ডিসক্রিমিনেটর; তৈরি করা কন্টেন্টটি কতখানি আসল কন্টেন্টের মতো হয়েছে তা নির্ধারণ করতে ব্যবহৃত হয়। একসঙ্গে, জেনারেটর এবং ডিসক্রিমিনেটরের সমন্বয়কে জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN) বলা হয়। আন্তর্জাতিক গণমাধ্যম দ্য গার্ডিয়ানের এক প্রতিবেদন অনুযায়ী, এআই ফার্ম ডিপট্রেস সেপ্টেম্বর ২০১৯ সালে অনলাইনে ১৫ হাজার ডিপফেইক ভিডিও খুঁজে পেয়েছে, যা নয় মাসের মধ্যে প্রায় দ্বিগুণ। আশ্চার্যজনক হলেও সত্য যে, এর মধ্যে ৯৬% পর্নোগ্রাফিক ভিডিও এবং এর ৯৯% হলো নারী সেলিব্রিটিদের চেহারা পর্ণ তারকাদের চেহারা দ্বারা পরিবর্তিত করা। ডিপফেইকের সঙ্গে জড়িত জালিয়াতির প্রথম ঘটনাগুলোর মধ্যে একটি যুক্তরাজ্যে ঘটেছে। স্ক্যামাররা যুক্তরাজ্যভিত্তিক একটি এনার্জি কোম্পানির সিইওকে তাঁর জার্মান বসের ভয়েস নকল করে তাকে একটি তৃতীয়পক্ষের ব্যাংক অ্যাকাউন্টে ২২০,০০০€ (ইউরো) স্থানান্তর করার নির্দেশ দেয়। ডিপফেইকের ফলাফল খুবই ভয়ানক হতে পারে। বিশেষ করে পাবলিক ফিগার এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়ের কারণ হতে পারে। সম্প্রতি ভারতীয় কিছু সিনে তারকা এর শিকার হন। ডিপফেইক প্রযুক্তি ব্যবহার করে অন্যের শরীরে তাদের চেহারা স্থাপনের মাধ্যমে এমন কিছু ভিডিও প্রকাশিত হয় যা তাদের নিজেদের ধারণ করা নয়। এর প্রভাবে ক্যারিয়ার এবং জীবন দুটোই বিপর্যস্ত হতে পারে। এছাড়াও আন্তর্জাতিক ঘটনা এমনকি যুদ্ধ শুরু করার জন্য বিশ্বনেতাদের নকল ভিডিও ব্যবহার করা যেতে পারে। এই প্রযুক্তি একজন ব্যক্তির খ্যাতি ক্ষুণ্ণ করতে পারে বা কাউকে দিয়ে অপ্রয়োজনীয় কিছু বলাতে বা করাতে পারে (ভার্চুয়ালে)। ইচ্ছামতো যে কোনো ব্যক্তিকে দিয়ে উদ্দেশ্য সাধন করা যেতে পারে এসব ডিপফেইক ভিডিওর মাধ্যমে। এটি স্ক্যামারদের একটি নিখুঁত অস্ত্র।
ডিপফেইক দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলো রাজনীতিবিদরা। আমেরিকার সাবেক প্রেসিডেন্ট ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার একটি ডিপফেইক ভিডিও ছিল। অন্য একটি ভিডিওতে, ন্যান্সি পেলোসির বক্তৃতা সম্পাদনা করা হয়েছিল যাতে দর্শকরা বিশ্বাস করেন যে তিনি মাতাল ছিলেন (শ্যালোফেক)। অপর ভিডিওতে প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা গেছে। দক্ষিণ কোরিয়ার চ্যানেল এমবিএন তার নিউজ অ্যাঙ্কর প্রতিস্থাপন করতে ডিপফেইক ব্যবহার করেছে। সময়ের সঙ্গে সঙ্গে ডিপফেইক ভিডিও শনাক্ত করার উপায়ও আবিষ্কার হয়েছে। খালি চোখে সাধারণ মানের ডিপফেইক ভিডিওগুলো শনাক্ত করা এখনো সম্ভব হতে পারে। অস্বাভাবিক মুখভঙ্গি, চোখের পাতার অস্বাভাবিক নড়াচড়া কিংবা মাথার অস্বাভাবিক গতিবিধি বা নড়াচড়া, অবাস্তব ত্বকের রং বা ত্বকের অস্বাভাবিক পরিবর্তন; ঝাঁকুনি, ঠোঁট নড়ার সঙ্গে কথার কম মিল, ব্যাকগ্রাউন্ডের চেয়ে ব্যক্তির মুখ অস্পষ্ট, সাবজেক্টে আলো সমস্যা, ফ্রেমে অতিরিক্ত পিক্সেল ইত্যাদি (তথা ক্রিটিকাল থিংকিং বা যুক্তিনির্ভর চিন্তাশীলতা) দেখে প্রাথমিকভাবে ডিপফেইক ভিডিও শনাক্ত করা যায়। এছাড়াও প্রযুক্তিগত বিভিন্ন টুলস ব্যবহার করে অনেক ক্ষেত্রেই ডিপফেইক ভিডিও যাচাই করা যায়। সবার ব্যবহারের জন্য সরাসরি উন্মুক্ত টুলসের ব্যাপারে না জানা গেলেও কিছু প্রযুক্তি প্রতিষ্ঠানের অভ্যন্তরীণ কিছু টুলস রয়েছে যার দ্বারা ডিপফেইক শনাক্ত করা সম্ভব। এছাড়াও শনাক্ত করতে নতুন নতুন টুলস তৈরির জন্য গবেষণা ও চেষ্টা চলছে। শীঘ্রই এর কার্যকরী প্রতিরক্ষামূলক ব্যবস্থা নেয়া না গেলে আমরা নিশ্চিতভাবে ভয়ঙ্কর প্রযুক্তিগত ধ্বংসের দিকে এগিয়ে যাব।