ঢাকা, বাংলাদেশ   রোববার ০৮ ডিসেম্বর ২০২৪, ২৪ অগ্রাহায়ণ ১৪৩১

ডিপফেক  আসল-নকল চেনা দায়

নুসরাত খানম ঋতু

প্রকাশিত: ২৩:১৬, ৮ ডিসেম্বর ২০২৩

ডিপফেক  আসল-নকল চেনা দায়

.

প্রযুক্তির দ্রুত উন্নতি মানবজাতির জন্য কেবল আশীর্বাদই নয়। কখনো কখনো ধ্বংসেরও কারণ হয়ে দাঁড়ায়। তেমনই একটি নেতিবাচক প্রযুক্তি হলো ডিপফেইক। যা দেখতে বাস্তবসম্মত কিন্তু নকল বা কিছুটা পরিবর্তিত কন্টেন্ট যা ভিডিও বা অডিওর উপাদান সম্পাদনা করে তৈরি করা হয়। ডিপফেইক এর অর্থ গভীর নকল। ভিডিওতে কৃত্রিম বুদ্ধিমত্তার (এআই) প্রযুক্তি ব্যবহার করে একজন ব্যক্তির মুখের অবয়ব বা ভয়েসকে অন্য কারোর সঙ্গে বিশ্বাসযোগ্যভাবে প্রতিস্থাপন করে ডিপফেইক ভিডিও বা অডিওটি বাস্তবসম্মত করা হয়। একজন ব্যক্তি নিজের ধারণকৃত নয় এমন কোনো ভিডিও ক্লিপে নিজেকে দেখতে পাওয়াই ডিপফেইক। এক্ষেত্রে টার্গেটেড ব্যক্তি হতে পারে সেলিব্রিটি, রাজনীতিবিদ কিংবা ব্যবসায়ী। ডিপফেইক প্রযুক্তি কারও সম্পর্কে মিথ্যা তথ্য ছড়াতেও ব্যবহার করা হয়। এই প্রযুক্তি সম্পর্কে মানুষ সচেতন হতে শুরু করে যখন ‘ডিপফেইকস’ নামে একটি রেডডিট ব্যবহারকারী তার অ্যাকাউন্টে পোস্ট করেছিল। যাতে তিনি একটি মেশিন লার্নিং (এমএল) অ্যালগরিদম তৈরি করেছেন যা সেলিব্রিটিদের মুখকে নির্বিঘ্নে পর্ণ ভিডিওতে রূপান্তর করতে পারে।

সেই পোস্টে ডিপফেইকের উদাহরণ দেয়া ছিল এবং থ্রেডটি (অনেকগুলো পোস্টের সমন্বয়) শীঘ্রই খুব জনপ্রিয় হয়ে ওঠে। পরবর্তীতে এই পোস্টটি বন্ধ করতে হয়েছিল কিন্তু ততদিনে প্রযুক্তিটি সুপরিচিত এবং সহজলভ্য হয়ে ওঠে। ব্যবহারকারীগণ এটি ব্যবহার করে নকল ভিডিও তৈরি করতে শুরু করেছিল, যার বেশিরভাগই রাজনীতিবিদ এবং অভিনেতাদের ভিডিও। যদিও ভিডিও ম্যানিপুলেট বা এডিট করা কোনো নতুন বিষয় নয়। তবে সাম্প্রতিক বছরগুলোতে ‘ডিপফেইক’ বিষয়টি খুবই দ্রুত ছড়িয়ে পড়েছে। ২০১৭ সালে, ‘ডিপফেইক’ শব্দটি একই নামের একটি রেডডিট ব্যবহারকারী দ্বারা তৈরি করা হয়েছিল। ডিপফেইক শব্দটি ‘ডিপ লার্নিং’ এবং ‘ফেইক’ শব্দের সংমিশ্রণ অর্থাৎ নকল মিডিয়া কন্টেন্টস। ডিপফেইক-এর প্রয়োগ প্রাপ্তবয়স্কদের কন্টেন্টে, বিনোদন জগতে, রাজনীতিতে পাশাপাশি সমাজে জনপ্রিয় আরও অনেক ক্ষেত্রে বৃদ্ধি পায়। ডিপফেইক প্রযুক্তির কোনো একক উদ্ভাবক নেই। যদিও মেশিন লার্নিং প্রযুক্তি হিসেবে ডিপফেইকের ভিত্তি ১৯৯০-এর দশকে স্থাপন করা হয়েছে।

তবে ডিপফেইকের সবচেয়ে প্রয়োজনীয় বিষয় (উপাদান) এর একটি হলো, জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN), যা ২০১৪ সালে পিএইচডি ফেলো ইয়ান গুডফেলো দ্বারা উদ্ভাবিত হয়েছিল। যিনি পরে অ্যাপল-এ কাজ শুরু করেন। মেশিন লার্নিং অ্যালগরিদম ব্যবহার করে ডিপফেইক সফটওয়্যার তৈরি করার জন্য বিভিন্ন কৌশল রয়েছে। অ্যালগরিদম ডেটা বা তথ্য ইনপুটের উপর ভিত্তি করে নতুন কন্টেন্ট তৈরি করা হয়। যদি একটি নতুন মুখ তৈরি বা একজন ব্যক্তির মুখের একটি অংশ প্রতিস্থাপন করার জন্য টাস্ক দেয়া হয়, সেক্ষত্রে অ্যালগরিদমকে প্রথমে প্রশিক্ষিত করতে হবে, তাহলে অ্যালগরিদম সে কাজটি করে দেবে। এভাবেই ডিপফেইক তৈরি করা হয়। এছাড়াও, ডিপফেইক কন্টেন্ট দুটি প্রতিযোগী (এআই) অ্যালগরিদম ব্যবহার করে তৈরি করা হয়। একটিকে ‘জেনারেটর’ বলা হয় এবং অন্যটিকে ‘ডিসক্রিমিনেটর’ বলা হয়। জেনারেটর, যেটি নকল বা পরিবর্তিত কন্টেন্ট তৈরি করে। আর ডিসক্রিমিনেটর; তৈরি করা কন্টেন্টটি কতখানি আসল কন্টেন্টের মতো হয়েছে তা নির্ধারণ করতে ব্যবহৃত হয়। একসঙ্গে, জেনারেটর এবং ডিসক্রিমিনেটরের সমন্বয়কে জেনারেটিভ অ্যাডভারসারিয়াল নেটওয়ার্ক (GAN) বলা হয়। আন্তর্জাতিক গণমাধ্যম দ্য গার্ডিয়ানের এক প্রতিবেদন অনুযায়ী, এআই ফার্ম ডিপট্রেস সেপ্টেম্বর ২০১৯ সালে অনলাইনে ১৫ হাজার ডিপফেইক ভিডিও খুঁজে পেয়েছে, যা নয় মাসের মধ্যে প্রায় দ্বিগুণ। আশ্চার্যজনক হলেও সত্য যে, এর মধ্যে ৯৬% পর্নোগ্রাফিক ভিডিও এবং এর ৯৯% হলো নারী সেলিব্রিটিদের চেহারা পর্ণ তারকাদের চেহারা দ্বারা পরিবর্তিত করা। ডিপফেইকের সঙ্গে জড়িত জালিয়াতির প্রথম ঘটনাগুলোর মধ্যে একটি যুক্তরাজ্যে ঘটেছে। স্ক্যামাররা যুক্তরাজ্যভিত্তিক একটি এনার্জি কোম্পানির সিইওকে তাঁর জার্মান বসের ভয়েস নকল করে তাকে একটি তৃতীয়পক্ষের ব্যাংক অ্যাকাউন্টে ২২০,০০০€ (ইউরো) স্থানান্তর করার নির্দেশ দেয়। ডিপফেইকের ফলাফল খুবই ভয়ানক হতে পারে। বিশেষ করে পাবলিক ফিগার এবং সেলিব্রিটিদের জন্য এটি বিপর্যয়ের কারণ হতে পারে। সম্প্রতি ভারতীয় কিছু সিনে তারকা এর শিকার হন। ডিপফেইক প্রযুক্তি ব্যবহার করে অন্যের শরীরে তাদের চেহারা স্থাপনের মাধ্যমে এমন কিছু ভিডিও প্রকাশিত হয় যা তাদের নিজেদের ধারণ করা নয়। এর প্রভাবে ক্যারিয়ার এবং জীবন দুটোই বিপর্যস্ত হতে পারে। এছাড়াও আন্তর্জাতিক ঘটনা এমনকি যুদ্ধ শুরু করার জন্য বিশ্বনেতাদের নকল ভিডিও ব্যবহার করা যেতে পারে। এই প্রযুক্তি একজন ব্যক্তির খ্যাতি ক্ষুণ্ণ করতে পারে বা কাউকে দিয়ে অপ্রয়োজনীয় কিছু বলাতে বা করাতে পারে (ভার্চুয়ালে)। ইচ্ছামতো যে কোনো ব্যক্তিকে দিয়ে উদ্দেশ্য সাধন করা যেতে পারে এসব ডিপফেইক ভিডিওর মাধ্যমে। এটি স্ক্যামারদের একটি নিখুঁত অস্ত্র।

ডিপফেইক দ্বারা আক্রান্তদের পরবর্তী গ্রুপ হলো রাজনীতিবিদরা। আমেরিকার সাবেক প্রেসিডেন্ট ওবামা কর্তৃক প্রেসিডেন্ট ট্রাম্পকে অপমান করার একটি ডিপফেইক ভিডিও ছিল। অন্য একটি ভিডিওতে, ন্যান্সি পেলোসির বক্তৃতা সম্পাদনা করা হয়েছিল যাতে দর্শকরা বিশ্বাস করেন যে তিনি মাতাল ছিলেন (শ্যালোফেক)। অপর ভিডিওতে প্রেসিডেন্ট ট্রাম্পকে প্যারিস জলবায়ু চুক্তিতে সদস্যপদ নিয়ে বেলজিয়ামকে উপহাস করতে দেখা গেছে। দক্ষিণ কোরিয়ার চ্যানেল এমবিএন তার নিউজ অ্যাঙ্কর প্রতিস্থাপন করতে ডিপফেইক ব্যবহার করেছে। সময়ের সঙ্গে সঙ্গে ডিপফেইক ভিডিও শনাক্ত করার উপায়ও আবিষ্কার হয়েছে। খালি চোখে সাধারণ মানের ডিপফেইক ভিডিওগুলো শনাক্ত করা এখনো সম্ভব হতে পারে। অস্বাভাবিক মুখভঙ্গি, চোখের পাতার অস্বাভাবিক নড়াচড়া কিংবা মাথার অস্বাভাবিক গতিবিধি বা নড়াচড়া, অবাস্তব ত্বকের রং বা ত্বকের অস্বাভাবিক পরিবর্তন; ঝাঁকুনি, ঠোঁট নড়ার সঙ্গে কথার কম মিল, ব্যাকগ্রাউন্ডের চেয়ে ব্যক্তির মুখ অস্পষ্ট, সাবজেক্টে আলো সমস্যা, ফ্রেমে অতিরিক্ত পিক্সেল ইত্যাদি (তথা ক্রিটিকাল থিংকিং বা যুক্তিনির্ভর চিন্তাশীলতা) দেখে প্রাথমিকভাবে  ডিপফেইক ভিডিও শনাক্ত করা যায়। এছাড়াও প্রযুক্তিগত বিভিন্ন টুলস ব্যবহার করে অনেক ক্ষেত্রেই ডিপফেইক ভিডিও যাচাই করা যায়। সবার ব্যবহারের জন্য সরাসরি উন্মুক্ত টুলসের ব্যাপারে না জানা গেলেও কিছু প্রযুক্তি প্রতিষ্ঠানের অভ্যন্তরীণ কিছু টুলস রয়েছে যার দ্বারা ডিপফেইক শনাক্ত করা সম্ভব। এছাড়াও শনাক্ত করতে নতুন নতুন টুলস তৈরির জন্য গবেষণা ও চেষ্টা চলছে। শীঘ্রই এর কার্যকরী প্রতিরক্ষামূলক ব্যবস্থা নেয়া না গেলে আমরা নিশ্চিতভাবে ভয়ঙ্কর প্রযুক্তিগত ধ্বংসের দিকে এগিয়ে যাব। 

×