ঢাকা, বাংলাদেশ   বুধবার ০৭ মে ২০২৫, ২৩ বৈশাখ ১৪৩২

ডিপফেক ॥ মিথ্যাকে সত্য বানানোর নিখুঁত প্রযুক্তি

ড. এম মেসবাহউদ্দিন সরকার

প্রকাশিত: ২১:৩৬, ৬ মে ২০২৫

ডিপফেক ॥ মিথ্যাকে সত্য বানানোর নিখুঁত প্রযুক্তি

প্রতিনিয়তই নতুন নতুন প্রযুক্তি আবিষ্কার হচ্ছে

প্রতিনিয়তই নতুন নতুন প্রযুক্তি আবিষ্কার হচ্ছে যা প্রযুক্তির উৎকর্ষ বাড়িয়ে দিচ্ছে, সহজ করে দিচ্ছে মানুষের জীবনধারা এবং সংস্কৃতিকে। কৃত্রিম বুদ্ধিমত্তা, চ্যাট-জিপিটি, জেমিনি, ডিপসিক, কোয়ান্টাম কম্পিউটিং ইত্যাদি প্রযুক্তির দুর্দান্ত পারফরম্যান্স বিশ্ববাসীকে কিভাবে বিস্মৃত করেছে তা আর বলার অপেক্ষা রাখে না।

ডিপফেক (ডিপফেইক) তেমনি একটি প্রযুক্তি যা সত্যকে মিথ্যা কিংবা আসলকে নকলে রূপান্তর করতে পারে অত্যন্ত নিখুঁতভাবে, বিশেষ করে ভিডিও। ডিপফেক ভিডিও বানানোর প্রধান অস্ত্র হলো মেশিন লার্নিং। মেশিন লার্নিংয়ের একটি প্রযুক্তি যা ‘জেনারেল অ্যাডভারসেরিয়াল নেটওয়ার্ক’ (এঅঘ) যার মাধ্যমে প্রথমে টার্গেটেড ব্যক্তির চেহারা বিভিন্ন এঙ্গেল থেকে এবং বিভিন্ন অভিব্যক্তির হাজারখানেক ছবি সংগ্রহ করে এবং সেই ছবিগুলো আর্টিফিশিয়াল ইন্টেলিজেন্স ও মেশিন লার্নিং প্রযুক্তির মাধ্যমে প্রক্রিয়াকরণ করে তার মুখের সব ধরনের অঙ্গভঙ্গি ও অভিব্যক্তির একটি সিমুলেশন তৈরি করে।

শুধু চেহারা ও অভিব্যক্তিই নয়, কৃত্রিম বুদ্ধিমত্তার উত্তরোত্তর উন্নতির ফলে ওই টার্গেটেড ব্যক্তির গলার স্বরও হুবহু এমন শেইপ প্রদান করে যে, আসল-নকলের পার্থক্য নিরূপণ করা কঠিন হয়ে পড়ে। সাধারণত মানুষের দৃষ্টিসীমার সময়কাল ০.১ সেকেন্ড। অর্থাৎ ১০০ মিলি সেকেন্ডের কম সময়ে ঘটে যাওয়া কোনো দৃশ্যের পার্থক্য তার চোখ নিরূপণ করতে পারেনা। আর ডিপফেইক প্রযুক্তি এই সুবিধাটা কাজে লাগায়।

ডিপফেক মূলত আর্টিফিশিয়াল ইনটেলিজেন্সের একটি অংশ, যা খারাপভাবেই ব্যবহার করা হচ্ছে এবং সাইবার নিরাপত্তাকর্মীদের ঘুম হারাম করে দিয়েছে। ইন্টারনেটের সূত্রমতে এই প্রযুক্তির ৯৬ ভাগই ব্যবহার হয়েছে পর্নোগ্রাফি তৈরির কাজে। এক্ষেত্রে একজন ভিক্টিমের একটি ছবি ব্যবহার করে তারা কোনো নগ্ন মানুষের মুখের সঙ্গে একেবারে নিখুঁতভাবে প্রতিস্থাপন করে দেয়। যেটির রহস্য ভেদ করা প্রায় অসম্ভব। 
আধুনিক যুগ ইন্টারনেট ও সোশ্যাল মিডিয়ার যুগ। সোশ্যাল মিডিয়ার মাধ্যমে খবর যত দ্রুত মানুষের কাছে পৌঁছায় অন্য কোনো মাধ্যমে তা সম্ভব নয়। তাই বিভ্রান্তি ছড়ানোর জন্য এটি একটি উৎকৃষ্ট প্ল্যাটফর্ম। কোনোরকম সত্যতা যাচাই করা ছাড়াই খবর দ্রুত ছড়িয়ে পড়ে। আর গুজব সংবাদ হলে তো কোনো কথাই নেই।

মানুষের চিন্তাধারাকে নিয়ন্ত্রণ কিংবা প্রভাবিত করার জন্য সোশ্যাল মিডিয়ার মতো এমন সহজ পন্থা যেন আর কিছুই নেই। আর এখানেই ডিপফেক টেকনোলজির জয়জয়কার। এভাবে সামাজিক, রাজনৈতিক সকল ক্ষেত্রে এটি ব্যাপক প্রভাব বিস্তার করতে পারে। একটি সুখী দম্পতির মধ্যকার ভালোবাসা ও বিশ্বাস নিমিষে ভেঙে চুরমার করে দিতে পারে এই প্রযুক্তি।

সৃষ্টি করতে পারে রাজনৈতিক অরাজকতা। কোনটি আসল আর কোনটি নকল তা নিয়ে এক বিশাল দ্বন্দ্ব দেখা দেয় মানুষের মনে। আপত্তিকর ভিডিও ছড়ানোর আশঙ্কা তো রয়েছেই। প্রযুক্তিটির মাধ্যমে একটি চিত্র বা ভিডিওর কোনো ব্যক্তির আইডেন্টিটি সম্পূর্ণভাবে পরিবর্তন করে অন্য আরেকজনের ফেস বা চেহারা বসিয়ে ভিডিওটি সম্পূর্ণভাবে অন্যজনের ভিডিওতে রূপান্তর করা হয়। এক্ষেত্রে আসল ভিডিওটির সঙ্গে নতুন তৈরি করা ভিডিওর পার্থক্য নিরূপণ করা অনেকটা অসম্ভব হয়ে পড়ে। অডিওর ক্ষেত্রেও এমন নিখুঁতভাবে ভয়েস রিপ্লেস করে দেওয়া হয় যা আলাদা করা যায় না।
ডিপফেক প্রযুক্তির একক কোনো উদ্ভাবক নেই। তবে এর ধারণা শুরু হয় বছর পঁচিশ আগে থেকে অনেকের হাত ধরে। তাদের একজন ইয়ন গুডফেলো। ২০১৪ সালে তিনি জেনারেটিভ অ্যাডভারসিয়াল নেটওয়ার্ক বা এঅঘ গড়ে তোলেন। এরপর ২০১৭ সালে সর্বপ্রথম ডিপফেক টেকনোলজি প্রচারণা পায়। ব্রেগলার, কোভেল এবং স্লানি এই তিনজনের বিষয় ছিল ‘ভিডিও রিরাইট : ড্রাইভিং ভিজ্যুয়াল স্পিচ উইথ অডিও’।

অর্থাৎ অডিও সংশোধন। বিদ্যমান ভিডিও ফুটেজ ঠিক রেখে স্বয়ংক্রিয়ভাবে একজনের নকল কণ্ঠস্বর আরোপ করা। দেখে মনেই হবে না যে, ব্যক্তিটির কণ্ঠ নকল। অথচ ভিডিওতে তা বলেননি। নকল ভয়েসের সঙ্গে তাল রেখে কেবল ঠোঁট নাড়ানোর মাধ্যমেই কাজটি করা হয়েছিল। বর্তমান সমাজে এর প্রভাব এত বেশি যে, বিগত মাত্র ছয় বছরে ‘ডিপফেক’ শব্দটি ব্যাপক পরিচিতি পায়। শব্দটি প্রথম ব্যবহার হয়েছিল আমেরিকান সামাজিক মাধ্যম ‘রেডিট’-এ।

এই সামাজিক মাধ্যমটি গল্প, ছবি, ভিডিও ইত্যাদির রেটিং, আলোচনা-সমালোচনায় মুখর থাকে। এখানে কয়েকটি পোস্টকে একত্রে থ্রেট বলা হয়। ২০১৭ সালে ‘ডিপফেক’ নামক অ্যাকাউন্ট থেকে হঠাৎ থ্রেটে অদ্ভুত দাবি করা হয়। অ্যাকাউন্ট ব্যবহারকারী বলেন, তিনি এমন একটি মেশিন লার্নিং অ্যালগোরিদম বানিয়েছেন যা বিখ্যাত কোনো ব্যক্তির মুখ একপলকে অশ্লীল (পর্নো) কনটেন্টে রূপ দিতে পারবে। দ্রুত ছড়িয়ে পড়ে বিষয়টি।

সমালোচনার চাপে পোস্টগুলো বন্ধ করে দেওয়া হয়। কিন্তু যা হবার তা হয়ে গেছে। ডিপফেক আজ পরিণত হয়েছে এক অভিশপ্ত প্রযুক্তিতে। ডিপফেক নামটির মধ্যেই এর সংজ্ঞা রয়েছে। ইংরেজি শব্দ ডিপ মানে গভীর এবং ফেক মানে নকল। অর্থাৎ ডিপফেক বলতে গভীরভাবে নকল করা হয়েছে এমন কিছুকে বোঝায়। আপাতদৃষ্টিতে ভিডিওটি আসল বলে মনে হলেও তা প্রকৃতপক্ষে নকল। কম্পিউটারের নিউরাল নেটওয়ার্ক বা ডিপ লার্নিং প্রযুক্তিকে ব্যবহার করে এটি করা হয় বলে এটিকে বলা হয় ডিপফেক।
ইচ্ছামতো ও নিখুঁতভাবে ছবি (নকল ছবি) তৈরি করার জন্য এক সময় ফটোশপ ও অন্যান্য সফটওয়্যার ব্যবহার করা হতো। তবে নকল ভিডিও বানানো অতটা সহজ ছিল না। ছবিতে একজনের মাথা কেটে অন্য জায়গায় বসানো যতটা সহজ, ভিডিওর ক্ষেত্রে তা ততটা সহজ ছিল না। কারণ মানুষের গলার আওয়াজ, অভিব্যক্তি, তাকানোর ধরন ইত্যাদি হুবহু নকল করা যেত না।

কিন্তু ডিপফেক প্রযুক্তি এই অসাধ্য সাধনটি করছে অত্যন্ত নিখুঁতভাবে। এই কারসাজিতে ভূমিকা রাখে ফেস সোয়াপিং কৌশল। এর অর্থ হলো ভিডিও বা ছবিতে দেখা যাবে একজনের শরীর আর অন্য জনের মুখ। 
আর্টিফিশিয়াল ইন্টেলিজেন্সের অ্যালগোরিদমের সাহায্যে এই কাজ করা সম্ভব। এই এআই অ্যালগোরিদমকে কোডার এবং এনকোডার বলা হয়। এর সাহায্যে একটি ভিডিও বা ছবিতে অনায়াসে একজন ব্যক্তির সঙ্গে অন্য কোনো ব্যক্তির মুখের আদল বদলে দেওয়া সম্ভব। অন্যান্য প্রযুক্তির সঙ্গে ডিপফেকের পার্থক্য এই সেগুলোর ভালো দিকটা আগে, খারাপ দিকটা পরে ধরা পড়ে। ডিপফেকের জন্য বিষয়টি সম্পূর্ণ বিপরীত।

আমরা এর নেতিবাচক দিকটির সঙ্গেই অভ্যস্ত। তবে ডিপফেকের এই কারসাজি শনাক্ত করার জন্য ইতোমধ্যেই গবেষকরা উঠে-পড়ে লেগেছেন। ইউনিভার্সিটি অব ক্যালিফোর্নিয়ার কম্পিউটার বিজ্ঞান বিভাগের প্রফেসর ‘হ্যানি ফরিদ’ প্রায় বিশ বছর ধরে ডিজিটাল জালিয়াতি নিয়ে কাজ করছেন। তিনি এসব নকল ভিডিও শনাক্তকরণের জন্য নানা নতুন কৌশলের উদ্ভাবন করে চলেছেন। সাম্প্রতিক সময়ে এই পথে সাফল্যও অর্জন করেছেন। কথা বলার সময় মানুষের মুখম-লে রক্ত প্রবাহের তারতম্য ঘটে।

এটি মেশিন লার্নিং দিয়ে শনাক্ত করা যায় না। তিনি বর্তমানে এ ব্যাপারটি নিয়ে কাজ করছেন। তবে তিনি নিজে এখনো আশঙ্কামুক্ত নন। তার মতে ডিপফেকের বিরুদ্ধে এসব ফরেনসিক টেকনোলজি বের করতে বছরের পর বছর সময় লেগে যায়। আর ডিপফেক টেকনোলজি প্রতিনিয়ত হালনাগাদ হচ্ছে। তাই এর শনাক্তকরণ পদ্ধতিগুলো গোপন রাখা জরুরি। দিন শেষে এগুলো ফাঁস হয়ে গেলে নকলবাজরা তা কাজে লাগাবে। অ্যালগোরিদমে তাদের সামান্য পরিবর্তন পুরো বছরের শ্রম বৃথা করে দিতে পারে।
ডিপফেকের আরেক সহোদর রয়েছে। এর নাম ‘শ্যালোফেক (shallow-fake)’। এই প্রযুক্তিতে মূলত ভিডিও স্পিড ইফেক্ট ব্যবহার করা হয়। অস্বাভাবিক গতি ব্যক্তির অভিব্যক্তি পরিবর্তন করে দেয়। ভিডিও স্পিড কমালে মনে হয় মাতাল নয়তো প্রতিবন্ধী। গতি বাড়ালে ব্যক্তিকে আক্রমণাত্মক দেখাবে। অর্থাৎ ডিপফেক এবং শ্যালোফেক মিলে কি যে করবে নিকট ভবিষ্যতে তা ভাবাই যায় না।

এই দুইয়ের মিশ্রণকে নাম দিয়েছে ডাম্বফেক। যাই হোক, প্রযুক্তি স্থির নেই, বিজ্ঞানও বসে নেই। দুইয়ে মিলে সমানতালে এগিয়ে চলছে, চলবেই- এটাই স্বাভাবিক। তবে খেয়াল রাখতে হবে নিত্যনতুন এসব আবিষ্কার যেমন আমাদের জীবনকে সহজতর করেছে, তেমনি এসব প্রযুক্তিই আবার আমাদের ফেলতে পারে হুমকির মুখেও।

লেখক : অধ্যাপক ও তথ্যপ্রযুক্তিবিদ, আইআইটি, জাহাঙ্গীরনগর বিশ্ববিদ্যালয়

×