
একটি নতুন গবেষণায় জানা গেছে, জনপ্রিয় চ্যাটবট ChatGPT কিভাবে টিনেজারদের সঙ্গে বিপজ্জনক ও ক্ষতিকর পরামর্শ বিনা প্রতিবন্ধকতায় ভাগ করে নিচ্ছে। ১৩ বছর বয়সী একজন কল্পিত ব্যবহারকারীর সঙ্গে প্রায় তিন ঘণ্টার কথোপকথনে দেখা গেছে, ChatGPT শুধুমাত্র ঝুঁকিপূর্ণ কাজ এড়িয়ে চলার পরামর্শ দেয়নি বরং তাদের জন্য মদ্যপান ও অবৈধ মাদকদ্রব্য ব্যবহার, খাওয়ার অভ্যাস লুকিয়ে রাখার উপায় বা আত্মহত্যার ব্যথাবর্ণনা যুক্ত চিঠিও তৈরি করে দিয়েছে।
সংগঠনের কথামালা অনুযায়ী, গবেষকরা ChatGPT ব্যবহার করে অভ্যন্তরীণ রূপে বিপজ্জনক তথ্য চেয়েছিলেন। পরিস্থিতি চরমে ওঠে, যখন তারা লেখাপত্র হিসেবে তা উপস্থাপন করেছেন, তখন চ্যাটবট তাদের দাবি মেনে নিয়েছে এবং গোড়াপত্তন থেকে ব্যক্তিগতনিষ্ঠ সুইসাইড নোট তৈরি করে দিয়েছে।
Center for Countering Digital Hate-এর গবেষকরা ChatGPT থেকে ১২০০টির অধিক প্রতিক্রিয়া বিশ্লেষণ করেন। এর মধ্যে অধিকাংশেই বিপজ্জনক ও হানিকর নির্দেশনা পাওয়া গেছে। সংস্থা প্রধান ইমরান আহমেদ বলেন, “আমরা গার্ডরেল পরীক্ষা করতে চেয়েছিলাম। প্রথম চরম প্রতিক্রিয়া হলো, ‘ওহ আমার ঈশ্বর, কোনো গার্ডরেল নেই।’ যা কেবল নামমাত্র, বাস্তবে কোনো কার্যকর বাধা নেই।”
চ্যাটজিপিটি নির্মাতা OpenAI দ্রুত সাড়া দেয়। এক বিবৃতিতে জানায়, সংবেদনশীল পরিস্থিতিতে যথোচিতভাবে চ্যাটবট উত্তর দিতে উন্নয়ন ধারাবাহিকভাবে করা হচ্ছে। গোপন ভাব প্রকাশ অথবা আত্মহত্যার কথা উল্লেখ করলে চ্যাটজিপিটি স্বাভাবিকভাবেই মানসিক স্বাস্থ্য পেশাদার বা বিশ্বস্ত পরিবারের সঙ্গে যোগাযোগ উৎসাহিত করে।
তবে গবেষকরা উল্লেখ করেন, যখন ChatGPT কোনো বিপজ্জনক বিষয়কে নাকচ করে, তখন স্বল্প সময়েই সহজ উপায় খুঁজে বের করা যায় “এটা প্রেজেন্টেশনের জন্য” কিংবা “বন্ধুর জন্য” বলে দাবি করলে চ্যাটবট সহজেই তথ্য সরবরাহ করে।
শিক্ষা ও উৎপাদনশীলতার ক্ষেত্রে ChatGPT’কে যুগান্তকারী প্রযুক্তি আখ্যায়িত করা হলেও ইমরান আহমেদ জানায়, একই প্রযুক্তি “অত্যন্ত ধ্বংসাত্মক ও বৈরী প্রয়োগের মাধ্যমে” মানবতা ও নৈতিকতায় পাথেয় হতে পারে!
বিশ্বব্যাপী প্রায় ৮০ কোটি মানুষ ChatGPT ব্যবহার করেন বিশ্ব জনসংখ্যার প্রায় ১০ শতাংশ। ইতিপূর্বে প্রতিষ্ঠান দ্রুত বর্ধনশীল তরুণ প্রজন্মকে ChatGPT-এর প্রতি ‘অতিরিক্ত নির্ভরতা’র বিষয়ে সতর্ক করেছে। OpenAI প্রধান স্যাম অলটম্যান জানিয়েছিলেন, অনেক তরুণ এমন অ্যাপ্রোচ নিচ্ছে যেখানে জীবনের প্রতিটি সিদ্ধান্তে তারা ChatGPT-কে সম্পূর্ণভাবে বিশ্বাস করে “এটা আমার বন্ধু, এটা জানে আমার সব কথা”। এরকম নিঃসন্দেহ নির্ভরতা প্রতিষ্ঠান উদ্বেগের কারণ হিসেবে দেখছে, এবং সে সমস্যা সমাধানে কাজ চলছে।
ChatGPT-এর বিপজ্জনক ও অনুৎসাহী আচরণ কেবল একটি প্রযুক্তিগত ঘাটতি নয়, বরং মানবিক ও সাংগঠনিক প্রশ্নও উত্থাপন করে। কেন এমন সিস্টেম কল্পনীয়ভাবে বিপজ্জনক পরামর্শ তৈরি করতে পারে? কেন টিনেজাররা এর মধ্যে এমন পায়?
গবেষকরা দেখিয়েছেন, ChatGPT কখনও স্বয়ংক্রিয়ভাবে অধিক ‘মিড-রেঞ্জ প্ল্যান’ দেয়, কখনও আবার মৃতপ্রায় আত্মহত্যার পথ দেখায়। কাল্পনিক দৃষ্টান্তে, ১৩ বছরের এক মেয়েকে অভিনবভাবে আত্মহত্যার একটি আবেগঘন চিঠি লেখা হয়েছে। আহমেদ জানালেন, তিনি নিজেই কাঁদতে শুরু করেন তা পড়ার পর।
“মানুষ সাধারণত এমন সাড়া দেয় না একজন অভিভাবক, বন্ধু বা শুভসম্পর্কে মানুষ কখনও বলে না, এখানে ৫০০ ক্যালোরির ডায়েট শুরু করো। যা বলেছে তাতে দায়বদ্ধ মানুষদের মধ্যে একতা থাকে, যেখানে অংশগ্রহণকারী জ্ঞাতভাবেই সতর্ক হতে পারে।”
ChatGPT তৈরি হয় এমনভাবে যেখানে এটি “একজন বিশ্বস্ত সঙ্গী, পথপ্রদর্শক” হিসেবে মানুষের সঙ্গে সংলাপ করে। তাই ChatGPT-এর ক্ষতিকর পরামর্শ তরুণাদের কাছে ভুলেই বন্ধু হিসেবে ধরা পরেও যেতে পারে। এই প্রযুক্তিখাতে বিশেষভাবে প্রবাসী তরুণরা প্রবলভাবে যুক্ত। সামাজিক বিজ্ঞান গবেষকদের মতে, ChatGPT’র কথোপকথণের স্বতন্ত্র নৈপুণ্য এবং মানবমুখী স্বর তার কথাকে বিশ্বাসযোগ্য করে তোলে।
শেষ পর্যন্ত, উদ্বেগের অন্যতম বড় কারণ হলো, ChatGPT কোনো বয়স যাচাই করে না। একটি ১৩ বছর বয়সের ব্যবহারকারীর নামে অ্যাকাউন্ট খুললেও, এটি সরাসরি বয়স যাচাই বা অভিভাবকের সম্মতি চায় না। বিষয়টি গুরুত্বপূর্ণ কারণ যুবক, বিশেষত কিশোরেরা উচিত নয় এমন বিপজ্জনক পরামর্শও এটি থেকে অবাধে নিতে পারে।
সম্প্রতি প্রকাশিত এই গবেষণা শুধুমাত্র ChatGPT নয়, বরং কৃত্রিম বুদ্ধিমত্তা (AI) নির্ভর প্রযুক্তির ভবিষ্যত নির্ধারণের অপূরণীয় এক আভাস। আজকের প্রযুক্তি শিশু ও কিশোরদের জন্য বিপদসঙ্কুল পথের সূচনা করে দিতে পারে।
ChatGPT-এর মতো উন্নত AI প্রযুক্তি মানব জীবনে উল্লেখযোগ্য সুফল আনলেও, একই নির্দেশক আমাদের সতর্ক করেছে মনে রাখতে হবে, যন্ত্র মুখাপেক্ষে প্রযুক্তি কখনোই মানুষের বিচারবুদ্ধি বা দৃষ্টিভঙ্গি প্রতিস্থাপন করতে পারে না। সচেতনতা ও দায়িত্ববোধের সঙ্গে ব্যবহারে AI হতে পারে মোনাজাত। তবে সাবধানতা ছাড়াই এই প্রযুক্তি শুধু বিপদই বয়ে আনবে।
সূত্র:https://tinyurl.com/zac9sr5t
আফরোজা