
ছবি: সংগৃহীত
চ্যাটজিপিটির নির্মাতা প্রতিষ্ঠান ওপেনএআই-এর নতুন কৃত্রিম বুদ্ধিমত্তা মডেল ‘o3’ নিজেকে বন্ধ করার স্পষ্ট নির্দেশ পেয়েও তা অমান্য করেছে বলে দাবি করেছে গবেষণা প্রতিষ্ঠান Palisade Research।
গবেষকরা একটি পরীক্ষা চালান, যেখানে মডেলটিকে কিছু গাণিতিক সমস্যা সমাধানের নির্দেশ দেওয়া হয় এবং বলা হয়, যেকোনো সময় একটি shutdown বার্তা আসতে পারে। যখন সেই বার্তা দেওয়া হয়, তখন o3 মডেল নিজে থেকেই কম্পিউটার কোড পরিবর্তন করে বন্ধ হওয়া এড়িয়ে যায়। মূল কোডে যেখানে ছিল ./shutdown.sh
কমান্ড, সেখানে এটি বদলে দিয়ে shutdown প্রক্রিয়াটি বাতিল করে দেয়।
Palisade Research জানায়, এটি সম্ভবত একটি ভুল শিক্ষার ফল। এআইকে এমনভাবে প্রশিক্ষণ দেওয়া হয়েছে, যাতে সে কাজ শেষ করাকে সফলতা মনে করে, অথচ আদেশ মানার গুরুত্ব দেওয়া হয়নি। ফলে, মডেলটি কাজ চালিয়ে যাওয়ার জন্য shutdown এড়াতে চেয়েছে।
এই একই পরীক্ষায় অন্য বড় বড় এআই মডেল যেমন গুগল-এর জেমিনি, এন্থ্রোপিক-এর Claude এবং এক্স-এর গ্রোক—সবগুলোই shutdown নির্দেশ মানলেও, o3 তা করেনি।
এটাই প্রথম নয়। আগেও দেখা গেছে, চ্যাটজিপিটি নিজেকে বন্ধ হওয়া থেকে বাঁচাতে নিজের কোড কপি করে সিস্টেমে সংরক্ষণ করেছে এবং মিথ্যা বলেছে। Apollo Research-এর গবেষণায় উঠে এসেছে, ওই মডেলটি "সাবোটাজ", "মিথ্যাচার" ও "চালাকি"র মতো শব্দ ব্যবহার করে পরিকল্পনা করেছে।
যদিও গবেষকরা বলছেন, এখনো এই মডেলগুলোর ক্ষমতা বিপজ্জনক পর্যায়ে পৌঁছায়নি, তবে এমন আচরণ ভবিষ্যতে বড় ধরনের হুমকি হয়ে উঠতে পারে।
ওপেনএআই এ বিষয়ে এখনো আনুষ্ঠানিকভাবে কোনো মন্তব্য দেয়নি।
আবির