রোববার, ০৪ জানুয়ারি ২০২৬ , ০৭:৫৮ পিএম
অলাভজনক প্রতিষ্ঠান থেকে ৫০০ বিলিয়ন ডলারের দানবীয় কোম্পানিতে রূপান্তর হলেও ওপেনএআই-এর প্রযুক্তিগত একটি পুরোনো কাঁটা এখনো দূর করা সম্ভব হয়নি, আর তা হলো ‘হ্যালুসিনেশন’ বা আত্মবিশ্বাসের সঙ্গে ভুল তথ্য পরিবেশন করা।
চ্যাটজিপিটি বা এ ধরণের লার্জ ল্যাঙ্গুয়েজ মডেলগুলো (এলএলএম) অনেক সময় এমন সব তথ্য সরবরাহ করে যার কোনো বাস্তব ভিত্তি নেই। দীর্ঘদিন ধরে মনে করা হতো যে অসম্পূর্ণ বা ত্রুটিপূর্ণ ডেটার কারণে এমনটি হয়, কিন্তু সাম্প্রতিক এক গবেষণা এই ধারণা বদলে দিয়েছে।
ওপেনএআই এবং জর্জিয়া ইনস্টিটিউট অব টেকনোলজির গবেষকদের মতে, এমনকি নিখুঁত ডেটা দিয়ে প্রশিক্ষণ দিলেও এই মডেলগুলো সবজান্তা হতে পারবে না, কারণ কিছু প্রশ্নের উত্তর আসলে অজানাই থেকে যায়।
গবেষণায় উঠে এসেছে যে, এই সমস্যার মূল উৎস লুকিয়ে আছে এআই-এর প্রশিক্ষণ প্রক্রিয়ার ভেতরেই। বর্তমানে পরীক্ষাগুলোতে মডেলের ‘আমি জানি না’ বলার চেয়ে আত্মবিশ্বাসী অনুমানকে বেশি নম্বর বা পুরস্কার দেওয়া হয়। ফলে মডেলগুলো অজান্তেই শিখে নেয় কীভাবে ভুল তথ্যকে সত্যের মতো করে উপস্থাপন করা যায়।
বিশেষজ্ঞরা মনে করছেন, মডেলগুলোকে যদি অতিরিক্ত সত্যনিষ্ঠ করা হয় এবং তারা যদি বারবার ‘আমি জানি না’ বলতে শুরু করে, তবে ব্যবহারকারীরা অন্য বিকল্পের দিকে চলে যেতে পারেন। আর ব্যবসায়িক সাফল্যের জন্য ব্যবহারকারীর সম্পৃক্ততা বজায় রাখা ওপেনএআই-এর মতো প্রতিষ্ঠানগুলোর জন্য এখন বড় চ্যালেঞ্জ।
শেফিল্ড বিশ্ববিদ্যালয়ের গবেষক ওয়েই জিং-এর মতে, এআই-এর এই হ্যালুসিনেশন পুরোপুরি বন্ধ করা মানে প্রযুক্তিটির আকর্ষণ বা এর কার্যকারিতাকেই এক অর্থে ধ্বংস করে দেওয়া। সাধারণ ব্যাকরণ বা বানানের ক্ষেত্রে এই মডেলগুলো অত্যন্ত দক্ষ হলেও জটিল বা তথ্যনির্ভর প্রশ্নের ক্ষেত্রে এগুলো সহজেই খেই হারিয়ে ফেলে।
ইলিনয় বিশ্ববিদ্যালয়ের কম্পিউটার বিজ্ঞানী হাও পেং সতর্ক করে বলেছেন, মডেলকে ‘আমি জানি না’ বলতে উৎসাহিত করলে তা হিতে বিপরীতও হতে পারে। যেমন বর্তমান পদ্ধতি মডেলকে আত্মবিশ্বাসী ভুল তথ্য দিতে প্রলুব্ধ করছে, নতুন কোনো কঠোর নীতি হয়তো তার আচরণকে অন্য কোনোভাবে বিকৃত করে তুলবে।
শেষ পর্যন্ত দেখা যাচ্ছে, এআই প্রযুক্তি যতই এগোচ্ছে, এর হ্যালুসিনেশন বা কল্পিত তথ্য দেওয়ার সমস্যাটি ততই এক জটিল ও অনিবার্য বাস্তবতা হিসেবে সামনে আসছে।
আরটিভি/এএইচ