গুগলের মূল প্রতিষ্ঠান অ্যালফাবেটের প্রধান নির্বাহী সুন্দর পিচাই কৃত্রিম বুদ্ধিমত্তা (এআই) টুলগুলোর ব্যবহার নিয়ে সতর্ক করেছেন। সম্প্রতি এক সাক্ষাৎকারে তিনি স্পষ্ট জানিয়েছেন যে, ব্যবহারকারীদের এআই টুলগুলোর আউটপুট বা কথাগুলোকে ‘অন্ধভাবে বিশ্বাস’ করা উচিত নয়। বর্তমান এআই মডেলগুলো ভুল করার প্রবণতা রাখে এবং তাই এটিকে অন্যান্য টুলের পাশাপাশি ব্যবহার করা উচিত বলে মন্তব্য করেন তিনি।
বিবিসিকে দেওয়া এক বিশেষ সাক্ষাৎকারে সুন্দর পিচাই বলেন, এই কারণে কেবল এআই-এর ওপর নির্ভরশীলতা নয়, বরং প্রয়োজন একটি সমৃদ্ধ তথ্য ব্যবস্থা বা ইনফরমেশন ইকোসিস্টেম। তিনি উদাহরণ হিসেবে গুগল সার্চের কথা উল্লেখ করে বলেন, এ কারণেই মানুষ গুগল সার্চ ব্যবহার করে। আমাদের আরও কিছু পণ্য আছে যা নির্ভুল তথ্য দেয়ার ক্ষেত্রে বেশি নির্ভরযোগ্য।
তবে কিছু বিশেষজ্ঞ বলছেন, গুগলের মতো বৃহৎ প্রযুক্তি সংস্থাগুলোর উচিত তাদের সরঞ্জামগুলোর আউটপুট সম্পর্কে তথ্য যাচাই করার জন্য ব্যবহারকারীদের আমন্ত্রণ জানানো নয়, বরং তাদের সিস্টেমগুলোকে আরও নির্ভরযোগ্য করে তোলার দিকে মনোনিবেশ করা উচিত। যদিও সৃজনশীল লেখালেখির মতো কাজে এআই টুল খুবই সহায়ক, তবুও পিচাই বলেন যে মানুষকে শিখতে হবে কোন কাজে এগুলো ভালো এবং কোন ক্ষেত্রে অন্ধভাবে বিশ্বাস না করাই ভালো।
সুন্দর পিচাই বলেন, যতটা সম্ভব নির্ভুল তথ্য দিতে গুগল অসংখ্য কাজ করে, কিন্তু বর্তমান অত্যাধুনিক এআই প্রযুক্তিও এখনও ভুল করে। গুগল তার এআই টুলগুলোতে ডিসক্লেইমার প্রদর্শন করে, যাতে ব্যবহারকারীরা বুঝতে পারেন যে এআই ভুল করতে পারে, কিন্তু নিজস্ব পণ্যের ত্রুটি নিয়ে সমালোচনা ও উদ্বেগ থেকে তারা রক্ষা পাননি।
বিশেষ করে, গুগলের সার্চ ফলাফল সংক্ষেপ করতে এআই ওভারভিউ চালু করার পর কিছু ভুল জবাবের জন্য সংস্থাটিকে সমালোচনা ও উপহাসের শিকার হতে হয়েছে। চ্যাটবটের মতো জেনারেটিভ এআই পণ্যগুলোর বিভ্রান্তিকর বা মিথ্যা তথ্য প্রচারের প্রবণতা বিশেষজ্ঞদের মধ্যে উদ্বেগের কারণ।
লন্ডন কুইন মেরি বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তার অধ্যাপক জিনা নেফ এই প্রসঙ্গে বলেন, আমরা জানি এই সিস্টেমগুলো উত্তর তৈরি করে, এবং তারা আমাদের খুশি করার জন্য উত্তর তৈরি করে। এটা একটা সমস্যা।
তিনি প্রশ্ন তোলেন, যদি আমি জিজ্ঞাসা করি ‘এরপর আমার কোন সিনেমা দেখা উচিত’ তাহলে ঠিক আছে। কিন্তু যদি আমি আমার স্বাস্থ্য, মানসিক সুস্থতা, বিজ্ঞান, সংবাদ সম্পর্কে সত্যিই সংবেদনশীল প্রশ্ন জিজ্ঞাসা করি তবে তা সম্পূর্ণ আলাদা।
অধ্যাপক নেফ তাই গ্রাহকদের ওপর তথ্য যাচাইয়ের দায়িত্ব চাপিয়ে না দিয়ে, গুগলকে তার কৃত্রিম বুদ্ধিমত্তা বিষয়ক পণ্য এবং তাদের নির্ভুলতার ওপর আরও বেশি দায়িত্ব নেওয়ার আহ্বান জানান।
আরটিভি/এএইচ





