এআইকে অন্ধভাবে বিশ্বাস করবেন না: গুগলের সুন্দর পিচাই

আরটিভি নিউজ 

মঙ্গলবার, ০৯ ডিসেম্বর ২০২৫ , ০৬:৩৭ পিএম


এআইকে অন্ধভাবে বিশ্বাস করবেন না: গুগলের সুন্দর পিচাই
প্রতীকী ছবি

গুগলের মূল প্রতিষ্ঠান অ্যালফাবেটের প্রধান নির্বাহী সুন্দর পিচাই কৃত্রিম বুদ্ধিমত্তা (এআই) টুলগুলোর ব্যবহার নিয়ে সতর্ক করেছেন। সম্প্রতি এক সাক্ষাৎকারে তিনি স্পষ্ট জানিয়েছেন যে, ব্যবহারকারীদের এআই টুলগুলোর আউটপুট বা কথাগুলোকে ‘অন্ধভাবে বিশ্বাস’ করা উচিত নয়। বর্তমান এআই মডেলগুলো ভুল করার প্রবণতা রাখে এবং তাই এটিকে অন্যান্য টুলের পাশাপাশি ব্যবহার করা উচিত বলে মন্তব্য করেন তিনি।

বিজ্ঞাপন

বিবিসিকে দেওয়া এক বিশেষ সাক্ষাৎকারে সুন্দর পিচাই বলেন, এই কারণে কেবল এআই-এর ওপর নির্ভরশীলতা নয়, বরং প্রয়োজন একটি সমৃদ্ধ তথ্য ব্যবস্থা বা ইনফরমেশন ইকোসিস্টেম। তিনি উদাহরণ হিসেবে গুগল সার্চের কথা উল্লেখ করে বলেন, এ কারণেই মানুষ গুগল সার্চ ব্যবহার করে। আমাদের আরও কিছু পণ্য আছে যা নির্ভুল তথ্য দেয়ার ক্ষেত্রে বেশি নির্ভরযোগ্য।

তবে কিছু বিশেষজ্ঞ বলছেন, গুগলের মতো বৃহৎ প্রযুক্তি সংস্থাগুলোর উচিত তাদের সরঞ্জামগুলোর আউটপুট সম্পর্কে তথ্য যাচাই করার জন্য ব্যবহারকারীদের আমন্ত্রণ জানানো নয়, বরং তাদের সিস্টেমগুলোকে আরও নির্ভরযোগ্য করে তোলার দিকে মনোনিবেশ করা উচিত। যদিও সৃজনশীল লেখালেখির মতো কাজে এআই টুল খুবই সহায়ক, তবুও পিচাই বলেন যে মানুষকে শিখতে হবে কোন কাজে এগুলো ভালো এবং কোন ক্ষেত্রে অন্ধভাবে বিশ্বাস না করাই ভালো।

বিজ্ঞাপন

সুন্দর পিচাই বলেন, যতটা সম্ভব নির্ভুল তথ্য দিতে গুগল অসংখ্য কাজ করে, কিন্তু বর্তমান অত্যাধুনিক এআই প্রযুক্তিও এখনও ভুল করে। গুগল তার এআই টুলগুলোতে ডিসক্লেইমার প্রদর্শন করে, যাতে ব্যবহারকারীরা বুঝতে পারেন যে এআই ভুল করতে পারে, কিন্তু নিজস্ব পণ্যের ত্রুটি নিয়ে সমালোচনা ও উদ্বেগ থেকে তারা রক্ষা পাননি।

আরও পড়ুন

বিশেষ করে, গুগলের সার্চ ফলাফল সংক্ষেপ করতে এআই ওভারভিউ চালু করার পর কিছু ভুল জবাবের জন্য সংস্থাটিকে সমালোচনা ও উপহাসের শিকার হতে হয়েছে। চ্যাটবটের মতো জেনারেটিভ এআই পণ্যগুলোর বিভ্রান্তিকর বা মিথ্যা তথ্য প্রচারের প্রবণতা বিশেষজ্ঞদের মধ্যে উদ্বেগের কারণ। 

বিজ্ঞাপন

লন্ডন কুইন মেরি বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তার অধ্যাপক জিনা নেফ এই প্রসঙ্গে বলেন, আমরা জানি এই সিস্টেমগুলো উত্তর তৈরি করে, এবং তারা আমাদের খুশি করার জন্য উত্তর তৈরি করে। এটা একটা সমস্যা।

তিনি প্রশ্ন তোলেন, যদি আমি জিজ্ঞাসা করি ‘এরপর আমার কোন সিনেমা দেখা উচিত’ তাহলে ঠিক আছে। কিন্তু যদি আমি আমার স্বাস্থ্য, মানসিক সুস্থতা, বিজ্ঞান, সংবাদ সম্পর্কে সত্যিই সংবেদনশীল প্রশ্ন জিজ্ঞাসা করি তবে তা সম্পূর্ণ আলাদা।

অধ্যাপক নেফ তাই গ্রাহকদের ওপর তথ্য যাচাইয়ের দায়িত্ব চাপিয়ে না দিয়ে, গুগলকে তার কৃত্রিম বুদ্ধিমত্তা বিষয়ক পণ্য এবং তাদের নির্ভুলতার ওপর আরও বেশি দায়িত্ব নেওয়ার আহ্বান জানান।

আরটিভি/এএইচ

আরটিভি খবর পেতে গুগল নিউজ চ্যানেল ফলো করুন

logo_appslogo_apps
বিজ্ঞাপন

আরও পড়ুন

© All Rights Reserved 2016-2026 | RTV Online | It is illegal to use contents, pictures, and videos of this website without authority's permission