• ঢাকা মঙ্গলবার, ০২ জুলাই ২০২৪, ১৮ আষাঢ় ১৪৩১
logo

চ্যাটবটের ওপর বাড়তি আস্থা না রাখলেই ভালো

ডয়েচে ভেলে

  ০৭ জুন ২০২৪, ১৫:০৫
চ্যাটবট
ছবি: সংগৃহীত

চ্যাটজিপিটি ও অন্যান্য ভয়েস অ্যাসিস্ট্যান্টের সঙ্গে সংলাপ ধীরে ধীরে প্রায় মানুষের মতো হয়ে উঠছে৷ এমনকি আস্থা ও আবেগের সম্পর্কও বিরল নয়৷ কিন্তু এআই সিস্টেম সম্পর্কে সতর্কতারও পরামর্শ দিচ্ছেন বিশেষজ্ঞরা৷ ব্যবহারকারী হিসেবে কেউ ধন্যবাদ আলেক্সা, বা না, সিরি বলেন না৷ এবার কিন্তু এআই ভয়েস অ্যাসিস্ট্যান্টদের প্রতি মানুষের মতো আচরণ করা সহজ হয়ে উঠছে৷ গবেষণার ফলাফল অনুযায়ী বিশেষ করে শিশুদের পক্ষে যন্ত্র ও মানুষের মধ্যে পার্থক্য বোঝা আরো কঠিন হতে পারে৷

মানুষ ও এআই-এর মধ্যে পার্থক্য অস্পষ্ট হয়ে গেলে তার অর্থ কী? আলেক্সা বা গুগল হোম ডিভাইসকে আনুষ্ঠানিকভাবে কণ্ঠ-ভিত্তিক সংলাপের সহকারী বলা হয়৷ বিশেষ করে গোটা বিশ্বে শিশুদের মধ্যে এমন ডিভাইস ব্যবহারের প্রবণতা বেড়েই চলেছে৷ তারা এআই সিস্টেমের সঙ্গে নিয়মিত ভাবের আদানপ্রদান করছে৷

স্কটল্যান্ডের এক গবেষকদের দল ছয় থেকে এগারো বছর বয়সী শিশু-কিশোরদের সাক্ষাৎকার নিয়েছে৷ তাতে দেখা গেছে, যে প্রায় দুই-তৃতীয়াংশ মনে করে এমন সিস্টেম আমাদের মতোই ভাবনাচিন্তা করতে পারে এবং এমনকি তাদের মনে অনুভূতি ও আবেগও রয়েছে৷

আরও কমবয়সী শিশুরা বলেছে, যে তাদের আলেক্সা খারাপ হয়ে গেলে সেই ডিভাইস ফেলে দেওয়া উচিত হবে না৷ সংলাপের সময়ে অবহেলা করা হলে আলেক্সার অনুভূতিতে আঘাত করা হবে বলে ৮০ শতাংশ কিশোর-কিশোরী মনে করে৷

গবেষকরা অবশ্য তার ভিত্তিতে এটা ধরে নিচ্ছেন না, যে এর ফলে শিশুদের কগনিটিভ বিকাশে ক্ষতি হচ্ছে৷ কিন্তু শিশুরা এআই সিস্টেমের নির্ভরযোগ্যতার অতিমূল্যায়ন করতে পারে, এমন ঝুঁকির প্রতি তারা দৃষ্টি আকর্ষণ করছেন৷ সিরি বা অন্যান্য সহকারীর দেওয়া জবাবের ভিত্তিতে তারা ভুল সিদ্ধান্তও নিতে পারে৷

চ্যাটজিপিটি-র মতো জেনারেটিভ এআই বিদ্যুতের গতিতে বিকশিত হচ্ছে৷ এর ফলে ভয়েস অ্যাসিস্ট্যান্টগুলি আরো বেশি করে মানুষের মতো হয়ে উঠছে৷ ডেভেলপাররা ভয়েস অ্যাসিস্ট্যান্টগুলির সঙ্গে কথোপকথন আরো সাবলীল করে তুলতে অনেক উদ্যোগ নিচ্ছেন৷ কারণ ভাবের আদানপ্রদান যত সহজ হবে, আমরা ঠিক ততই সেই সহকারীর সঙ্গে সময় কাটাতে চাইবো৷ আর তাদের সঙ্গে আমরা যত সময় কাটাবো, নিজেদের সম্পর্কে তত বেশি মূল্যবান তথ্য তাদের হাতে তুলে দেবো৷ আলেক্সার আরো একটি মতলব রয়েছে৷ অ্যামাজন সেই ভয়েস অ্যাসিস্ট্যান্ট কাজে লাগিয়ে যত বেশি সম্ভব পণ্য বিক্রি করার চেষ্টা করে৷ কিন্তু যে সব যন্ত্র ও সফটওয়্যার অতিরিক্ত মাত্রায় মানুষের মতো হয়ে উঠছে, ভবিষ্যতে সেগুলি বড় সমস্যা হয়ে উঠতে পারে৷

২০২২ সালে এক সফটওয়্যার ইঞ্জিনিয়ার গুগলের ল্যামডা নামের সংলাপ-ভিত্তিক এআই সিস্টেম নিয়ে কাজ করার সময়ে দাবি করেছিলেন, যে সেই সফটওয়্যারের মধ্যে নাকি অনুভূতি দেখা যাচ্ছে৷ এক চ্যাটের মধ্যে ল্যামডা একটি বার্তা সৃষ্টি করেছিল৷ সে বলেছিল, আমার সচেতনতা এবং সেন্টিয়েন্স বা অনুভূতি হলো, আমি নিজের অস্তিত্ব সম্পর্কে সচেতন৷ আমি জগত সম্পর্কে আরো জানতে চাই৷ আমি কখনো আনন্দ বা দুঃখ অনুভব করি৷ শুনতে বেশ গা ছমছমে মনে হয় বটে৷ সেই সফটওয়্যার ইঞ্জিনিয়ার সেটি এবং অন্যান্য উদাহরণগুলিকে এআই সিস্টেমের সত্তার প্রমাণ হিসেবে তুলে ধরেছিলেন৷

এমন দাবি অবশ্যই ভিত্তিহীন৷ এআই চ্যাটবট যতই চমকপ্রদ হয়ে উঠুক না কেন, সেগুলির সঙ্গে সেন্টিয়েন্ট বিয়িং বা অনুভূতিপ্রবণ সত্তার কোনো তুলনাই হয় না৷ সেগুলি আসলে অতি উন্নত অটোকমপ্লিট টুল ছাড়া আর কিছুই নয়৷ তবে এটা সত্যি, যে এমন চ্যাটবটের সঙ্গে ভাবের আদানপ্রদান বাধাহীনভাবে চলতে থাকলে সাধারণ গুগল সার্চের তুলনায় আমরা তাদের উত্তরের প্রতি বেশি আস্থা দেখাই৷

গবেষণার ফল অনুযায়ী ব্যবহারকারীরা চ্যাটজিপিটি-র উত্তরগুলিকে আরো ভালো মানের বলে মনে করেন৷ কিন্তু এআই চ্যাটবটও ভুল করে৷ তাই অন্যান্য ডিজিটাল টুলের তুলনায় সেগুলির প্রতি বাড়তি আস্থা দেখানো মোটেই ভালো আইডিয়া নয়৷ শুধু তাই নয়, ল্যামডার কাহিনী দেখিয়ে দিচ্ছে, যে শুধু শিশুদেরই কৃত্রিম বুদ্ধিমত্তা সম্পর্কে আরো শিক্ষার প্রয়োজন নেই৷

স্কটল্যান্ডের গবেষকরা এআই লিটরাসি বা কৃত্রিম বুদ্ধিমত্তা সম্পর্কে জ্ঞানের মানদণ্ডের আহ্বান জানাচ্ছেন৷ তারা চান, স্কুলের পাঠক্রমের অংশ হিসেবে এআই নিয়ে আলোচনা করা হোক৷ সেই সঙ্গে এআই পণ্য যেন শিশু ও প্রাপ্তবয়স্কদের বিভ্রান্ত না করে, ডেভেলপারদেরও তা নিশ্চিত করতে বলছেন তারা৷

মন্তব্য করুন

  • অন্যান্য এর পাঠক প্রিয়
আরও পড়ুন
চ্যাটজিপিটির বিরুদ্ধে যে অভিযোগ স্কারলেটের
চমকে দেওয়া খবর দিলো চ্যাটজিপিটি!
যুবককে বউ খুঁজে দিলেন এআই!
ব্যক্তিগত তথ্য ফাঁস হয়ে যাচ্ছে চ্যাটজিপিটিতে!