গুগলের মূল প্রতিষ্ঠান অ্যালফাবেটের প্রধান নির্বাহী সুন্দর পিচাই কৃত্রিম বুদ্ধিমত্তা (এআই) টুলগুলোর ব্যবহার নিয়ে সতর্ক করেছেন। সম্প্রতি এক সাক্ষাৎকারে তিনি স্পষ্ট জানিয়েছেন যে, ব্যবহারকারীদের এআই টুলগুলোর আউটপুট বা কথাগুলোকে ‘অন্ধভাবে বিশ্বাস’ করা উচিত নয়। বর্তমান এআই মডেলগুলো ভুল করার প্রবণতা রাখে এবং তাই এটিকে অন্যান্য টুলের পাশাপাশি ব্যবহার করা উচিত বলে মন্তব্য করেন তিনি।
বিবিসিকে দেওয়া এক বিশেষ সাক্ষাৎকারে সুন্দর পিচাই বলেন, এই কারণে কেবল এআই-এর ওপর নির্ভরশীলতা নয়, বরং প্রয়োজন একটি সমৃদ্ধ তথ্য ব্যবস্থা বা ইনফরমেশন ইকোসিস্টেম। তিনি উদাহরণ হিসেবে গুগল সার্চের কথা উল্লেখ করে বলেন, এ কারণেই মানুষ গুগল সার্চ ব্যবহার করে। আমাদের আরও কিছু পণ্য আছে যা নির্ভুল তথ্য দেয়ার ক্ষেত্রে বেশি নির্ভরযোগ্য।
তবে কিছু বিশেষজ্ঞ বলছেন, গুগলের মতো বৃহৎ প্রযুক্তি সংস্থাগুলোর উচিত তাদের সরঞ্জামগুলোর আউটপুট সম্পর্কে তথ্য যাচাই করার জন্য ব্যবহারকারীদের আমন্ত্রণ জানানো নয়, বরং তাদের সিস্টেমগুলোকে আরও নির্ভরযোগ্য করে তোলার দিকে মনোনিবেশ করা উচিত। যদিও সৃজনশীল লেখালেখির মতো কাজে এআই টুল খুবই সহায়ক, তবুও পিচাই বলেন যে মানুষকে শিখতে হবে কোন কাজে এগুলো ভালো এবং কোন ক্ষেত্রে অন্ধভাবে বিশ্বাস না করাই ভালো।
সুন্দর পিচাই বলেন, যতটা সম্ভব নির্ভুল তথ্য দিতে গুগল অসংখ্য কাজ করে, কিন্তু বর্তমান অত্যাধুনিক এআই প্রযুক্তিও এখনও ভুল করে। গুগল তার এআই টুলগুলোতে ডিসক্লেইমার প্রদর্শন করে, যাতে ব্যবহারকারীরা বুঝতে পারেন যে এআই ভুল করতে পারে, কিন্তু নিজস্ব পণ্যের ত্রুটি নিয়ে সমালোচনা ও উদ্বেগ থেকে তারা রক্ষা পাননি।
বিশেষ করে, গুগলের সার্চ ফলাফল সংক্ষেপ করতে এআই ওভারভিউ চালু করার পর কিছু ভুল জবাবের জন্য সংস্থাটিকে সমালোচনা ও উপহাসের শিকার হতে হয়েছে। চ্যাটবটের মতো জেনারেটিভ এআই পণ্যগুলোর বিভ্রান্তিকর বা মিথ্যা তথ্য প্রচারের প্রবণতা বিশেষজ্ঞদের মধ্যে উদ্বেগের কারণ।
লন্ডন কুইন মেরি বিশ্ববিদ্যালয়ের কৃত্রিম বুদ্ধিমত্তার অধ্যাপক জিনা নেফ এই প্রসঙ্গে বলেন, আমরা জানি এই সিস্টেমগুলো উত্তর তৈরি করে, এবং তারা আমাদের খুশি করার জন্য উত্তর তৈরি করে। এটা একটা সমস্যা।
তিনি প্রশ্ন তোলেন, যদি আমি জিজ্ঞাসা করি ‘এরপর আমার কোন সিনেমা দেখা উচিত’ তাহলে ঠিক আছে। কিন্তু যদি আমি আমার স্বাস্থ্য, মানসিক সুস্থতা, বিজ্ঞান, সংবাদ সম্পর্কে সত্যিই সংবেদনশীল প্রশ্ন জিজ্ঞাসা করি তবে তা সম্পূর্ণ আলাদা।
অধ্যাপক নেফ তাই গ্রাহকদের ওপর তথ্য যাচাইয়ের দায়িত্ব চাপিয়ে না দিয়ে, গুগলকে তার কৃত্রিম বুদ্ধিমত্তা বিষয়ক পণ্য এবং তাদের নির্ভুলতার ওপর আরও বেশি দায়িত্ব নেওয়ার আহ্বান জানান।
সূত্র: আরটিভি