মানুষের মস্তিষ্কের ভেতরে স্নায়ুর বিদ্যুৎ-তরঙ্গের জটিল খেলা দীর্ঘদিন ধরেই বিজ্ঞানীদের জন্য ছিল দুর্বোধ্য। কিন্তু কৃত্রিম বুদ্ধিমত্তা (এআই) সেই জট খুলতে শুরু করেছে। সাম্প্রতিক একাধিক গবেষণায় দেখা যাচ্ছে, এআই এখন মানুষের “অন্তর্নিহিত ভাষা” বা মনের ভেতরের কথাও আংশিকভাবে পড়ে ফেলতে পারছে।
পক্ষাঘাতে বাকরুদ্ধ, তবু পর্দায় ভেসে উঠছে কথা
যুক্তরাষ্ট্রের স্ট্যানফোর্ড ইউনিভার্সিটির এক গবেষণায় ৫২ বছর বয়সী এক নারী অংশ নেন, যিনি ১৯ বছর আগে স্ট্রোকে আক্রান্ত হয়ে কথা বলার ক্ষমতা প্রায় হারিয়েছিলেন। গবেষণায় অংশগ্রহণকারী ‘টি১৬’ নামে পরিচিত এই নারীর মস্তিষ্কের সামনের অংশে অস্ত্রোপচারের মাধ্যমে ক্ষুদ্র ইলেকট্রোডের একটি অ্যারে বসানো হয়।
তিনি যখন মনে মনে শব্দ উচ্চারণ করার কথা কল্পনা করছিলেন, তখন কম্পিউটারভিত্তিক এআই সিস্টেম সেই স্নায়ু-সংকেত বিশ্লেষণ করে পর্দায় বাক্য হিসেবে তুলে ধরছিল। একই গবেষণায় অ্যামিওট্রফিক ল্যাটেরাল স্ক্লেরোসিস রোগে আক্রান্ত আরও তিনজন অংশ নেন। লক্ষ্য ছিল— মানুষের চিন্তাকে রিয়েল-টাইমে টেক্সটে রূপান্তর করা সম্ভব কি না।
গবেষকরা ২০২৫ সালের আগস্টে এই সাফল্য প্রকাশ করেন। এর কিছুদিন পর জাপানের গবেষকরাও এমন একটি “মাইন্ড ক্যাপশনিং” প্রযুক্তি দেখান, যা মস্তিষ্কের নন-ইনভেসিভ স্ক্যান ব্যবহার করে মানুষ কী দেখছে বা কল্পনা করছে তার বিস্তারিত বর্ণনা তৈরি করতে পারে।
ব্রেন-কম্পিউটার ইন্টারফেস: পুরোনো ধারণা, নতুন গতি
মস্তিষ্কের সঙ্গে সরাসরি যোগাযোগ স্থাপনকারী প্রযুক্তি ‘ব্রেন-কম্পিউটার ইন্টারফেস’ নতুন নয়। ১৯৬৯ সালে মার্কিন স্নায়ুবিজ্ঞানী এবারহার্ড ফেটজ দেখিয়েছিলেন, বানর একটি নিউরনের কার্যকলাপ দিয়ে মিটার নাড়াতে শিখতে পারে। একই সময়ে স্পেনের বিজ্ঞানী জস ডেলগাডো দূর থেকে একটি ষাঁড়ের মস্তিষ্ক উদ্দীপিত করে তাকে মাঝপথে থামিয়ে দেন।
তবে ভাষা বা জটিল চিন্তা ডিকোড করা তুলনামূলকভাবে কঠিন ছিল। সাম্প্রতিক বছরগুলোতে এআই ও মেশিন লার্নিংয়ের উন্নতির ফলে এই ক্ষেত্রে অগ্রগতি দ্রুত হয়েছে।
অন্তর্নিহিত ভাষা ধরতে পারছে এআই
গবেষক ফ্রাঙ্ক উইলেট্টের নেতৃত্বে দলটি পরীক্ষা করে দেখেন, মানুষ যখন মনে মনে গণনা করে বা বাক্য গঠন করে, তখনও মোটর কর্টেক্সে স্নায়ু-সংকেত তৈরি হয়। নির্দিষ্ট পরীক্ষায় কল্পিত বাক্যের ক্ষেত্রে প্রায় ৭৪ শতাংশ পর্যন্ত সঠিকতা পাওয়া গেছে। যদিও পুরোপুরি ‘অফিল্টার্ড’ মনের কথা পড়া এখনও সম্ভব নয়।
অন্যদিকে, ম্যারিট্রেই ওয়েইরেগকারের গবেষণাগারে ২০২৪ সালে এএলএস আক্রান্ত এক ব্যক্তির চেষ্টা করা কথাকে সরাসরি টেক্সটে রূপান্তর করে মিনিটে প্রায় ৩২টি শব্দ তৈরি করা সম্ভব হয়, যার নির্ভুলতা ছিল ৯৭.৫ শতাংশ। ২০২৫ সালে তারা শুধু শব্দ নয়, স্বরের ওঠানামা, গতি ও আবেগও আংশিকভাবে পুনর্গঠন করতে সক্ষম হন।
শুধু কথা নয়, দেখা ও শোনা অভিজ্ঞতাও
জাপানের নাগোয়া ইনস্টিটিউট অব টেকনোলজির সহযোগী অধ্যাপক ইউ তাকাগি ২০২৩ সালে এমন এক গবেষণা প্রকাশ করেন, যেখানে এফএমআরই স্ক্যান বিশ্লেষণ করে মানুষ যে ছবি দেখছে তার অনুরূপ ছবি তৈরি করা হয়। এতে ব্যবহার করা হয় এআই ইমেজ জেনারেটর স্ট্যাবল ডিফফিউসন।
গবেষণায় দেখা গেছে, মস্তিষ্কের অক্সিপিটাল লোব চিত্রের রং, বিন্যাস ও দৃষ্টিকোণ বিশ্লেষণ করে, আর টেম্পোরাল লোব বস্তুটির ধারণাগত অর্থ নির্ধারণ করে। ২০২৫ সালে তাকাগি সংগীত শোনার সময় মস্তিষ্কের স্ক্যান থেকে সংগীতের বৈশিষ্ট্য পুনর্গঠনের চেষ্টাও করেন। যদিও ছবির তুলনায় সংগীত পুনর্গঠন বেশি কঠিন।
সামনে কী আসছে?
বিশেষজ্ঞদের মতে, ভবিষ্যতে আরও বেশি নিউরন থেকে তথ্য সংগ্রহ করা গেলে এই প্রযুক্তি আরও নিখুঁত হবে। ইতোমধ্যে ইলন মাস্কের প্রতিষ্ঠান নিউরালিংক বাণিজ্যিক ব্রেন-চিপ বাজারে আনার চেষ্টা করছে।
গবেষকদের আশা, এই প্রযুক্তি বাকরুদ্ধ রোগীদের জন্য নতুন যোগাযোগের দ্বার খুলে দেবে। পাশাপাশি এটি স্বপ্ন পুনর্গঠন, মানসিক রোগীদের বিভ্রম বোঝা কিংবা এক মস্তিষ্ক থেকে আরেক মস্তিষ্কে তথ্য আদান-প্রদানের সম্ভাবনাও তৈরি করতে পারে।
তবে বিশেষজ্ঞরা সতর্ক করছেন, নৈতিকতা ও গোপনীয়তার প্রশ্ন এখনো পুরোপুরি সমাধান হয়নি। প্রযুক্তি যতই উন্নত হোক, মানুষের মনের গোপন জগত উন্মোচনে এখনও সময় লাগবে। সম্ভবত আরও ১০ থেকে ২০ বছর।
তবু এটুকু স্পষ্ট, এআই এখন শুধু আমাদের বলা কথা নয়, না-বলা কথাও পড়তে শিখছে।
সূত্র: বিবিসি