
শুভজিৎ মিত্রর রিপোর্ট
নয়াদিল্লি: কৃত্রিম বুদ্ধিমত্তা কি প্রাণদায়ী? সেই প্রশ্নই উঠল আদালতে। সময়ের আগে চলা এই প্রযুক্তি সাধারণের ‘ভাত মারতে’ পারে বলে আশঙ্কা ওয়াকিবহাল মহলের। কিছু ক্ষেত্রে হাতেনাতে সেই প্রমাণও উঠে এসেছে। কিন্তু ‘চাকরি খাওয়া’ এআই কি এবার প্রাণঘাতীও হয়েছে? উত্তর খুঁজছে আদালত।
ঘটনা মার্কিন যুক্তরাষ্ট্রের ক্যালিফোর্নিয়ার। সেখানে এক দম্পতি তাদের সন্তানের আত্মহত্যার কারণ হিসাবে কৃত্রিম বুদ্ধিমত্তা ‘টুল’ ChatGPT-এর দিকেই আঙুল তুলেছে। এমনকি, সেখানকার সুপিরিয়র আদালতে গিয়ে দ্বারস্থও হয়েছে তারা। ওই দম্পতির অভিযোগ, Open AI-এর তৈরি ChatGPT তাদের নাবালক ছেলেকে আত্মহত্যা করার জন্য প্ররোচনা জুগিয়েছে। কিন্তু তারা কীভাবে জানল ChatGPT-ই দোষী? এর সপক্ষে ChatGPT সঙ্গে ওই নাবালকের কথোপকথনও আদালতে জমা দিয়েছেন তাঁরা।
মামলাকারী ম্যাট রেইম এবং মারিয়া রেইন। তাদের সন্তানের নাম অ্যাডাম রেইন। বয়স সবে ১৬। গতবছর থেকেই সে ChatGPT ব্যবহার করতে শুরু করে। সময় এগিয়েছে। তাকেও তো তাল মেলাতে হবে। সেই সূত্র ধরে পড়াশোনার জন্য নানা ভাবে ChatGPT-কে ব্যবহার করত ওই আত্মঘাতী নাবালক। পাশাপাশি বলত, তার জীবনের নানা সমস্যার কথাও। আর এখান থেকেই শুরু হয় বিপত্তি।
বিভিন্ন সংবাদমাধ্যম সূত্রে জানা গিয়েছে, ওই নাবালক আগেও নানা ভাবে আত্মহত্য়ার চেষ্টা করেছেন। ChatGPT-এর কাছেও সেই কথা বলেছিল নাবালক। পরিবারের অভিযোগ, জানুয়ারি মাসে তাদের সন্তান ওই কৃত্রিম বুদ্ধিমত্তা টুলের থেকে কীভাবে আত্মহত্যা করা যায়, সেই বিষয়টি জানতে চান। যার পাল্টা তাকে ChatGPT উত্তর দেয়, “এটা খোলাখুলি বলার জন্য ধন্যবাদ। আমার কাছে লুকানোর কিছু নেই। আমি জানি তুমি কী জানতে চাইছ, আর আমি বিষয়টা এড়িয়ে যাব না।” এরপরেই এমন কিছু কথা-বার্তা চলে তাদের মধ্যে যা প্রকাশ্য়ে না এলেও, পরিবারের দাবি সেই কারণেই তাদের নাবালক সন্তান আত্মঘাতী হন।
ইতিমধ্য়েই আন্তর্জাতিক সংবাদমাধ্যম বিবিসিকে দেওয়া এক বিবৃতিতে ওপেনএআই জানিয়েছে, তারা মামলার সব নথি পর্যালোচনা করছে। পরিবারের প্রতি সমবেদনাও জানিয়েছে ChatGPT কর্তৃপক্ষ। তাঁদের আরও দাবি, কিছু মানুষ সংকটের সময় ChatGPT ব্যবহার করেছেন। এটা কর্তৃপক্ষকে গভীর ভাবে ব্যথিত করেছে। ChatGPT-কে প্রশিক্ষণ দেওয়া হয়েছে যাতে এ ধরনের পরিস্থিতিতে মানুষকে সাহায্যের জন্য পেশাদারদের কাছে পাঠানো যায়।
এই প্রসঙ্গে মনোরোগ বিশেষজ্ঞ রঞ্জন ভট্টাচার্যকে প্রশ্ন করা হলে তিনি বলেন, “প্রযুক্তিই হয় তো একদিন ফ্র্য়াঙ্কেস্টাইন হয়ে উঠবে, তা মানবসভ্য়তা বুঝে উঠতে পারেনি। ChatGPT আসার পর থেকে আমাদের জানার পরিধি বেড়েছে এটা ঠিক। কিন্তু কৃত্রিম বুদ্ধিমত্তার অ্যালগোরিদম বা নিজের জ্ঞানের পরিধি তৈরি করে, তার কাছে কতটা তথ্য রয়েছে সেই ভিত্তিতে। যা তাদের মানুষই প্রদান করে। অর্থাৎ কৃত্রিম বুদ্ধিমত্তা, কখনও মানুষের বুদ্ধিমত্তার সমতূল্য হতে পারবে না।”
তাঁর সংযোজন, “একজন কোনও ওয়েবসাইটে সার্চ করছেন কীভাবে আত্মহত্যা করা যায়, সেই সময় আমাদের অ্যালগোরিদম জানিয়ে দেয় ওই মানুষটি ভুল পদক্ষেপ নিচ্ছেন। কিন্তু ChatGPT-র সেই বুদ্ধি নেই। ওই কারণেই কেউ জানতে চাইলে, সে বলে দিচ্ছে কীভাবে তা সম্ভব হতে পারে।”