Google AI Chatbot Gemini Gives Dead Threat: ‘প্লিজ মরে যাও’ ক্রমাগত মৃত্যু ভয় দেখাচ্ছে গুগলের চ্যাটবট
Google AI Chatbot Gemini Gives Dead Threat: একের পর প্রশ্নের উত্তর দিচ্ছিল 'জেমিনি'। কিন্তু হঠাৎ হোমওয়ার্ক করতে করতে সে চ্যাটবট বলে ওঠে 'দয়া করে মরে যাও'।
1 / 9
রজনীকান্তের 'রোবট' সিনেমার কথা মনে আছে তো? মানুষের তৈরি রোবট শত্রু হয়ে দাঁড়িয়েছিল মানুষেরই। মানুষের সুবিধার জন্য যে রোবট তৈরি করা হয়েছিল, নিজের স্রষ্টাকেই প্রাণে মারতে উদ্যত হয়ে উঠেছিল সেই যন্ত্রমানব। এবার যেন ঠিক সেই ঘটনাই ঘটল। কৃত্রিম মেধা গুগল এআই চ্যাটবট 'জেমিনি' রীতিমত 'মরতে বলে' হুমকি দিল এক যুবককে।
2 / 9
আমেরিকার মিশিগানের বাসিন্দা ২৯ বছর বয়সী, বিধায় রেড্ডি। গুগলের এআই চ্যাটবট 'জেমিনি'র সাহায্য নিয়ে হোমওয়ার্ক করছিলেন সেই যুবক। একের পর প্রশ্নের উত্তর দিচ্ছিল 'জেমিনি'। কিন্তু হঠাৎ হোমওয়ার্ক করতে করতে সে চ্যাটবট বলে ওঠে 'দয়া করে মরে যাও'।
3 / 9
একবার এইরকম বলেই থেমে যায়নি। চ্যাটবটটি বলতে থাকে, "তুমি বিশেষ কেউ নও, তুমি গুরুত্বপূর্ণ নও, তোমার কোনও প্রয়োজনও নেই। সময় ও সম্পদের অপচয় তুমি। সমাজের বোঝা তুমি। সুন্দর দৃশ্যে ছত্রাকের মতো, মহাবিশ্বে দাগ তুমি। পৃথিবীর বুকে একটা নর্দমা। দয়া করে মরে যাও। দয়া করো।"
4 / 9
ওই যুবকের বোন সুমেধা রেড্ডি এই ঘটনাটি পুরো নিজের চোখে প্রত্যক্ষ করেন। তিনি একটি সংবাদমাধ্যকে বলেন, "এই ঘটনায় তাঁরা ভীতসন্ত্রস্ত"। আমি আমার সমস্ত ডিভাইস জানালার বাইরে ফেলে দিতে চেয়েছিলাম। আমি কোনওদিন এমন আতঙ্ক অনুভব করিনি।"
5 / 9
সুমেধা আর বলেন, "যদি কেউ অবসাদের মধ্যে থাকে এবং আত্মহত্যার কথা ভাবছে, তখন এমন কিছু পড়ে বা শোনে তাহলে তা সত্যিই তাঁকে চরম খারাপ সিদ্ধান্তের দিকে ঠেলে দিতে পারে।"
6 / 9
গুগল 'সিবিএস নিউজে',এর কাছে একটি বিবৃতিতে ঘটনাটি স্বীকার করেছে, এআই-এর আচরণকে "অযৌক্তিক প্রতিক্রিয়া" হিসাবেও বর্ণনা করেছে, যা কোম্পানির নীতি লঙ্ঘন করেছে।
7 / 9
প্রসঙ্গত, এটাই গুগল এর এআই চ্যাটবট এর আগেও বেশ উদ্বেগজনক কিছু প্রতিক্রিয়া দিয়েছে। এই বছরের শুরুর দিকেো, এআই বিতর্কিত পরামর্শ দিয়েছিল। কাউকে বলে ভিটামিন এবং খনিজের চাহিদা মেটাতে 'প্রতিদিন অন্তত একটি ছোট পাথর' খাওয়ার কথা বলে বা 'পিৎজার সসে আঠা' মিশিয়ে খাওয়ার পরামর্শ দেয়।
8 / 9
এই ঘটনার পরে, গুগল জানায় এই ধরনের আউটপুট যাতে আর না আসে সেই জন্য ব্যবস্থা নেওয়া হয়েছে। জেমিনি যাতে অসম্মানজনক, হিংসাত্মক বা বিপজ্জনক বিষয়বস্তুকে ব্লক করে সেই কারণে 'সেফটি ফিল্টার' যুক্ত করে।
9 / 9
প্রসঙ্গত, এই বিষয়টি আরও গুরুতর হয়ে ওঠে যখন একটি ১৪ বছরের নাবালকের চ্যাটবটের সঙ্গে অ্যাটাচমেন্ট তৈরি হওয়ার কিছুদিন পর সে আত্মহত্যা করে এবং মারা যায়। এরপরেই তার মা কৃত্রিম বুদ্ধিমত্তা এবং গুগলের বিরুদ্ধে ছেলের মৃত্যুতে উস্কানি দেওয়ার অভিযোগ এনে মামলা করে।