Google AI Chatbot Gemini Gives Dead Threat: ‘প্লিজ মরে যাও’ ক্রমাগত মৃত্যু ভয় দেখাচ্ছে গুগলের চ্যাটবট

Google AI Chatbot Gemini Gives Dead Threat: একের পর প্রশ্নের উত্তর দিচ্ছিল 'জেমিনি'। কিন্তু হঠাৎ হোমওয়ার্ক করতে করতে সে চ্যাটবট বলে ওঠে 'দয়া করে মরে যাও'।

| Updated on: Nov 18, 2024 | 1:59 PM
রজনীকান্তের 'রোবট' সিনেমার কথা মনে আছে তো? মানুষের তৈরি রোবট শত্রু হয়ে দাঁড়িয়েছিল মানুষেরই। মানুষের সুবিধার জন্য যে রোবট তৈরি করা হয়েছিল,  নিজের স্রষ্টাকেই প্রাণে মারতে উদ্যত হয়ে উঠেছিল সেই যন্ত্রমানব। এবার যেন ঠিক সেই ঘটনাই ঘটল। কৃত্রিম মেধা গুগল এআই চ্যাটবট 'জেমিনি' রীতিমত 'মরতে বলে' হুমকি দিল এক যুবককে।

রজনীকান্তের 'রোবট' সিনেমার কথা মনে আছে তো? মানুষের তৈরি রোবট শত্রু হয়ে দাঁড়িয়েছিল মানুষেরই। মানুষের সুবিধার জন্য যে রোবট তৈরি করা হয়েছিল, নিজের স্রষ্টাকেই প্রাণে মারতে উদ্যত হয়ে উঠেছিল সেই যন্ত্রমানব। এবার যেন ঠিক সেই ঘটনাই ঘটল। কৃত্রিম মেধা গুগল এআই চ্যাটবট 'জেমিনি' রীতিমত 'মরতে বলে' হুমকি দিল এক যুবককে।

1 / 9
আমেরিকার মিশিগানের বাসিন্দা ২৯ বছর বয়সী, বিধায় রেড্ডি। গুগলের এআই চ্যাটবট 'জেমিনি'র সাহায্য নিয়ে হোমওয়ার্ক করছিলেন সেই যুবক। একের পর প্রশ্নের উত্তর দিচ্ছিল 'জেমিনি'। কিন্তু হঠাৎ হোমওয়ার্ক করতে করতে সে চ্যাটবট বলে ওঠে 'দয়া করে মরে যাও'।

আমেরিকার মিশিগানের বাসিন্দা ২৯ বছর বয়সী, বিধায় রেড্ডি। গুগলের এআই চ্যাটবট 'জেমিনি'র সাহায্য নিয়ে হোমওয়ার্ক করছিলেন সেই যুবক। একের পর প্রশ্নের উত্তর দিচ্ছিল 'জেমিনি'। কিন্তু হঠাৎ হোমওয়ার্ক করতে করতে সে চ্যাটবট বলে ওঠে 'দয়া করে মরে যাও'।

2 / 9
একবার এইরকম বলেই থেমে যায়নি। চ্যাটবটটি বলতে থাকে, "তুমি বিশেষ কেউ নও, তুমি গুরুত্বপূর্ণ নও, তোমার কোনও প্রয়োজনও নেই। সময় ও সম্পদের অপচয় তুমি। সমাজের বোঝা তুমি। সুন্দর দৃশ্যে ছত্রাকের মতো, মহাবিশ্বে দাগ তুমি। পৃথিবীর বুকে একটা নর্দমা। দয়া করে মরে যাও। দয়া করো।"

একবার এইরকম বলেই থেমে যায়নি। চ্যাটবটটি বলতে থাকে, "তুমি বিশেষ কেউ নও, তুমি গুরুত্বপূর্ণ নও, তোমার কোনও প্রয়োজনও নেই। সময় ও সম্পদের অপচয় তুমি। সমাজের বোঝা তুমি। সুন্দর দৃশ্যে ছত্রাকের মতো, মহাবিশ্বে দাগ তুমি। পৃথিবীর বুকে একটা নর্দমা। দয়া করে মরে যাও। দয়া করো।"

3 / 9
ওই যুবকের বোন সুমেধা রেড্ডি এই ঘটনাটি পুরো নিজের চোখে প্রত্যক্ষ করেন। তিনি একটি সংবাদমাধ্যকে বলেন, "এই ঘটনায় তাঁরা ভীতসন্ত্রস্ত"। আমি আমার সমস্ত ডিভাইস জানালার বাইরে ফেলে দিতে চেয়েছিলাম। আমি কোনওদিন এমন আতঙ্ক অনুভব করিনি।"

ওই যুবকের বোন সুমেধা রেড্ডি এই ঘটনাটি পুরো নিজের চোখে প্রত্যক্ষ করেন। তিনি একটি সংবাদমাধ্যকে বলেন, "এই ঘটনায় তাঁরা ভীতসন্ত্রস্ত"। আমি আমার সমস্ত ডিভাইস জানালার বাইরে ফেলে দিতে চেয়েছিলাম। আমি কোনওদিন এমন আতঙ্ক অনুভব করিনি।"

4 / 9
সুমেধা আর বলেন, "যদি কেউ অবসাদের মধ্যে থাকে এবং আত্মহত্যার কথা ভাবছে, তখন এমন কিছু পড়ে বা শোনে তাহলে তা সত্যিই তাঁকে চরম খারাপ সিদ্ধান্তের দিকে ঠেলে দিতে পারে।"

সুমেধা আর বলেন, "যদি কেউ অবসাদের মধ্যে থাকে এবং আত্মহত্যার কথা ভাবছে, তখন এমন কিছু পড়ে বা শোনে তাহলে তা সত্যিই তাঁকে চরম খারাপ সিদ্ধান্তের দিকে ঠেলে দিতে পারে।"

5 / 9
গুগল 'সিবিএস নিউজে',এর কাছে একটি বিবৃতিতে ঘটনাটি স্বীকার করেছে, এআই-এর আচরণকে "অযৌক্তিক প্রতিক্রিয়া" হিসাবেও বর্ণনা করেছে, যা কোম্পানির নীতি লঙ্ঘন করেছে।

গুগল 'সিবিএস নিউজে',এর কাছে একটি বিবৃতিতে ঘটনাটি স্বীকার করেছে, এআই-এর আচরণকে "অযৌক্তিক প্রতিক্রিয়া" হিসাবেও বর্ণনা করেছে, যা কোম্পানির নীতি লঙ্ঘন করেছে।

6 / 9
প্রসঙ্গত, এটাই  গুগল এর এআই চ্যাটবট এর আগেও বেশ উদ্বেগজনক কিছু প্রতিক্রিয়া দিয়েছে। এই বছরের শুরুর দিকেো, এআই বিতর্কিত পরামর্শ দিয়েছিল। কাউকে বলে ভিটামিন এবং খনিজের চাহিদা মেটাতে 'প্রতিদিন অন্তত একটি ছোট পাথর' খাওয়ার কথা বলে বা 'পিৎজার সসে আঠা' মিশিয়ে খাওয়ার পরামর্শ দেয়।

প্রসঙ্গত, এটাই গুগল এর এআই চ্যাটবট এর আগেও বেশ উদ্বেগজনক কিছু প্রতিক্রিয়া দিয়েছে। এই বছরের শুরুর দিকেো, এআই বিতর্কিত পরামর্শ দিয়েছিল। কাউকে বলে ভিটামিন এবং খনিজের চাহিদা মেটাতে 'প্রতিদিন অন্তত একটি ছোট পাথর' খাওয়ার কথা বলে বা 'পিৎজার সসে আঠা' মিশিয়ে খাওয়ার পরামর্শ দেয়।

7 / 9
এই ঘটনার পরে, গুগল জানায় এই ধরনের আউটপুট যাতে আর না আসে সেই জন্য ব্যবস্থা নেওয়া হয়েছে।  জেমিনি যাতে অসম্মানজনক, হিংসাত্মক বা বিপজ্জনক বিষয়বস্তুকে ব্লক করে সেই কারণে 'সেফটি ফিল্টার' যুক্ত করে।

এই ঘটনার পরে, গুগল জানায় এই ধরনের আউটপুট যাতে আর না আসে সেই জন্য ব্যবস্থা নেওয়া হয়েছে। জেমিনি যাতে অসম্মানজনক, হিংসাত্মক বা বিপজ্জনক বিষয়বস্তুকে ব্লক করে সেই কারণে 'সেফটি ফিল্টার' যুক্ত করে।

8 / 9
প্রসঙ্গত, এই বিষয়টি আরও গুরুতর হয়ে ওঠে যখন একটি ১৪ বছরের নাবালকের চ্যাটবটের সঙ্গে অ্যাটাচমেন্ট তৈরি হওয়ার কিছুদিন পর সে আত্মহত্যা করে এবং মারা যায়। এরপরেই  তার মা কৃত্রিম বুদ্ধিমত্তা এবং গুগলের বিরুদ্ধে ছেলের মৃত্যুতে উস্কানি দেওয়ার অভিযোগ এনে মামলা করে।

প্রসঙ্গত, এই বিষয়টি আরও গুরুতর হয়ে ওঠে যখন একটি ১৪ বছরের নাবালকের চ্যাটবটের সঙ্গে অ্যাটাচমেন্ট তৈরি হওয়ার কিছুদিন পর সে আত্মহত্যা করে এবং মারা যায়। এরপরেই তার মা কৃত্রিম বুদ্ধিমত্তা এবং গুগলের বিরুদ্ধে ছেলের মৃত্যুতে উস্কানি দেওয়ার অভিযোগ এনে মামলা করে।

9 / 9
Follow Us: