Deep Fake Video: একা রশ্মিকা বা ক্যাটরিনা নন, ইন্টারনেটে ছড়িয়ে এই অভিনেত্রীদেরও ডিপফেক ভিডিয়ো!
Artificial Intelligence Misuse: সাইবার ক্রাইম বিশেষজ্ঞদের দাবি, এআই-র ব্যবহার করে দীর্ঘদিন ধরেই এই ধরনের ডিপ ফেক ভিডিয়ো তৈরি করা হচ্ছে। এগুলি মূলত প্রাপ্তবয়স্কদের ওয়েবসাইটেই আপলোড করত অভিযুক্তরা। কিন্তু বর্তমানে দেখা যাচ্ছে, সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলিতেও ডিপ ফেক ভিডিয়ো আপলোড করা হচ্ছে।
নয়া দিল্লি: সম্প্রতিই সোশ্যাল মিডিয়ায় চর্চার অন্যতম বিষয় হয়ে উঠেছেন দক্ষিণী অভিনেত্রী রশ্মিকা মান্দানা (Rashmika Mandana)। তবে ভাল কারণে নয়, ‘পুস্পা’ খ্যাত অভিনেত্রীর খোলামেলা পোশাকে একটি ভিডিয়ো ভাইরাল হতেই যাবতীয় চর্চা-আলোচনা। যদিও পরে জানা যায়, আসলে ওটি রশ্মিকার ভিডিয়ো নয়, বরং ডিপ ফেক ভিডিয়ো। কৃত্রিম বুদ্ধিমত্তা বা আর্টিফিসিয়াল ইন্টেলিজেন্সের (Artifiial Intelligence) ব্যবহার করে অন্যের শরীরে কেবল রশ্মিকার মুখ বসিয়ে দেওয়া হয়েছে। ভিডিয়োটি এতটাই নিখুঁত যে খালি চোখে দেখে এটি যে ফেক ভিডিয়ো, তা বলাই দায়। রশ্মিকার এই ঘটনার রেশ কাটার আগেই এবার বলিউডের আরেক অভিনেত্রীর ভিডিয়োও সামনে এসেছে। তা হল ক্য়াটরিনা কাইফের (Katrina Kaif) ভিডিয়ো। সেটিও আসলে ডিপ ফেক ভিডিয়ো (Deep Fake Video)।
ডিপ ফেক ভিডিয়ো নিয়ে যখন সোশ্যাল মিডিয়ায় তুমুল আলোচনা শুরু হয়েছে, তখনই জানা গেল শুধু ক্যাটরিনা বা রশ্মিকা নয়, ইন্টারনেটে ছড়িয়ে রয়েছে আরও অনেক অভিনেত্রীর ভিডিয়ো। এবং তা নতুন নয়। দীর্ঘদিন ধরেই ঘোরাফেরা করছে ফেসবুক-ইন্সটাগ্রামে।
পুলিশি সূত্রে জানা গিয়েছে, বলিউডের অনেক অভিনেত্রীকে নিয়েই ডিপ ফেক ভিডিয়ো তৈরি করা হয়েছে। বিভিন্ন পর্ন সাইটে তা আপলোডও করা হয়েছে। তালিকায় প্রিয়াঙ্কা চোপড়া থেকে শুরু করে কাজল, অনুষ্কা শর্মা, কিয়ারা আদবাণী, তামান্না ভাটিয়া, পুজা হেগড়ে, অভনীত কৌরের মতো অভিনেত্রীদের নাম রয়েছে।
সাইবার ক্রাইম বিশেষজ্ঞদের দাবি, এআই-র ব্যবহার করে দীর্ঘদিন ধরেই এই ধরনের ডিপ ফেক ভিডিয়ো তৈরি করা হচ্ছে। এগুলি মূলত প্রাপ্তবয়স্কদের ওয়েবসাইটেই আপলোড করত অভিযুক্তরা। কিন্তু বর্তমানে দেখা যাচ্ছে, সোশ্যাল মিডিয়া প্ল্যাটফর্মগুলিতেও ডিপ ফেক ভিডিয়ো আপলোড করা হচ্ছে। কোটি কোটি ব্যবহারকারীর মধ্যে তা নিমেষেই ভাইরালও হয়ে যাচ্ছে।
কী এই ডিপফেক ভিডিয়ো?
সাইবার বিশেষজ্ঞরা জানিয়েছেন, কোনও পর্নতারকা বা খোলামেলা পোশাক পরা মহিলার শরীরের উপরে অন্য কারোর মুখ সুপারইমপোজ করাই ডিপফেক ভিডিয়ো। অ্যাডভান্সড আর্টিফিসিয়াল ইন্টেলিজেন্স ব্যবহার করেই এই ভিডিয়োগুলি বানানো হচ্ছে। এতটাই নিখুঁত সেই ভিডিয়োগুলি যে কোনটি আসল, কোনটি নকল তা বোঝা কার্যত অসম্ভব।
বিপদের মুখে অল্পবয়সী-
বিভিন্ন অভিনেত্রীর ডিপফেক ভিডিয়ো ভাইরাল হতেই নতুন উদ্বেগ তৈরি হয়েছে। অল্পবয়সীরা, বিশেষ করে কিশোরী ও যুবতীরাও ডিপফেক ভিডিয়োর শিকার হতে পারে বলে শঙ্কা প্রকাশ করেছেন সাইবার বিশেষজ্ঞরা। আর্টিফিসিয়াল ইন্টেলিজেন্স বা এআই যেহেতু এখন ইন্টারনেটে সহজেই শেখা যায়, তাই সাইবার অপরাধীদের হাতে এর অপব্যবহার হওয়ার সম্ভাবনা প্রবল।
বাঁচার উপায়-
অপরাধীরা কখন, কার প্রোফাইলে ঘাপটি মেরে বসে রয়েছে, তা বোঝা অসম্ভব। ফলে এই ধরনের অপরাধের শিকার হওয়ার সম্ভাবনাও বেশি। তবে যদি সোশ্যাল মিডিয়া অ্যাকাউন্টগুলি লক করে রাখা যায়, তবে কিছুটা হলেও অচেনা কারোর হাতে ছবি চলে যাওয়ার সম্ভাবনা কমে।