কলকাতা: হঠাৎ ফোন খুললেন। দেখলেন ভিডিয়ো কল। স্ক্রিনে ভেসে উঠল আপনার প্রিয়জনের মুখ। অঝোরে কেঁদে চলেছেন। বলছেন তাঁকে অপহরণ করেছে দুষ্কৃতীরা। চাওয়া হচ্ছে মুক্তিপণ। এ দৃশ্য দেখে তো ততক্ষণে আপনার শিরদাঁড়া দিয়ে বইতে শুরু করেছে ঠান্ডা স্রোত। প্রিয়জনের কান্না, দুর্দশার ছবি দেখে দিকভ্রান্ত হয়ে পড়ছেন পরিবারের সদস্যরা। অভিযোগ, এই অপহরণের আড়ালেই পাতা হচ্ছে প্রতারণার ফাঁদ। ইতিমধ্যেই কলকাতার গোয়েন্দাদের কানেও আসছে এই ধরনের বেশ কিছু খবর। প্রতারণার নয়া কৌশল দেখে চোখ কপালে উঠছে পুলিশেরও। আর এই ধরনের প্রতারণার হাত থেকে রক্ষা পেতে সজাগ থাকতে হবে। সাধারণ মানুষের পাশে দাঁড়িয়ে প্রতারণার এই নয়া কৌশল সম্পর্কে অবহিত করতে এই ধরনের খবর তুলে ধরছে TV9 বাংলা। প্রতারণার নয়া কৌশল নিয়ে মানুষকে আরও সজাগ করাই TV9 বাংলার উদ্দেশ্য।
অভিযোগ, এ ক্ষেত্রে প্রতারকরা সাহায্য নিচ্ছে আর্টিফিশিয়াল ইন্টালিজেন্স বা কৃত্রিম বুদ্ধিমত্তার। আর্টিফিশিয়াল ইন্টালিজেন্সের সাহায্যে তৈরি করা হচ্ছে আপনার প্রিয়জনের ভিডিয়ো, নকল করা হচ্ছে কণ্ঠস্বর। যাঁরা ইতিমধ্যেই এই প্রতারকদের খপ্পরে পড়েছেন তাঁরা বলছেন, আচমকা তাঁদের কাছে একটি ভিডিয়ো আসছে। সেখানে তাঁদের কোনও প্রিয়জন বা আত্মীয় বলছেন তাঁকে অপহরণ করা হয়েছে। তাঁর বেশ কিছু টাকার প্রয়োজন, তবেই তাঁকে মুক্তি দেওয়া হবে। এখানেই রয়েছে প্রযুক্তির ম্যাজিক। সেই সময় কিন্তু, ওই ব্যক্তি রয়েছেন অন্যত্র। কিন্তু, তাঁরই ভিডিয়ো বানিয়ে পাঠানো হচ্ছে পরিবারের কাছে, প্রযুক্তির সহায়তা নিয়ে হুবহু নকল করা হচ্ছে কণ্ঠস্বরও। বিশেষজ্ঞরা বলছেন, তথ্য-প্রযুক্তিক ভাষায় এই কাজকে বলা হয় ডিপফেকিং টেকনোলজি।
কীভাবে রেকি করছে প্রতারকরা?
বিশেষজ্ঞরা বলছেন, টার্গেটের ছবি আগে থেকে নিয়ে AI এর সহায়তায় তৈরি করা ফেলা হচ্ছে মুখাবয়ব। অজান্তেই ফোন করে করে নেওয়া হচ্ছে ভয়েস ক্লোন। এরপরই সরাসরি ভিডিয়ো কল করা হচ্ছে টার্গেটের পরিবারকে। মূলত যাঁরা বিদেশে থাকেন এখন বেছে বেছে তাঁদেররেই টার্গেট করা হচ্ছে। ওয়াকিবহাল মহলের ধারণা, যাঁরা বিদেশে থাকেন তাঁদের সঙ্গে ভারতের টাইম জ়োনের একটা সমস্যা থাকে, সর্বদা ফোনে ধরাও সম্ভব হয় না। তাই এইভাবে অপহরণের কথা বললেন সহজেই তা বিশ্বাসযোগ্য হয় পরিবারের সদস্যদের কাছে। সেই সুযোগেই হাতিয়ে নেওয়া হচ্ছে টাকা।
কী এই ডেপফেকিং?
আর্টিফিশিয়াল ইন্টালিজেন্স বা কৃত্রিম বুদ্ধিমত্তার সাহায্যে এই প্রযুক্তি ব্যবহার করে সহজেই প্ররোচনামূলক ভিডিয়ো বা অডিয়ো তৈরি করা যেতে পারে। যেখানে হার মানতে পারে ফটোশপ বা সাধারণ কোনও ভিডিয়ো এডিটিং সফটওয়্যার। এই প্রযুক্তি ব্যবহার করে প্ররোচনামূল ভিডিয়ো বা অডিয়ো তৈরি করা যেতে পারে। কোনটা আসল আর কোনটা নকল ধরতেই পারবেন না। জাল নথি, ব্যাঙ্ক স্টেটমেন্ট, জাল পরিচয়পত্র, ভিডিয়ো-সহ নানা অসাধু জিনিস তৈরিতে এর জুড়ি মেলা ভার। বিশেষজ্ঞরা বলছেন, এর দ্বারা যেমন সহজেই কোনও ব্যক্তি বা সংস্থার ভাবমূর্তি নষ্ট হতে পারে, তেমনই রাষ্ট্রীয় আইন-শৃঙ্খলারও অবনতি হতে ভুল তথ্য প্রচারে। ডেপফেকিংয়ের মাধ্যমে যে কোনও খ্যাতনামা ব্যক্তির নকল ভিডিয়ো বানিয়েও বোকা বানানো যেতে পারে আম-আদমিকে।