AI-সক্ষম নতুন হুমকি স্কুলগুলোতে পৌঁছাচ্ছে
UK-এ শিশু সুরক্ষা বিশেষজ্ঞরা স্কুলগুলোকে তাদের ওয়েবসাইট ও সোশ্যাল মিডিয়া থেকে চিহ্নিত করা যায় এমন শিক্ষার্থীর ছবি সরিয়ে ফেলতে আহ্বান জানাচ্ছেন, কারণ ব্ল্যাকমেইলাররা এসব ছবি AI টুল ব্যবহার করে যৌনভাবে স্পষ্ট উপাদান তৈরিতে ব্যবহার করেছে। এই সতর্কতা অন্তত একটি নিশ্চিত ঘটনার পর এসেছে, যেখানে এক অজ্ঞাতনামা মাধ্যমিক বিদ্যালয়কে লক্ষ্য করা হয়েছিল, কারণ অপরাধীরা জনসাধারণের অনলাইন উৎস থেকে শিক্ষার্থীর ছবি নিয়ে সেগুলোকে অপব্যবহারমূলক ছবিতে রূপান্তর করে এবং পরে অর্থ দাবি করে, যাতে সেই উপাদান প্রকাশ না করা হয়।
Internet Watch Foundation বর্ণিত এই ঘটনা অনলাইন ক্ষতির এক বিশেষ উদ্বেগজনক বিবর্তনের দিকে ইঙ্গিত করে। আগে অপরাধীদের বিদ্যমান অন্তরঙ্গ উপাদান চুরি করতে হতো; এখন তারা সাধারণ স্কুল পোর্ট্রেট, অনুষ্ঠান-ছবি বা সোশ্যাল মিডিয়া পোস্ট থেকেই তা তৈরি করতে পারে। এতে অপব্যবহারের বাধা কমে যায় এবং সাধারণ অনলাইন উপস্থিতিও জবরদস্তির সম্ভাব্য উৎসে পরিণত হয়।
প্রতিবেদিত ঘটনায় কী ঘটেছিল
প্রদত্ত প্রতিবেদনের অনুযায়ী, Internet Watch Foundation বলেছে যে UK-এর এক অজ্ঞাতনামা মাধ্যমিক বিদ্যালয় ব্ল্যাকমেইল চেষ্টার শিকার হয়েছিল, যখন অপরাধীরা প্রতিষ্ঠানের ওয়েবসাইট বা সোশ্যাল মিডিয়া অ্যাকাউন্ট থেকে নেওয়া ছবি ব্যবহার করে। AI টুলের সাহায্যে তারা সেই ছবিগুলোকে শিশু যৌন নির্যাতনের উপাদানে রূপান্তর করে এবং ফলাফল বিদ্যালয়ে পাঠায়, অর্থ না দিলে অনলাইনে প্রকাশ করার হুমকি দেয়।
সংস্থাটি বলেছে, তারা ব্ল্যাকমেইল ছবিগুলোকে একটি ডিজিটাল হ্যাশ বা ফিঙ্গারপ্রিন্টে রূপান্তর করে এবং সেই ডেটা বড় প্রযুক্তি প্ল্যাটফর্মগুলোর সঙ্গে ভাগ করে, যাতে উপাদানটি আপলোড হওয়া আটকানো যায়। নজরদারি সংস্থাটি আরও বলেছে, ওই ঘটনার ১৫০টি ছবি UK আইনের অধীনে শিশু যৌন নির্যাতনের উপাদান হিসেবে শ্রেণিভুক্ত হতে পারে।
কর্তৃপক্ষ ইঙ্গিত দিয়েছে, এটি একক কোনো উদ্বেগ নয়। Internet Watch Foundation বলেছে, তারা UK-এ স্কুলের ওয়েবসাইট বা সোশ্যাল অ্যাকাউন্ট থেকে নেওয়া ও পরিবর্তিত ছবিসহ আরও ব্ল্যাকমেইল চেষ্টার বিষয়ে অবগত, যদিও ওইসব ঘটনার বিস্তারিত প্রকাশ্যে জানানো হয়নি।



