AI-సమర్థ కొత్త ముప్పు పాఠశాలలకు చేరుతోంది
UKలోని బాలల భద్రత నిపుణులు, పాఠశాలల వెబ్సైట్లు మరియు సోషల్ మీడియా నుంచి గుర్తించగలిగే విద్యార్థుల ఫోటోలను తొలగించాలని పాఠశాలలను కోరుతున్నారు. కారణం, దుండగులు అలాంటి చిత్రాలను AI టూల్స్ ఉపయోగించి లైంగికంగా స్పష్టమైన కంటెంట్గా మార్చి బ్లాక్మెయిల్ ప్రయత్నాలు చేశారు. ఈ హెచ్చరిక కనీసం ఒక నిర్ధారిత కేసు తరువాత వచ్చింది; అందులో పేరు వెల్లడించని ఒక మాధ్యమిక పాఠశాల లక్ష్యంగా మారింది, ఎందుకంటే నేరస్థులు ప్రజలకు అందుబాటులో ఉన్న ఆన్లైన్ వనరుల నుంచి విద్యార్థుల ఫోటోలను తీసుకుని, వాటిని దుర్వినియోగ చిత్రాలుగా మార్చి, ఆ పదార్థాన్ని ప్రచురించకుండా ఉండాలంటే డబ్బు చెల్లించాలని డిమాండ్ చేశారు.
Internet Watch Foundation వివరించిన ఈ కేసు, ఆన్లైన్ హానిలో ప్రత్యేకంగా ఆందోళన కలిగించే మార్పును సూచిస్తోంది. ముందు నేరస్తులు ఇప్పటికే ఉన్న సన్నిహిత పదార్థాన్ని దొంగిలించాల్సి వచ్చేది; ఇప్పుడు వారు సాధారణ పాఠశాల పోర్ట్రెట్లు, ఈవెంట్ ఫోటోగ్రఫీ లేదా సోషల్ మీడియా పోస్టుల నుంచే దాన్ని సృష్టించగలరు. ఇది దుర్వినియోగానికి అడ్డంకిని తగ్గిస్తుంది మరియు సాధారణ ఆన్లైన్ కనిపింపు కూడా బలవంతానికి సంభావ్య వనరుగా మారుతుంది.
నివేదించిన కేసులో ఏమి జరిగింది
ఇచ్చిన నివేదిక ప్రకారం, Internet Watch Foundation UKలోని పేరు వెల్లడించని ఒక మాధ్యమిక పాఠశాలపై బ్లాక్మెయిల్ ప్రయత్నం జరిగినట్లు తెలిపింది, ఎందుకంటే దుండగులు సంస్థ వెబ్సైట్ లేదా సోషల్ మీడియా ఖాతాల నుంచి తీసిన ఫోటోలను ఉపయోగించారు. AI టూల్స్ సహాయంతో, వారు ఆ చిత్రాలను బాలల లైంగిక దుర్వినియోగ పదార్థంగా మార్చి, ఫలితాలను పాఠశాలకు పంపి, డబ్బు చెల్లించకపోతే వాటిని ఆన్లైన్లో ప్రచురిస్తామని బెదిరించారు.
ఆ సంస్థ బ్లాక్మెయిల్ చిత్రాలను డిజిటల్ హాష్, అంటే ఫింగర్ప్రింట్,గా మార్చి, ఆ డేటాను ప్రధాన సాంకేతిక ప్లాట్ఫారమ్లతో పంచుకుని, ఆ పదార్థం అప్లోడ్ కాకుండా అడ్డుకోవడంలో సహాయపడిందని తెలిపింది. ఆ సంఘటనలోని 150 చిత్రాలను UK చట్టం ప్రకారం బాలల లైంగిక దుర్వినియోగ పదార్థంగా పరిగణించవచ్చని పర్యవేక్షణ సంస్థ తెలిపింది.
ఇది ఏకైక ఆందోళన కాదని అధికారులు సూచించారు. పాఠశాల వెబ్సైట్లు లేదా సోషల్ అకౌంట్ల నుంచి తీసిన మరియు మార్పు చేసిన చిత్రాలతో సంబంధం ఉన్న ఇతర బ్లాక్మెయిల్ ప్రయత్నాల గురించి UKలో Internet Watch Foundationకు సమాచారం ఉందని, ఆ కేసుల వివరాలు ప్రజలకు విడుదల చేయలేదని కూడా తెలిపింది.




