సైబర్ నేరాల్లో AI దశ వేగంగా పెరుగుతోంది

జనరేటివ్ AI ఇక ఉత్పాదకత సాఫ్ట్‌వేర్, వినియోగదారు సాధనాలను మాత్రమే మార్చడం లేదు. ఇది ఆన్‌లైన్ మోసం, సైబర్ నేరాలనూ మళ్లీ రూపుదిద్దుతోంది. The Download యొక్క ఏప్రిల్ 24 సంచికలో MIT Technology Review ఒక కీలక ధోరణిని హైలైట్ చేసింది: AI ఆధారిత మోసాలు విస్తరిస్తున్నాయి, దాడుల స్థాయి, వేగానికి అనుగుణంగా సంస్థలు నడవడానికి కష్టపడుతున్నాయి.

ఈ మార్పు 2022 చివరలో ChatGPT విడుదలైన దశకు తిరిగి వెళ్తుందని పత్రిక చెబుతోంది. అప్పట్లో పెద్ద భాషా నమూనాలు విశ్వసనీయంగా, మనిషి లాగా అనిపించే వచనాన్ని సులభంగా తయారు చేయగలిగేలా చేశాయి. సైబర్ నేరగాళ్లు దీని విలువను వెంటనే గుర్తించారు. ఇచ్చిన వచనం ప్రకారం, వారు LLMs‌ను దుష్ట ఇమెయిల్లు రాయడానికి ఉపయోగించడం ప్రారంభించారు, తరువాత turbocharged phishing, అత్యంత యథార్థమైన deepfakes, automated vulnerability scans వరకు విస్తరించారు.

ఇక్కడ అసలు ముఖ్యమైనది దిశ. AI దాడి సృష్టి ఖర్చును తగ్గిస్తూ, పరిమాణాన్ని మరియు నమ్మకత్వాన్ని పెంచుతోంది. ఆ కలయిక ప్రజా డిజిటల్ ఉనికి ఉన్న దాదాపు ప్రతి సంస్థ కోసం భద్రతా సమీకరణాన్ని మార్చేస్తుంది.

సమస్య ఎందుకు మరింత చెడుతోంది

MIT Technology Review చెప్పినది స్పష్టంగా ఉంది: AI దాడులను వేగంగా, చౌకగా, అమలు చేయడం సులభంగా మారుస్తోంది. అనేక సంస్థలు సైబర్ దాడుల sheer volume‌ను తట్టుకోడానికి ఇబ్బంది పడుతున్నాయని, మరిన్ని నేరగాళ్లు ఈ సాధనాలను స్వీకరిస్తే, సాధనాలే మెరుగుపడితే సమస్య మరింత తీవ్రమవుతుందని ఆ వ్యాసం చెబుతోంది.

ఇది ఒక నిర్మాణాత్మక హెచ్చరిక, ఒకసారి జరిగిన సంఘటన కాదు. సంప్రదాయ సైబర్ భద్రతా రక్షణలు సాధారణంగా friction, detectability, attacker cost ల కలయికపై ఆధారపడి ఉంటాయి. జనరేటివ్ AI ఈ మూడింటినీ బలహీనపరుస్తుంది. ఇది చెడ్డవాళ్లకు మెరుగ్గా కనిపించే వచనం తయారు చేయడానికి, గొంతులు లేదా చిత్రాలను మరింత నమ్మదగిన రీతిలో అనుకరించడానికి, మరియు ముందుగా ఎక్కువ సమయం లేదా నైపుణ్యం కావలసిన పరిశోధన, స్కానింగ్ పనులను ఆటోమేట్ చేయడానికి వీలు కల్పిస్తుంది.

ఫలితం కేవలం మంచి phishing కాదు. ఇది పారిశ్రామికీకరించిన targeting.

దుష్ట ఇమెయిల్స్ నుంచి కృత్రిమ persuasion వరకు

నేరపరంగా AI వినియోగంలో మొదటి స్పష్టమైన అల text generation. phishingను చెడు వ్యాకరణం, అఘటిత పదబంధాలు, లేదా అసంగత శైలి నెమ్మదించేవి అయితే, ఆ అడ్డంకి ఇప్పుడు బాగా తగ్గిపోయింది. పెద్ద భాషా నమూనాలు సुसంగతంగా, సందర్భానుగుణంగా, లక్ష్యానికి అనుగుణంగా అనిపించే ఇమెయిల్స్ తయారు చేయడం సులభం చేస్తాయి.

కానీ ఇచ్చిన నివేదిక ఈ రంగం ఇమెయిల్ రాయడాన్ని దాటిపోయిందని స్పష్టం చేస్తోంది. అత్యంత యథార్థమైన deepfakes మోసాన్ని గొంతు, వీడియో, గుర్తింపు అనుకరణకు విస్తరిస్తాయి. Automated vulnerability scans సాంకేతిక పొరను జోడించి, దాడి చేసేవారు వేగంగా వ్యవస్థలను probe చేయడంలో సహాయపడతాయి. ఇవి వేర్వేరు పద్ధతులు కావు. కలిపి ఉపయోగిస్తే, social engineeringతో పాటు అవకాశవాద system exploitation‌ను కలిపే పెద్ద ప్రచారాలను మద్దతు ఇవ్వగలవు.

ఈ కలయికే ప్రస్తుత క్షణాన్ని ప్రత్యేకంగా చేస్తోంది. AI కేవలం దాడి సాధనాల పెట్టెలో కొత్త tool కాదు; అది increasingly మోసం కార్యకలాపాలు పెద్ద స్థాయిలో నడవడానికి సహాయపడే అనుసంధాన పొరగా మారుతోంది.

సంస్థలు ఎందుకు ఒత్తిడిలో ఉన్నాయి

రక్షకులకు ఉన్న సవాలు కేవలం సాంకేతిక నైపుణ్యం కాదు. అది పరిమాణం. కొంతమేరకు సామర్థ్యం ఉన్న దాడి చేసేవాడు ఇప్పుడు గతంతో పోలిస్తే మరింత లక్ష్యిత సందేశాలు, వేరియంట్లు, పరీక్ష ఉదాహరణలను సృష్టించగలడు. అది శబ్దాన్ని పెంచుతుంది, విజయవంతమైన దాడి అవకాశాన్ని పెంచుతుంది, మరియు రక్షకులు triage మీద ఎక్కువ సమయం వెచ్చించాల్సిన పరిస్థితిని తెస్తుంది.

సైబర్ దాడుల sheer number‌తో సంస్థలు ఇబ్బంది పడుతున్నాయని MIT Technology Review ఇచ్చిన హెచ్చరిక, అనేక security teams ఇప్పటికే అనుభవించిన మార్పును ప్రతిబింబిస్తుంది. ఒక్కో మోసం ప్రత్యేకంగా అధునాతనంగా లేకపోయినా, అనేక AI-సహాయక ప్రయత్నాల సమిష్టి ప్రభావం సిబ్బంది, వ్యవస్థలను ముంచెత్తగలదు.

మోసం అనేక ఛానళ్ల మీద విస్తరించినప్పుడు ఇది మరింత నిజం. ఇమెయిల్, ఆడియో, వీడియో అన్నింటినీ తక్కువ ఖర్చుతో synthesize చేయగలిగితే లేదా మార్చగలిగితే, ధృవీకరణ ఎక్కువ శ్రమతో కూడుకున్నదిగా మారుతుంది. ఒక tone, రచనా శైలి, లేదా పరిచయమైన ముఖాన్ని గుర్తించడంపై ఆధారపడిన trust workflows ఇక అంత నమ్మదగినవి కావు.

హెచ్చరిక యొక్క పెద్ద ప్రాముఖ్యత

ఈ సమయంలో AIలో ముఖ్యమైన 10 అంశాలలో “supercharged scams” ను ఈ ప్రచురణ ఒకటిగా పేర్కొంటోంది. ఈ editorial framing ముఖ్యం, ఎందుకంటే ఇది criminal misuse ను mainstream model development, commercial deployment తో పాటు రంగాన్ని నిర్వచించే ప్రస్తుత దశ లక్షణంగా ఉంచుతుంది.

అంటే, AI ప్రమాదం అనేది AI boom‌కు వేరు అయిన side conversation కాదు. అది ఆ boom‌లో భాగం.

ఇచ్చిన వచనం నిర్దిష్ట policy fix లేదా defensive blueprint ఇవ్వదు. కానీ ఒక బలమైన ముగింపును మద్దతు ఇస్తుంది: జనరేటివ్ AI యొక్క భద్రతా ప్రభావాలు ఇక ఊహాతీతం కావు, సామర్థ్యం వ్యాప్తిచెందుతున్న కొద్దీ attack surface కూడా పెరుగుతోంది.

AI adoption యొక్క తదుపరి దశకు దీని అర్థం

AI systems చౌకగా, సాధారణ softwareలో మరింత embeddedగా మారుతున్న కొద్దీ, నేరస్థుల learning curve మరింత సమతుల్యంగా మారే అవకాశం ఉంది. general-purpose productivity systems‌గా మొదలయ్యే tools కూడా దుష్ట వినియోగానికి తిరిగి ఉపయోగించబడగలవు, మార్చబడగలవు, లేదా అనుకరించబడగలవు. realism, speed, accessibility లో ప్రతి మెరుగుదల చట్టబద్ధమైన, చట్టవిరుద్ధమైన చర్యలదారులిద్దరినీ ప్రభావితం చేస్తుంది.

అంటే, ప్రతి కొత్త AI feature సైబర్ నేరాలను నేరుగా పెంచుతుందని కాదు. కానీ ఇచ్చిన నివేదిక స్పష్టంగా చెబుతోంది: నమ్మదగిన మోసాలను ప్రారంభించడానికి ఉన్న అడ్డంకులు ఇప్పటికే తగ్గిపోయాయి. ఇప్పుడు ప్రశ్న నేరగాళ్లు AIని ఉపయోగిస్తారా అనే దాని కంటే, routine AI-assisted deception‌కు రక్షణ చర్యలు ఎంత వేగంగా మార్పుకు లోబడగలవు అనేదే.

ఇది security కథ, కేవలం AI కథ కాదు

AI కవరేజీలో దృష్టి సాధారణంగా frontier models, పోటీ లాంచులు, product rollouts పై ఉంటుంది. MIT Technology Review scams మీద పెట్టిన దృష్టి, AI యొక్క అత్యంత తక్షణ సామాజిక ప్రభావాలు innovation branding ద్వారా కాక misuse ద్వారా రావచ్చని గుర్తుచేస్తుంది.

అందువల్ల ఇది సాంకేతిక సమస్య మాత్రమే కాదు; governance, operational issue కూడా. AIని కేవలం internal productivity కోసం సాధనంగా భావించే సంస్థలు మరింత తక్షణ వాస్తవాన్ని కోల్పోవచ్చు: adversaries అదే తరహా toolsను మరింత సమర్థవంతంగా attack చేయడానికి స్వీకరిస్తున్నారు.

కాబట్టి వ్యాసం యొక్క మూల హెచ్చరిక సూటిగా, విశ్వసనీయంగా ఉంది. AI ఇప్పటికే cybercrime economics‌ను మార్చింది. మోసాలు మరింత scalable‌గా ఉన్నాయి, outputs మరింత నమ్మదగినవి, రక్షకులపై భారం మరింత ఎక్కువ. underlying models అభివృద్ధి చెందుతూనే ఉన్నప్పటికీ ఇది కొనసాగే అవకాశం ఉంది.

ఈ వ్యాసం MIT Technology Review నివేదిక ఆధారంగా ఉంది. మూల వ్యాసాన్ని చదవండి.

Originally published on technologyreview.com