NSA ప్రాప్యత విధాన సంబంధ ప్రశ్నలను లేవనెత్తుతోంది
The Decoder, Axios నివేదిక సారాంశాన్ని, రెండు మూలాలను ప్రస్తావిస్తూ, US National Security Agency Anthropic యొక్క అత్యంత శక్తివంతమైన AI మోడల్ Mythos Previewను ఉపయోగిస్తున్నట్లు తెలిపింది.
ఈ నివేదిత అమలు విశేషమైనది, ఎందుకంటే NSA Pentagon అధికార పరిధిలో ఉంది; అదే సమయంలో, Defense Department వేరుగా Anthropicను భద్రతా ప్రమాదంగా వర్గీకరించి, ఫిబ్రవరి నుంచి కంపెనీని విక్రేతగా అడ్డుకునే ప్రయత్నం చేస్తోంది.
ఈ పరిస్థితి ప్రభుత్వ AI స్వీకరణలో పెరుగుతున్న ఉద్రిక్తతను ప్రతిబింబిస్తోంది: ఏజెన్సీలు అధునాతన మోడళ్లకు ప్రాప్యత కోరుతున్నాయి, కానీ అదే వ్యవస్థలు భద్రత, కొనుగోలు, నిఘా, మరియు ఆయుధ విధాన సంబంధిత ఆందోళనలను కూడా కలిగించగలవు.
పరిమిత మోడల్
Project Glasswing అనే కార్యక్రమం కింద Anthropic Mythosకు ప్రాప్యతను సుమారు 40 సంస్థలకు మాత్రమే పరిమితం చేసింది. ఆ మోడల్ యొక్క offensive cyber సామర్థ్యాలు విస్తృత విడుదలకు చాలా ప్రమాదకరమని కంపెనీ వాదించింది.
ఈ పరిమితి Mythosను సాధారణ వాణిజ్య చాట్బాట్లకు భిన్నమైన వర్గంలో ఉంచుతుంది. ఈ మోడల్ను మరో productivity toolగా కాకుండా, సున్నితమైన సామర్థ్యంగా పరిగణిస్తున్నారు.
The Decoder ప్రకారం, Anthropic CEO Dario Amodei గత వారం White House అధికారులను కలిసి, ప్రభుత్వ ఏజెన్సీల్లో Mythos ను అమలు చేయడం గురించి చర్చించారు. UK intelligence services కూడా ఆ దేశ AI Security Institute ద్వారా ఈ మోడల్కు ప్రాప్యత పొందినట్లు నివేదికలు చెబుతున్నాయి.
ఆమోదయోగ్య వినియోగంపై వివాదం
Pentagon Claude ను అన్ని చట్టబద్ధ ప్రయోజనాల కోసం అందుబాటులో ఉంచాలని Anthropic ను కోరింది. Anthropic దాన్ని తిరస్కరించి, mass surveillance మరియు autonomous weapons చుట్టూ పరిమితులు పెట్టింది.
ఆ విభేదం ఎదుగుతున్న AI procurement చర్చ యొక్క కేంద్రాన్ని తాకుతోంది. ఒక model provider తన వ్యవస్థలను ఎలా ఉపయోగించాలో red lines నిర్దేశించాలనుకోవచ్చు; కానీ ప్రభుత్వ కొనుగోలుదారులు అనుమతించిన వినియోగాన్ని చట్టబద్ధ అధికారం నిర్ణయించాలని వాదించవచ్చు.
intelligence మరియు defense ఏజెన్సీలకు frontier AI models cyber analysis, language processing, information triage, మరియు ఇతర అధిక-పరిమాణ విశ్లేషణ పనులకు ఉపయోగకరంగా ఉండవచ్చు. కానీ అదే సామర్థ్యాలు నిఘా, offensive cyber operations, లేదా తక్కువ మానవ నియంత్రణతో పనిచేసే వ్యవస్థల్లో ఆందోళనలను పెంచగలవు.
ఇది ఎందుకు ముఖ్యం
Mythosను NSA ఉపయోగిస్తున్నట్లు వచ్చిన నివేదిక, vendor restrictions, national security exclusions, మరియు acceptable-use boundaries చుట్టూ స్థిరమైన విధాన ప్రమాణాలు ఇంకా పూర్తిగా రూపుదిద్దుకోకముందే, శక్తివంతమైన AI systems సున్నితమైన ప్రభుత్వ పరిసరాల్లోకి ప్రవేశిస్తున్నాయని సూచిస్తోంది.
ఈ ఘర్షణ AI safety commitments ఇకపై కేవలం product-design సమస్య మాత్రమే కాదని కూడా చూపిస్తోంది. అవి procurement terms, legal disputes, మరియు national security ప్రశ్నలుగా మారుతున్నాయి.
ఏజెన్సీలు పరిమిత AI మోడళ్లను స్వీకరిస్తూ, ప్రభుత్వంలోని ఇతర భాగాలు vendor పాత్రను ప్రశ్నిస్తే, ఫలితం విభజిత విధానంగా మారవచ్చు: ఒక office ఒక మోడల్ను వ్యూహాత్మకంగా అవసరమైనదిగా చూస్తే, మరొకటి providerను భద్రతా ఆందోళనగా చూస్తుంది.
Mythos case అనేక కీలక AI governance ప్రశ్నలను ఒకేసారి కలుపుకుంటుంది: frontier models కు ఎవరికీ ప్రాప్యత ఉండాలి, cyber-capable systems ను ఎలా నియంత్రించాలి, మరియు private AI company కొన్ని government వినియోగాలను తిరస్కరించినా public-sector customers కు సేవలు అందించగలదా అన్నది.
ఈ వ్యాసం The Decoder నివేదిక ఆధారంగా ఉంది. మూల వ్యాసాన్ని చదవండి.
Originally published on the-decoder.com



