సిద్ధాంతం నుంచి విధానానికి కదులుతున్న చర్చ

MIT Technology Review యొక్క ఏప్రిల్ 17 సంచిక, The Download, ప్రభుత్వాలు మరియు టెక్నాలజీ కంపెనీలు తప్పించుకోలేని ఒక అంశాన్ని కేంద్రంగా పెట్టింది: AI వ్యవస్థలు కీలక నిర్ణయాల్లో మరింత లోతుగా ప్రవేశిస్తున్నాయి, అయితే పర్యవేక్షణ గురించి ప్రజా భాష ఆ వేగానికి సరిపోకపోవచ్చు. న్యూస్‌లెటర్ AI యుద్ధంలో “humans in the loop” ఒక మాయ కావచ్చని వాదించిన ఒక op-ed ని, Anthropic యొక్క కొత్త Mythos model కు White House యాక్సెస్ కోరుతున్నట్టు తెలిపిన రిపోర్టింగ్‌తో జత చేసింది; కంపెనీ అయితే భద్రతా కారణాల మీద దాన్ని ప్రజా విడుదల నుంచి నిలిపివేసింది.

ఈ రెండు అంశాలను కలిసి చూస్తే, మరింత అసౌకర్యకరమైన దృశ్యం కనిపిస్తుంది. ఒక చర్చ, సైనిక AI పై మానవ నియంత్రణ వాస్తవికం కంటే ప్రతీకాత్మకమేనా అని ప్రశ్నిస్తుంది. మరొకటి, frontier systems ను తయారు చేసే కంపెనీలు అసాధారణ జాగ్రత్త చూపుతున్నా, ప్రభుత్వాలు వాటిని ఉపయోగించాలని ఒత్తిడి చేయవచ్చని సూచిస్తుంది. వీటిలో ఏ ఒక్కటి కూడా ఒంటరిగా విధాన చర్చను ముగించదు; కానీ కలిసి చూస్తే, చర్చ ఎంత త్వరగా సారాంశ సూత్రాలను దాటి వెళ్లిందో చూపిస్తాయి.

“human in the loop” అనే పదబంధం సమస్య

న్యూస్‌లెటర్ ప్రకారం, AI ఇప్పటికే నిజమైన యుద్ధాలను ప్రభావితం చేస్తోంది. ఆ నిజం, Uri Maoz రాసిన featured op-ed లోని వాదనకు ఆధారం ఇస్తుంది; అందులో humans ను “in the loop” లో ఉంచడం అన్న భరోసా ఇచ్చే భాష లోతైన సమస్య నుండి దృష్టిని మళ్లించవచ్చని చెబుతుంది. Pentagon guidelines ప్రకారం, మానవ పర్యవేక్షణ బాధ్యత, సందర్భం, మరియు భద్రతను అందించడానికి ఉండాలి. కానీ op-ed వాదన ఏమిటంటే, నిజమైన ప్రమాదం కేవలం యంత్రాలు పర్యవేక్షణ లేకుండా పనిచేయడమే కాదు. అవి పర్యవేక్షిస్తున్న మానవులు తాము పర్యవేక్షిస్తున్న వ్యవస్థలు నిజంగా ఏమి చేస్తున్నాయో లేదా “ఆలోచిస్తున్నాయో” అర్థం చేసుకోకపోవడమూ.

ఈ విమర్శ ముఖ్యమైనది, ఎందుకంటే “human in the loop” సైనిక వ్యవస్థల్లో autonomy పై భయాలను తగ్గించే డిఫాల్ట్ విధాన పదబంధంగా మారింది. ఆ పదం నియంత్రణ, తిరిగి మార్చగలగడం, మరియు అర్థవంతమైన నిర్ణయాన్ని సూచిస్తుంది. కానీ మానవుడి పాత్ర, అంతర్గత reasoning స్పష్టంగా లేని వ్యవస్థలు సృష్టించే outputs ను మాత్రమే చూడటానికి తగ్గిపోతే, వ్యక్తి ఉనికి భద్రతను హామీ ఇస్తుందని చెప్పలేం.

op-ed మనుషులు అవసరం లేరు అని చెప్పడం లేదు. AI వ్యవస్థలు ఒత్తిడిలో అర్థం చేసుకోవడం కష్టం అయినప్పుడు, ప్రస్తుత పర్యవేక్షణ రూపాలు సరిపోకపోవచ్చని అది చెబుతోంది. ఇది సాధారణ automation fears కంటే ఎక్కువగా కోరే వాదన. విధాన సవాలు కేవలం శ్రేణి చివర ఒక మానవ button-push ను ఉంచడం మాత్రమే కాదని, supervising మానవుడికి model తన సిఫార్సుకు ఎలా వచ్చిందో స్పష్టంగా కనిపించని లేదా operational tempo కారణంగా పరిశీలనకు సమయం తగ్గే సందర్భాల కోసం safeguards రూపకల్పన చేయడమే అని ఇది చెబుతుంది.

MIT Technology Review సారాంశంలో, శాస్త్రం ముందుకు ఒక మార్గాన్ని సూచించవచ్చని, AI warfare కోసం కొత్త safeguards అవసరమని చెప్పింది. చిన్న రూపంలోనూ ఆ ప్రాధాన్యం స్పష్టమే. చర్చ ఇక humans పాల్గొనాలా వద్దా అన్నదానికే పరిమితం కాదు. ఎంత రకం involvement ను నిజమైన నియంత్రణగా పరిగణించాలి అన్నదానిపై మరింతగా కేంద్రీకృతమవుతోంది.

ప్రభుత్వ డిమాండ్ model restraint తో ఢీకొంటోంది

న్యూస్‌లెటర్ ఇంకా, Anthropic పై గత చర్యలు ఉన్నప్పటికీ White House దాని కొత్త Mythos model కు యాక్సెస్ కోరుతోందని తెలిపింది. Trump అధికారులు ఆ model కోసం చర్చలు జరుపుతున్నారని brief చెబుతోంది, అయితే Anthropic దాన్ని ప్రజా విడుదలకు చాలా ప్రమాదకరమని భావించింది. కంపెనీ ఇటీవల మరో model ను విడుదల చేసి, దాన్ని Mythos కంటే తక్కువ ప్రమాదకరమని వివరించినట్లు కూడా అది చెప్పింది.

ఈ వివరాలు, ప్రజా విడుదల ప్రమాణాలు మరియు ప్రభుత్వ ఆకాంక్ష మధ్య పెరుగుతున్న చీలికను సూచిస్తాయి. ఒక కంపెనీ ప్రమాద ప్రొఫైల్ కారణంగా ఒక system ను నిలిపివేస్తే, కానీ అధికారులు దాన్ని పొందాలని కోరుకుంటే, “సాధారణ ప్రజా వినియోగానికి చాలా ప్రమాదకరం” మరియు “రాష్ట్ర వినియోగానికి సరిపోతుంది” మధ్య గీత ఒక ప్రత్యక్ష విధాన ప్రశ్నగా మారుతుంది. ఇది procurement గురించిన ప్రశ్న మాత్రమే కాదు, accountability గురించీ. ప్రభుత్వాలు వ్యూహాత్మక ఆధిక్యం కోసం మరింత శక్తివంతమైన models ను కోరవచ్చు, కానీ అదే సామర్థ్యం misuse, failure modes, లేదా escalation పట్ల అనిశ్చితిని పెంచగలదు.

న్యూస్‌లెటర్ Anthropic మరియు Pentagon మధ్య వివాదానికి పూర్తి చట్టపరమైన లేదా రాజకీయ సందర్భాన్ని ఇవ్వదు, కానీ ఆ వివాదాన్ని ఒక విస్తృత నమూనాలో ఉంచుతుంది: frontier models రాష్ట్ర ప్రయోజనానికి సాధనాలుగా మారుతున్నాయి. అది జరిగాక, model safety పై వాదనలు consumer releases లేదా enterprise tools కి మాత్రమే పరిమితం కావు. అవి జాతీయ భద్రతా నిర్ణయాల భాగమవుతాయి.

ఈ న్యూస్‌లెటర్ స్నాప్‌షాట్ ఏమి చూపిస్తుంది

  • AI యుద్ధంలో మానవ పర్యవేక్షణ, విధాన రూపకర్తలు ఊహించేదానికంటే తక్కువ అర్థవంతంగా ఉండవచ్చని MIT Technology Review హైలైట్ చేసింది.
  • op-ed ప్రకారం, ప్రధాన ప్రమాదం పర్యవేక్షణ లేని autonomy మాత్రమే కాదు, అవగాహన లేని పర్యవేక్షణ.
  • White House Anthropic యొక్క Mythos model ను కోరుకుంటున్నదని, అయితే భద్రతా ఆందోళనల కారణంగా కంపెనీ దాన్ని ప్రజా విడుదలలో పెట్టలేదని న్యూస్‌లెటర్ తెలిపింది.
  • Anthropic Mythos కంటే తక్కువ ప్రమాదకరమని వివరించిన మరో model ను విడుదల చేసింది.

ఈ అనుసంధానిత పరిణామాల్లో ఒక పెద్ద నమూనా కనిపిస్తుంది. AI governance సంవత్సరాలుగా alignment, guardrails, మరియు human supervision చుట్టూ భరోసా ఇచ్చే పదజాలాన్ని నిర్మించింది. కానీ నిజ జీవిత deployments మరియు రాష్ట్ర డిమాండ్, ఈ భావనలు ఆపరేషన్ పరమైనవా లేక కేవలం rhetoric మాత్రమేనా అన్నదాన్ని పరీక్షిస్తున్నాయి. ఒక సైనిక command chain తాను ఉపయోగిస్తున్న వ్యవస్థలను పూర్తిగా అర్థం చేసుకోలేకపోతే, అధికార doctrine చెబుతున్నదానికంటే మానవ review పలుచగా ఉండవచ్చు. ప్రభుత్వాలు corporate caution ఉన్నప్పటికీ మరింత శక్తివంతమైన models ను కోరుకుంటే, safety standards కస్టమర్ ఎవరో అనే దానిపై ఆధారపడి మారవచ్చు.

అందుకే The Download యొక్క ఈ సంచిక ఒక న్యూస్‌లెటర్ roundup కంటే ఎక్కువ. ఇది ప్రాధాన్యాల మార్పును నమోదు చేస్తుంది. ప్రధాన ప్రశ్న ఇక ముందున్న AI యుద్ధం మరియు statecraft లో ఉపయోగించబడుతుందా అన్నది కాదు. అది ఇప్పటికే జరుగుతోంది. మరింత కష్టం ఉన్న ప్రశ్న ఏమిటంటే, ప్రస్తుత పర్యవేక్షణ భాష, procurement norms, మరియు safety boundaries ఆ నిజానికి సరిపోతాయా అన్నది. MIT Technology Review ఇచ్చిన సారాంశం, కనీసం, సమాధానం ఇంకా తేలిపోలేదని సూచిస్తోంది.

ఈ వ్యాసం MIT Technology Review యొక్క రిపోర్టింగ్‌పై ఆధారపడింది. మూల వ్యాసాన్ని చదవండి.

Originally published on technologyreview.com