సుదూర ప్రభావాల ఒప్పందం

OpenAI వర్గీకృత సైనిక వాతావరణాల్లో Pentagon ఇది AI వ్యవస్థల వాడకానికి అనుమతించే ఐతిహాసిక ఒప్పందం చేసిన నుండి రెండేళ్ల కంటే ఎక్కువ సమయం గడిచిపోయింది. ఈ ఒప్పందం AI శోధకులు, ఆయుధ నియంత్రణ నిపుణులు, పౌర స్వేచ్ఛ సమర్థకుల మధ్య గణనీయమైన శ్రద్ధ మరియు గణనీయమైన ఆందోళనను ఉత్పత్తి చేసింది. US సైన్యం ఇరానుకు వ్యతిరేకంగా సక్రియంగా సైనిక కార్యకలాపాల్లో నిమగ్నమైంది — Kharg Island మీద దాడులతో సహా — సమయం ఒప్పందం యొక్క చిక్కులను చాలా లెక్క కంటే చాలా తక్షణమైనవిగా చేసింది.

ఒప్పందం యొక్క ప్రాథమిక నిబంధనలు తెలిసినవి: OpenAI వర్గీకృత సెట్టింగ్‌ల్లో సైనిక ఉపయోగ మాదిరిల్ని అనుమతిస్తుంది, Sam Altman బహిరంగంగా చెప్పారు ఒప్పందం Pentagon కంపెనీ సాంకేతికతను ఉపయోగించి స్వయంచాలక ఆయుధాలను నిర్మించటానికి అనుమతించదు, మరియు అదనంగా చెప్పారు ఏర్పాటు దేశీయ కన్నీ అనువర్తనాలను నిరోధిస్తుంది. అయితే ఒప్పందం యొక్క నిజమైన నిబంధనల పరిశీలన పూర్ణ రక్షణ Pentagon సూచన స్వయంచాలక ఆయుధ నిబంధనల ద్వారా రెండు నిషేధాలు పునర్నిర్ధారణ చేయబడ్డాయని సూచిస్తుంది.

Pentagon స్వయంచాలక ఆయుధ నిబంధనలు నిజంగా ఏమి చెబుతాయి

Defense నిర్దేశం Autonomous Weapons Systems అవసరం చంపిన స్వయంచాలక ఆయుధాలు చంపిన నిర్ణయాలపై మానవ పరిజ్ఞానం యొక్క తగిన స్థరాలను నిర్వహించాలని. ఈ భాష విమర్శకులు సతేజంగా సూచించారు ఇది తగిన అర్ధం చేసుకోగలిగినదాని అర్థం గతులు చేయదు, మానవుడు ఒక్కొక్కటి వ్యక్తిగత నిర్దేశన నిర్ణయాన్ని గతులు చేయమని సూచితమైనది, మరియు స్పష్టంగా సెమీ-స్వయంచాలక వ్యవస్థలను అనుమతి చేస్తుంది ఎక్కడ మానవుడు ప్రారంభ లక్ష్య వర్గం లేదా సమర్థిత పరామితి ఒక్కొక్క నిర్దిష్ట సంబంధానికి గతులు చేయకుండా గతులు చేస్తాడు.

This creates a significant gap between OpenAI's public statements and what the actual agreement permits. Under Pentagon's standards, an AI system could still be compliant if a human approved target categories in advance.

This article is based on MIT Technology Review reporting. Read the original article.