Muda wa Ijumaa na Vita vya Baridi juu ya Akili ya AI
Anthropic, kampuni ya usalama wa AI nyuma ya familia ya mfano wa lugha ya Claude, inakabiliania mgogoro usiotakikika na Wizara ya Ulinzi wa Kiamerika. Kulingana na ripoti, Pentagon imeomba Anthropic kurahisi vizuizi vya matumizi ya militari ya teknolohia yake ya AI — haswa maveto ya matumizi katika mifumo ya silaha ya kujitegemea na ufuatiliaji wa kiwango kikubwa. Anthropic imekataa, na Wizara ya Ulinzi imejibu kwa tishio la kuita Sheria ya Uzalishaji wa Kinzi, sheria ya wakati wa Vita vya Baridi inayoruhusu serikali kulazimisha makampuni ya kibinafsi kuzaa uzalishaji wa usalama wa kitaifa.
Kampuni imepewa muda hadi Ijumaa ili kuongeza kidogo. Kama Anthropic itaendelea na kukataa, Pentagon inaweza kulazimisha kisheria kampuni kutoa upatikanaji wa uwezo wake wa AI kwa madhumuni ya militari, kutengeneza ugomvi wa kisheria na mofolojia bila tishio wazi katika tasnia ya AI.
Nini Anthropic Imepunguza
Tangu kuanzishwa, Anthropic imeendelea kwa sera ya utumiaji unaokubalika inayokataa wazi utumiaji wa mifumo yake ya AI kwa silaha za kujitegemea, ufuatiliaji wa kiwango kikubwa, na matumizi mengine ambayo kampuni inachukulia kuwa hazilingani na utendaji wake wa kuendeleza AI kwa salama. Vizuizi hivi si vya kawaida katika tasnia ya AI — makampuni mengi makubwa ya AI yana sera sawa — lakini Anthropic ilifanya kwa sauti sana juu ya ahadi yake kwa usalama wa AI kama kanuni ya kiasisi ya msingi.
Kampuni ilianzishwa na watafiti wa zamani wa OpenAI Dario na Daniela Amodei, sehemu yenye wasiwasi juu ya kasi na utawala wa uendelezaji wa AI. Kitambulisho chake cha chapa kinajengwa karibu na uendelezaji wa AI wenye jukumu, na utafiti wake juu ya upatanisho wa AI na utelezaji umeweka msimamo kama kiongozi katika mbinu ya kwanza ya usalama kwa akili bandia. Kurudishana na vizuizi vya militari kungekataa hadithi ya msingi ya kampuni.
Tishio la Sheria ya Uzalishaji wa Kinzi
Sheria ya Uzalishaji wa Kinzi, iliyosainiwa mwaka 1950 wakati wa vita vya Korea, inatoa rais mamlaka makubwa ya kuelekezea tasnia ya kibinafsi kujezesha mkataba na mamri yanayochukuliwa kuwa muhimu kwa ulinzi wa kitaifa. Imeamua mara kadhaa kwa madhumuni mbalimbali — hivi karibuni wakati wa mlipuko wa COVID-19 kulazimisha uzalishaji wa malezi ya kimatibabu — lakini kuitumia kulazimusha kampuni ya AI kutoa teknolohia yake kwa matumizi ya militari ingekuwa matumizi yasiyokatikia katika sheria.
Walimu wa kisheria wamagogwa juu ya kama kuita kama hicho kungepatikana upunguzi wa mahakama. DPA ilitengeneza kwa uzalishaji wa bidhaa za kimwili — chuma, risasi, vifaa vya kimatibabu — si kulazimusha kampuni ya programu kurekebisha masharti yake ya huduma. Maswali ya kama kupata mfano wa AI kujezesha "bidhaa" inayoweza kumwasilishwa chini ya sheria inauliza maswali mapya ya kisheria ambayo mahakama haijabadilisha bado.
- Pentagon inaomba Anthropic kuondoa vizuizi vya matumizi ya AI katika silaha za kujitegemea na ufuatiliaji
- Anthropic inakataa, ikidondoka ahadi ya msingi kwa kanuni za usalamo wa AI
- Wizara ya Ulinzi inatishia kuita Sheria ya Uzalishaji wa Kinzi na Ijumaa
- Walimu wa kisheria wanatuliana kama DPA inaweza kulazimisha kampuni ya programu kubadilisha sera yake
- Mgogoro inaweza kumweka sifa ya mamlaka ya serikali juu ya tasnia nzima ya AI
Athari ya Tasnia
Mgogoro kati ya Anthropic na Pentagon hutuma mawimbi ya mshtuko kupitia tasnia ya AI ambayo inaendelea haraka na mahusiano yanayozidi kuwa changamano na mashtaka ya usalama wa kitaifa. Google, Microsoft, Amazon na OpenAI zote zina mkataba muhimu wa ulinzi, na kila mmoja amekabiliania shinikizo la ndani na la nje juu ya matumizi ya militari ya teknolohia yake. Google iliyejiondoleza kutoka Project Maven, programu ya Pentagon AI, baada ya mitikisiko ya wafanyikazi mwaka 2018, ingawa kampuni imekuza kazi yake ya ulinzi tangu hapo.
Ikiwa Sheria ya Uzalishaji wa Kinzi itakamatwa kwa mafanikio dhidi ya Anthropic, ingekuwa na sifa ya kwamba kampuni yoyote ya AI inayofanya kazi nchini Amerika inaweza kulazimishwa kutoa teknolohia yake kwa madhumuni ya militari bila kuchukua muongozo wake wa kimapenzi. Maoni hiyo inaweza kupozeza uchunguzi wa usalamo wa AI, kukamatia kampuni zenye fokasi la usalamo kuhamia nje ya serikali ya Kiamerika, au kujenga tasnia iliyogawanyika ambapo kampuni lazima ichague kati ya mkataba wa serikali na ahadi za usalama.
Kinyume chake, kama Anthropic ilivyoshinda kwa mafanikio amri — kupitia changamoto ya kisheria au mkutano wa kisiasa — inaweza kujenga kanuni kwamba makampuni ya AI yana haki ya kumweka mipaka ya kimapenzi juu ya jinsi teknolohia yake inatumiwa, hata wakati mteja ni serikali ya Kiamerika.
Mvua Nzito zaidi
Mgogoro unabainisha mvua yenye msingi ambayo imejengwa tangu mifumo ya lugha kubwa na mifumo mingine ya AI ya kidogo ikaanza kubaini uwezo na matumizi wazi ya militari. Serikali ya Kiamerika inachukulia uongozaji wa AI kuwa muhimu kwa usalamo wa kitaifa, hasa katika ushindani na China, ambayo inakamatia fedha katika matumizi ya militari ya AI na vikwazo vichache vya kimapenzi. Kutoka mtazamo wa Pentagon, kuruhusu kampuni kubwa ya AI kuchagua nje ya matumizi ya ulinzi ni kamaata ambayo taifa halina uwezo wa kumudu.
Kutoka mtazamo wa Anthropic, vizuizi vinawepo kwa sababu kampuni inaamini kwamba matumizi ya militari yasiyolipishwa ya mifumo ya AI yenye nguvu inakabidhi hatari za mchezo mkubwa — hatari ambayo hazibopezwi tu kwa sababu mtumiaji ana nguo ya Kiamerika. Muongozo wa kampuni ni kwamba matumizi mengine ya AI ni hatari sana kuweza kwenye, bila kuchukua nani anauliza.
Jinsi mgogoro huu unamtangazwa na kunatulia, uwezekano umechora mahusiano kati ya tasnia ya AI na serikali ya Kiamerika kwa miaka ijayo. Ni kesi ya mtihani kwa kama ahadi za usalamo wa AI zinaweza kusimama kupitia nguvu ya kawaida ya mahitaji ya usalamo wa kitaifa — na kama serikali itakuwa ikitumiaz zana zake za kisheria zenye nguvu kuleta hakika ambayo haiwezi.
Makala hii inategemea ripoti ya The Decoder. Soma makala ya asili.

