กำหนดเวลาวันศุกร์และสงครามเย็นเกี่ยวกับจริยธรรม AI
Anthropic บริษัท AI ความปลอดภัยที่อยู่เบื้องหลังตระกูลแบบจำลองภาษา Claude กำลังประสบกับการต่อสู้ที่ผิดปกติกับกระทรวงกลาโหมสหรัฐ ตามรายงาน เพนตากอนได้เรียกร้องให้ Anthropic ปลดปล่อยข้อจำกัดต่อการใช้งานทางทหารของเทคโนโลยี AI ของตน — โดยเฉพาะข้อห้ามในการใช้ในระบบอาวุธอัตโนมัติและการติดตามสังเกตการณ์จำนวนมาก Anthropic ปฏิเสธและหน่วยกลาโหมได้ตอบสนองด้วยการคุกคามที่จะเรียกใช้กฎหมายการผลิตป้องกัน ซึ่งเป็นกฎหมายยุค Cold War ที่อนุญาตให้รัฐบาลบังคับให้บริษัทเอกชนให้ความสำคัญกับการผลิตเพื่อการป้องกันของชาติ
บริษัทได้รับการกำหนดเวลาไปจนถึงวันศุกร์เพื่อปฏิบัติตาม หาก Anthropic รักษาการปฏิเสธของตน เพนตากอนอาจบังคับให้บริษัทให้สิทธิ์การเข้าถึงความสามารถ AI ของตนเพื่อวัตถุประสงค์ทางทหาร สร้างการต่อสู้ทางกฎหมายและจริยธรรมโดยไม่มีรูปแบบที่ชัดเจนในอุตสาหกรรม AI
สิ่งที่ Anthropic จำกัด
ตั้งแต่การก่อตั้ง Anthropic ได้บำรุงรักษานโยบายการใช้งานที่ยอมรับได้ซึ่งห้ามการใช้แบบจำลอง AI ของตนสำหรับอาวุธอัตโนมัติ การติดตามสังเกตการณ์จำนวนมาก และการประยุกต์ใช้อื่น ๆ ที่บริษัทพิจารณาว่าเข้ากันไม่ได้กับภารกิจการพัฒนา AI อย่างปลอดภัย ข้อจำกัดเหล่านี้ไม่ผิดปกติในอุตสาหกรรม AI — บริษัท AI ขนาดใหญ่ส่วนใหญ่มีนโยบายที่คล้ายกัน — แต่ Anthropic เป็นเสียงที่ดังขึ้นอย่างเห็นได้ชัดเกี่ยวกับการอุทิศตนด้านความปลอดภัย AI ในฐานะหลักการองค์กรหลัก
บริษัทได้จัดตั้งโดยนักวิจัย OpenAI เก่า Dario และ Daniela Amodei โดยบางส่วนเนื่องจากความกังวลเกี่ยวกับจังหวะและการปกครองการพัฒนา AI ตัวตนของแบรนด์นั้นสร้างขึ้นรอบการพัฒนา AI ที่มีความรับผิดชอบ และการวิจัยของตนในการจัดตำแหน่ง AI และการตีความได้วางตำแหน่งให้เป็นผู้นำในแนวทางที่มีความปลอดภัยต่อปัญญาประดิษฐ์ การดำเนินการนอกจากข้อจำกัดทางทหารจะบ่อนทำลายการบอกเล่าพื้นฐานของบริษัท
ภัยคุกคามกฎหมายการผลิตป้องกัน
กฎหมายการผลิตป้องกันลงนามในปี 1950 ระหว่างสงครามเกาหลี ให้อำนาจกว้างขวางแก่ประธานาธิบดีในการบัญชาอุตสาหกรรมเอกชนเพื่อให้ความสำคัญกับสัญญาและคำสั่งซื้อที่ถือว่าจำเป็นเพื่อการป้องกันของชาติ ได้ถูกเรียกใช้เป็นระยะสำหรับวัตถุประสงค์ต่างๆ — ล่าสุดในช่วงการระบาดใหญ่ COVID-19 เพื่อบังคับให้ผลิตอุปกรณ์ทางการแพทย์ — แต่การใช้เพื่อบังคับให้บริษัท AI ให้เทคโนโลยีของตนสำหรับการใช้งานทางทหารจะเป็นการใช้งานแบบไม่มีบุรุษ
ผู้เชี่ยวชาญด้านกฎหมายแบ่งแยกเกี่ยวกับว่าการเรียกใช้ดังกล่าวจะอยู่รอดจากการตรวจสอบด้านตุลาการ กฎหมายได้ถูกออกแบบมาสำหรับการผลิตสินค้าทางกายภาพ — เหล็ก กระสุนปืน อุปกรณ์ทางการแพทย์ — ไม่ใช่สำหรับการบังคับให้บริษัทซอฟต์แวร์เปลี่ยนแปลงข้อกำหนดการบริการ คำถามว่าการเข้าถึงแบบจำลอง AI ถือเป็น "ผลิตภัณฑ์" ที่สามารถยึดได้ตามกฎหมายหรือไม่นั้นยกให้เกิดคำถามด้านกฎหมายใหม่ที่ศาลยังไม่ได้กำหนด
- เพนตากอนเรียกร้องให้ Anthropic ลบข้อจำกัดต่อการใช้ AI ในอาวุธอัตโนมัติและการติดตามสังเกตการณ์
- Anthropic ปฏิเสธ อ้างถึงหลักการความปลอดภัย AI พื้นฐาน
- กระทรวงกลาโหมคุกคามการเรียกใช้กฎหมายการผลิตป้องกันในวันศุกร์
- ผู้เชี่ยวชาญด้านกฎหมายโต้แย้งว่ากฎหมายสามารถบังคับให้บริษัทซอฟต์แวร์เปลี่ยนแปลงนโยบายของตนหรือไม่
- การกำหนดเวลาอาจตั้งค่าบรรทัดฐานสำหรับอำนาจของรัฐบาลมากกว่าอุตสาหกรรม AI ทั้งหมด
ผลกระทบต่ออุตสาหกรรม
การต่อสู้ระหว่าง Anthropic และเพนตากอนส่งสัญญาณสึกผ่านอุตสาหกรรม AI ที่กำลังนำทางความสัมพันธ์ที่ซับซ้อนมากขึ้นกับหน่วยงานความมั่นคงของชาติ Google Microsoft Amazon และ OpenAI ทั้งหมดมีสัญญาป้องกันที่มีความสำคัญ และแต่ละคนต้องเผชิญกับความกดดันภายในและภายนอกเกี่ยวกับการใช้งานทางทหารของเทคโนโลยีของตน Google ถูกดึงออกจาก Project Maven โปรแกรม AI เพนตากอนอย่างเด่นชัดหลังจากการประท้วงของพนักงานในปี 2018 แม้ว่าบริษัทได้ขยายงานป้องกันของตนตั้งแต่นั้นมา
หากกฎหมายการผลิตป้องกันถูกใช้เพื่อต่อต้าน Anthropic ได้สำเร็จ มันจะตั้งค่าบรรทัดฐานว่าบริษัท AI ใด ๆ ที่ดำเนินการในสหรัฐอเมริกาสามารถถูกบังคับให้ให้เทคโนโลยีของตนเพื่อวัตถุประสงค์ทางทหารโดยไม่คำนึงถึงแนวทางจริยธรรมของตนเอง โอกาสนั้นอาจทำให้การวิจัยความปลอดภัย AI เย็นลง ผลักดันบริษัทที่มุ่งเน้นความปลอดภัยให้ย้ายออกจากเขตอำนาจสหรัฐอเมริกา หรือสร้างอุตสาหกรรมแบบแยกส่วนที่บริษัทต้องเลือกระหว่างสัญญาของรัฐบาลและการอุทิศตนด้านความปลอดภัย
ในทางกลับกัน หากผลักดัน Anthropic ได้สำเร็จต่อต้านคำสั่ง — ไม่ว่าจะผ่านการโต้แย้งด้านกฎหมายหรือการเจรจาทางการเมือง — มันอาจเสริมสร้างหลักการที่ว่าบริษัท AI มีสิทธิ์ที่จะตั้งค่าขอบเขตจริยธรรมว่าเทคโนโลยีของตนถูกใช้อย่างไร แม้เมื่อลูกค้าคือรัฐบาลสหรัฐอเมริกา
ความตึงเครียดที่กว้างขึ้น
การยืนหยัดสะท้อนให้เห็นความตึงเครียดมูลฐานที่ได้สร้างตั้งแต่แบบจำลองภาษาขนาดใหญ่และระบบ AI นำไปสู่ความสามารถการแสดงอื่น ๆ โดยมีการประยุกต์ใช้ทางทหารที่ชัดเจน รัฐบาลสหรัฐอเมริกามองว่าการปกครองอำนาจ AI เป็นสิ่งจำเป็นต่อความมั่นคงของชาติ โดยเฉพาะอย่างยิ่งในการแข่งขันกับจีน ซึ่งกำลังเทเงินทุนเข้าไปในการประยุกต์ใช้ทางทหาร AI ที่มีข้อจำกัดจริยธรรมน้อยลง จากมุมมองของเพนตากอน การอนุญาตให้บริษัท AI ชั้นนำเลือกใช้งานป้องกันนั้นเป็นความหรูหราที่ประเทศนี้ไม่สามารถดำเนินการได้
จากมุมมองของ Anthropic ข้อจำกัดมีอยู่เพราะบริษัทเชื่อว่าการใช้งานทางทหารที่ไม่จำกัดของระบบ AI ที่มีประสิทธิภาพนำเสนอความเสี่ยงแบบเหล้ากระดาษ — ความเสี่ยงที่ไม่ได้ถูกกำจัดเพียงเพราะผู้ใช้สวมเครื่องแบบของอเมริกา ตำแหน่งของบริษัทคือการใช้งาน AI บางอย่างอันตรายเกินไปที่จะเปิดใช้งานโดยไม่คำนึงถึงว่าใครกำลังขอ
วิธีการที่การยืนหยัดนี้ได้รับการแก้ไขโดยสังเกตว่าจะเป็นรูปแบบสัมพันธ์ระหว่างอุตสาหกรรม AI และรัฐบาลสหรัฐอเมริกาในบางปีที่กำลังจะมาถึง นี่คือกรณีทดสอบสำหรับว่าการอุทิศตนด้านความปลอดภัย AI สามารถต่อต้านแรงดึงดูดของข้อกำหนดด้านความมั่นคงของชาติได้หรือไม่ — และว่ารัฐบาลจะใช้เครื่องมือด้านกฎหมายที่มีประสิทธิภาพมากที่สุดของตนเพื่อให้แน่ใจว่าตัวเลือกสำเร็จ
บทความนี้ขึ้นอยู่กับการรายงานของ The Decoder อ่านบทความต้นฉบับ.




