Thời hạn Thứ Sáu và Cuộc chiến lạnh về Đạo đức AI
Anthropic, công ty an toàn AI đứng sau họ các mô hình ngôn ngữ Claude, đang đối mặt với một cuộc đối đầu bất thường với Bộ Quốc phòng Hoa Kỳ. Theo báo cáo, Bộ Quốc phòng đã yêu cầu Anthropic nới lỏng các hạn chế đối với các ứng dụng quân sự của công nghệ AI của nó — đặc biệt là các lệnh cấm sử dụng trong các hệ thống vũ khí tự chủ và giám sát hàng loạt. Anthropic đã từ chối, và Bộ Quốc phòng đã đáp trả bằng một mối đe dọa gọi Đạo luật Sản xuất Quốc phòng, một luật thời Chiến tranh lạnh cho phép chính phủ bắt buộc các công ty tư nhân ưu tiên sản xuất quốc phòng.
Công ty đã được cho thời hạn đến Thứ Sáu để tuân thủ. Nếu Anthropic duy trì sự từ chối của mình, Bộ Quốc phòng có thể hợp pháp bắt buộc công ty cung cấp quyền truy cập vào khả năng AI của mình cho các mục đích quân sự, thiết lập một cuộc đối đầu pháp lý và đạo đức không có tiền lệ rõ ràng trong ngành AI.
Những gì Anthropic đã hạn chế
Kể từ khi thành lập, Anthropic đã duy trì một chính sách sử dụng có thể chấp nhận được rõ ràng cấm sử dụng các mô hình AI của nó cho vũ khí tự chủ, giám sát hàng loạt và các ứng dụng khác mà công ty coi là không tương thích với sứ mệnh phát triển AI an toàn. Những hạn chế này không bất thường trong ngành AI — hầu hết các công ty AI lớn đều có chính sách tương tự — nhưng Anthropic đã đặc biệt nổi tiếng về cam kết của nó đối với an toàn AI như một nguyên tắc tổ chức cốt lõi.
Công ty được thành lập bởi các nhà nghiên cứu cũ của OpenAI Dario và Daniela Amodei, một phần do lo ngại về tốc độ và quản trị phát triển AI. Danh tính thương hiệu của nó được xây dựng xung quanh phát triển AI có trách nhiệm, và nghiên cứu của nó về căn chỉnh AI và khả năng giải thích đã định vị nó là một lãnh đạo trong cách tiếp cận ưu tiên an toàn đối với trí tuệ nhân tạo. Lui lại trước các hạn chế quân sự sẽ làm suy yếu tường thuật nền tảng của công ty.
Mối đe dọa của Đạo luật Sản xuất Quốc phòng
Đạo luật Sản xuất Quốc phòng, được ký thành luật vào năm 1950 trong Chiến tranh Triều Tiên, cấp cho tổng thống quyền hạn rộng rãi để chỉ đạo ngành công nghiệp tư nhân ưu tiên các hợp đồng và đơn đặt hàng được coi là cần thiết để phòng vệ quốc gia. Nó đã được gọi định kỳ cho nhiều mục đích khác nhau — gần đây nhất trong đại dịch COVID-19 để bắt buộc sản xuất vật tư y tế — nhưng sử dụng nó để bắt buộc công ty AI cung cấp công nghệ của mình cho các ứng dụng quân sự sẽ đại diện cho một ứng dụng chưa từng có của luật.Các chuyên gia pháp lý chia rẽ liệu một cuộc gọi như vậy sẽ tồn tại quá trình xem xét tư pháp. Đạo luật được thiết kế cho sản xuất hàng hóa vật lý — thép, đạn dược, thiết bị y tế — không phải để bắt buộc một công ty phần mềm thay đổi các điều khoản dịch vụ của nó. Câu hỏi liệu quyền truy cập mô hình AI có cấu thành một "sản phẩm" có thể được chiếm giữ theo luật hay không đặt ra các câu hỏi pháp lý mới mà các tòa án chưa xử lý.
- Bộ Quốc phòng yêu cầu Anthropic loại bỏ các hạn chế đối với việc sử dụng AI trong vũ khí tự chủ và giám sát
- Anthropic từ chối, trích dẫn cam kết nguyên tắc an toàn AI cốt lõi
- Bộ Quốc phòng đe dọa gọi Đạo luật Sản xuất Quốc phòng vào Thứ Sáu
- Các chuyên gia pháp lý tranh luận xem Đạo luật có thể bắt buộc công ty phần mềm thay đổi chính sách của nó hay không
- Kết quả có thể đặt tiền lệ cho quyền hạn của chính phủ đối với toàn bộ ngành AI
Ý nghĩa ngành công nghiệp
Cuộc đối đầu giữa Anthropic và Bộ Quốc phòng gây chấn động trong một ngành AI đang điều hướng một mối quan hệ ngày càng phức tạp với các cơ quan an ninh quốc gia. Google, Microsoft, Amazon và OpenAI đều có các hợp đồng quốc phòng đáng kể và mỗi công ty đã phải đối mặt với áp lực nội bộ và bên ngoài về các ứng dụng quân sự của công nghệ của họ. Google nổi tiếng đã rút khỏi Project Maven, một chương trình AI của Bộ Quốc phòng, sau khi các cuộc biểu tình của nhân viên vào năm 2018, mặc dù công ty đã mở rộng công việc quốc phòng của mình kể từ đó.
Nếu Đạo luật Sản xuất Quốc phòng được sử dụng thành công chống lại Anthropic, nó sẽ thiết lập một tiền lệ mà bất kỳ công ty AI nào hoạt động tại Hoa Kỳ có thể bị bắt buộc cung cấp công nghệ của mình cho các mục đích quân sự bất kể các hướng dẫn đạo đức riêng của nó. Triển vọng đó có thể làm lạnh nghiên cứu an toàn AI, đẩy các công ty tập trung vào an toàn để chuyển ra khỏi phân xứ Hoa Kỳ hoặc tạo ra một ngành bị chia rẽ nơi các công ty phải chọn giữa hợp đồng chính phủ và cam kết an toàn.
Ngược lại, nếu Anthropic thành công chống lại lệnh — cho dù thông qua thách thức pháp lý hay đàm phán chính trị — nó có thể tăng cường nguyên tắc rằng các công ty AI có quyền đặt các ranh giới đạo đức về cách sử dụng công nghệ của họ, ngay cả khi khách hàng là chính phủ Hoa Kỳ.
Sự căng thẳng rộng hơn
Cuộc đối đầu phản ánh một sự căng thẳng cơ bản đã xây dựng kể từ khi các mô hình ngôn ngữ lớn và các hệ thống AI nâng cao khác bắt đầu thể hiện khả năng với các ứng dụng quân sự rõ ràng. Chính phủ Hoa Kỳ coi sự thống trị AI là cần thiết cho an ninh quốc gia, đặc biệt trong cuộc cạnh tranh với Trung Quốc, quốc gia đang đổ nguồn lực vào các ứng dụng quân sự AI với những ràng buộc đạo đức ít hơn. Từ quan điểm của Bộ Quốc phòng, cho phép một công ty AI hàng đầu chọn khỏi các ứng dụng quốc phòng là một sự sang trọng mà quốc gia không thể đủ khả năng.
Từ quan điểm của Anthropic, những hạn chế tồn tại chính vì công ty tin rằng ứng dụng quân sự không giới hạn của các hệ thống AI mạnh mẽ gây ra những rủi ro thảm họa — những rủi ro không bị loại bỏ đơn giản vì người dùng mặc một bộ đồng phục Mỹ. Vị trí của công ty là một số ứng dụng AI quá nguy hiểm để bật, bất kể ai đang yêu cầu.
Cách cuộc đối đầu này giải quyết có khả năng hình thành mối quan hệ giữa ngành AI và chính phủ Hoa Kỳ trong những năm tới. Đó là một trường hợp kiểm tra xem liệu các cam kết an toàn AI có thể chịu được lực hút hấp dẫn của các bắt buộc an ninh quốc gia hay không — và liệu chính phủ có sử dụng các công cụ pháp lý mạnh nhất của mình để đảm bảo rằng nó không thể.
Bài viết này dựa trên báo cáo của The Decoder. Đọc bài viết gốc.



