Công Cụ Chiến Tranh Lạnh Cho Kỷ Nguyên Công Nghệ Mới

Mối quan hệ giữa Bộ Quốc phòng Hoa Kỳ và một trong những công ty trí tuệ nhân tạo hàng đầu thế giới đã đạt tới điểm bùng nổ. Bộ trưởng Quốc phòng Pete Hegseth đã đưa ra một tối hậu thư gay gắt cho Anthropic: đồng ý cho phép sử dụng quân sự không hạn chế công nghệ AI của nó vào thứ Sáu, hoặc đối mặt với việc bị loại khỏi chuỗi cung cấp của Lầu Năm Góc.

Mối đe dọa đến từ một cuộc họp căng thẳng ở Washington vào thứ Ba, nơi Hegseth triệu tập CEO Anthropic Dario Amodei để thảo luận về sự từ chối của công ty trong việc cấp cho quân đội quyền truy cập không hạn chế vào các mô hình AI của nó cho các hoạt động được phân loại. Trong số những yêu cầu gây tranh cãi nhất là các quy định cho phép giám sát nội địa và các nhiệm vụ tự trị chết người mà không có sự giám sát trực tiếp của con người.

Có lẽ đáng chú ý nhất là việc Hegseth sử dụng Luật Sản xuất Quốc Phòng, một luật từ thời Chiến tranh Lạnh cấp cho tổng thống quyền hạn rộng lớn để bắt buộc các ngành công nghiệp nội địa phục vụ các ưu tiên quốc phòng. Luật này ban đầu được thiết kế để đảm bảo các nhà máy có thể chuyển đổi sang sản xuất thời chiến, và nó chưa bao giờ được sử dụng để bắt buộc một công ty AI giao công nghệ của nó — làm cho mối đe dọa này chưa từng có trong lịch sử chính sách công nghệ Mỹ.

Quan Điểm An Toàn Trên Hết của Anthropic Dưới Áp Lực

Anthropic đã lâu nay được công nhận trong ngành công nghiệp AI vì nhấn mạnh nghiên cứu an toàn và triển khai có trách nhiệm. Công ty, được thành lập bởi các nhà nghiên cứu cũ của OpenAI Dario và Daniela Amodei, đã xây dựng thương hiệu của nó xung quanh khái niệm AI hiến pháp — các hệ thống được thiết kế với các hạn chế đạo đức tích hợp sẵn nhằm ngăn chặn việc lạm dụng.

Triết lý ưu tiên an toàn đó hiện đã đưa công ty vào cuộc xung đột trực tiếp với sự chồng chéo ngày càng tăng của Lầu Năm Góc đối với sự tích hợp AI trong các hoạt động quân sự. Mặc dù Anthropic không phản đối tất cả các hợp đồng quốc phòng, nhưng nó đã vạch ra các ranh giới rõ ràng xung quanh các ứng dụng nhất định, đặc biệt là những ứng dụng liên quan đến lực lượng tự trị chết người mà không có kiểm soát có ý nghĩa của con người và các chương trình giám sát hàng loạt nhắm vào các dân số nội địa.

Vị trí của công ty phản ánh cuộc tranh luận rộng lớn hơn trong ngành AI về nơi để vạch ra các ranh giới đạo đức. Các công ty AI lớn khác, bao gồm OpenAI và Google, cũng đã vật lộn với các hợp đồng quân sự, mặc dù hầu hết đều sẵn sàng để đàm phán các điều khoản tham gia với các cơ quan quốc phòng. Đường lối cứng rắn hơn của Anthropic đã làm cho nó trở thành một mục tiêu chỉ trích ở Washington trong cuộc áp lực ngày càng tăng để vũ khí hóa trí tuệ nhân tạo.

Luật Sản xuất Quốc Phòng: Một Vũ Khí Không Thông Thường

Luật Sản xuất Quốc Phòng được ký thành luật vào năm 1950, trong giai đoạn đầu của Chiến tranh Triều Tiên. Mục đích ban đầu của nó rất đơn giản: đảm bảo rằng ngành công nghiệp Mỹ có thể nhanh chóng chuyển sản xuất để hỗ trợ các nhu cầu quân sự. Trong những thập kỷ qua, nó đã được sử dụng cho mọi thứ từ sản xuất bán dẫn đến chuỗi cung cấp y tế đại dịch.

Nhưng việc áp dụng DPA để bắt một công ty AI cấp quyền truy cập vào các mô hình của nó đại diện cho một loại can thiệp hoàn toàn khác. Không giống như hàng hóa vật lý, các mô hình AI là tài sản trí tuệ có khả năng và rủi ro được liên kết chặt chẽ với nhau. Bắt một công ty loại bỏ các hạn chế an toàn khỏi công nghệ của nó làm nảy sinh các câu hỏi vượt xa ngoài các tranh chấp mua sắm truyền thống.

Các chuyên gia pháp luật đã lưu ý rằng việc sử dụng DPA như vậy có thể sẽ đối mặt với những thách thức tòa án ngay lập tức. Luật này được thiết kế cho các ưu tiên sản xuất và chuỗi cung cấp, chứ không phải để ghi đè các chính sách an toàn nội bộ của công ty về cách triển khai công nghệ của nó. Bất kỳ nỗ lực nào để sử dụng nó có thể thiết lập một tiền lệ với những hậu quả sâu rộng cho toàn bộ khu vực công nghệ.

Phản Ứng Của Ngành và Những Hệ Quả Rộng Lớn Hơn

Cuộc đối đầu đã gây ra những cú sốc qua Silicon Valley. Các công ty AI khác đang theo dõi chặt chẽ, nhận thức rằng kết quả có thể thiết lập các chuẩn mực mới cho cách chính phủ tương tác với khu vực AI tư nhân. Một số lãnh đạo ngành đã riêng tư bày tỏ lo ngại rằng việc tuân thủ các yêu cầu của Lầu Năm Góc có thể làm suy yếu các nghiên cứu an toàn mà nhiều người coi là cần thiết để ngăn chặn sử dụng AI sai lệch thảm khốc.

Các phản ứng của Quốc hội đã hỗn hợp. Những người cứng rắn về an niên quốc gia trên các uỷ ban Dịch vụ Vũ trang đã ủng hộ vị trí của Hegseth, lập luận rằng an niên quốc gia phải được ưu tiên hơn các sở thích an toàn của công ty. Những người khác, đặc biệt là các thành viên của Uỷ ban Thương mại Thượng viện, đã cảnh báo rằng việc bắt buộc các công ty AI có thể lái tài năng và đổi mới ra nước ngoài, cuối cùng làm suy yếu vị trí cạnh tranh của Mỹ.

Liên minh Châu Âu cũng đã chú ý. Các quan chức EU đã chỉ ra cuộc đối đầu như bằng chứng ủng hộ phương pháp quản lý AI của riêng họ, với một nhà ngoại giao cấp cao lưu ý rằng tình huống này nhấn mạnh các rủi ro của việc để cho các quyết định an toàn AI phụ thuộc vào ý chí của các quan chức chính trị.

Điều Gì Sẽ Xảy Ra Tiếp Theo

Thời hạn thứ Sáu hiện ra khá lớn. Nếu Anthropic từ chối tuân thủ, Hegseth có thể theo dõi mối đe dọa của anh ấy loại bỏ công ty khỏi các kênh mua sắm quốc phòng, cắt đứt một luồng doanh thu đáng kể và gửi một thông điệp cho các công ty AI khác. Tùy chọn Luật Sản xuất Quốc Phòng vẫn còn ở trên bàn nhưng sẽ đại diện cho sự leo thang kịch tính hơn nhiều với kết quả pháp luật không chắc chắn.

Đối với Anthropic, tính toán là tồn tại. Việc từ chối có thể làm suy yếu các nguyên tắc an toàn xác định danh tính công ty của nó và xói mòn lòng tin của những nhân viên đã tham gia cụ thể vì các cam kết đạo đức của công ty. Sự kháng cự có thể chi phí cho công ty không chỉ các hợp đồng chính phủ mà còn cả thiện chí chính trị tại thời điểm khi quy định AI đang được định hình tích cực ở Washington.

Bất kể kết quả như thế nào, cuộc đối đầu đã làm rõ một điều: kỳ trăng mật giữa các công ty AI và chính phủ đã kết thúc. Thời đại hợp tác lịch sự về chính sách AI đang nhượng bước cho các cuộc đàm phán giành điểm cao khi những cổ phần được đo lường không phải bằng lợi nhuận hàng quý mà bằng những câu hỏi cơ bản về cách công nghệ mạnh mẽ nhất trong lịch sử loài người sẽ được quản lý.

Bài viết này dựa trên báo cáo của Ars Technica. Đọc bài viết gốc.