Hari Kritis untuk Keselamatan AI

Dalam apa yang kritikus sebut sebagai momen penting bagi industri kecerdasan buatan, Anthropic mengumumkan perubahan menyeluruh pada Kebijakan Penskalaan Bertanggung Jawabnya pada hari Selasa, menghilangkan mekanisme pemberhenti keselamatan keras yang telah menjadi inti identitas perusahaan sejak pendiriannya. Waktunya sangat mencolok — pengumuman tiba pada hari yang sama laporan muncul tentang Sekretaris Pertahanan Pete Hegseth menekan perusahaan untuk memberikan akses militer AS yang tidak terbatas ke model Claude AI-nya.

Selama lebih dari dua tahun, RSP Anthropic berdiri sebagai salah satu komitmen keselamatan paling konkret dalam industri AI. Kebijakan ini menetapkan garis merah yang jelas: jika model perusahaan mencapai ambang batas kemampuan tertentu tanpa langkah keselamatan yang memadai, pengembangan akan berhenti. Janji itu sekarang hilang, digantikan oleh kerangka yang lebih fleksibel dari "Laporan Risiko" dan "Peta Jalan Keselamatan Perbatasan" yang menurut perusahaan lebih mencerminkan realitas lanskap AI yang kompetitif.

Alasan Di Balik Perubahan

Anthropic membingkai perubahan sebagai respons pragmatis terhadap masalah aksi kolektif. "Dua setengah tahun kemudian, penilaian jujur kami adalah bahwa beberapa bagian dari teori perubahan ini telah berkembang sesuai harapan kami, tetapi yang lain tidak," tulis perusahaan dalam dokumen kebijakan yang diperbarui. Argumen intinya sederhana: jika satu pengembang yang bertanggung jawab berhenti sementara pesaing berlari maju, hasilnya bisa menjadi dunia yang dibentuk oleh aktor yang paling tidak hati-hati daripada yang paling bijaksana.

"Kami merasa tidak akan membantu siapa pun jika kami menghentikan pelatihan model AI," kata Jared Kaplan, kepala ilmuwan Anthropic, kepada Time magazine. "Kami tidak benar-benar merasa, dengan kemajuan AI yang cepat, bahwa masuk akal bagi kami untuk membuat komitmen sepihak... jika pesaing berlari maju." Ini adalah argumen yang akrab dalam teknologi — ide bahwa aktor yang bertanggung jawab perlu tetap berada di perbatasan untuk memastikan perspektif yang sadar keselamatan membentuk bagaimana teknologi yang kuat berkembang.

Tetapi alasan ini duduk dengan tidak nyaman di samping keberuntungan komersial perusahaan yang meningkat. Anthropic mengumpulkan $30 miliar dalam investasi baru bulan ini saja, membawa valuasinya menjadi $380 miliar. Model Claude-nya telah menarik pujian luas, khususnya untuk aplikasi pengkodean. Versi terbaru telah dijelaskan oleh perusahaan itu sendiri sebagai yang teraman. Ini membangkitkan pertanyaan mengapa janji keselamatan perlu dilemahkan justru pada saat ketika kemampuan dan sumber daya berada di puncaknya.

Ultimatum Pentagon

Gajah di ruangan adalah kampanye tekanan bersamaan dari Departemen Pertahanan. Menurut laporan Axios, Sekretaris Pertahanan Hegseth telah memberi CEO Anthropic Dario Amodei sampai hari Jumat untuk memberikan akses tidak terbatas ke Claude kepada militer atau menghadapi konsekuensi. Konsekuensi itu dapat mencakup menginvokan Undang-Undang Produksi Pertahanan, memutuskan kontrak pertahanan yang ada dari perusahaan, atau menunjuk Anthropic sebagai risiko rantai pasokan — langkah yang akan memaksa kontraktor Pentagon lain untuk mensertifikasi bahwa mereka tidak menggunakan Claude dalam alur kerja mereka.

Claude dilaporkan sebagai satu-satunya model AI yang saat ini digunakan untuk operasi militer paling sensitif. "Satu-satunya alasan kami masih berbicara dengan orang-orang ini adalah kami membutuhkan mereka dan kami membutuhkan mereka sekarang," kata seorang pejabat pertahanan kepada Axios. Model dilaporkan digunakan selama operasi militer baru-baru ini di Venezuela, topik yang Amodei telah naikkan dengan mitra pertahanan Palantir.

Anthropic dilaporkan telah menawarkan untuk menyesuaikan kebijakan penggunaan untuk Pentagon tetapi telah menarik garis terhadap memungkinkan model digunakan untuk pengawasan massal warga Amerika atau sistem senjata yang menembak tanpa keterlibatan manusia. Apakah garis itu bertahan menghadapi tekanan pemerintah tetap menjadi pertanyaan terbuka.

Kekhawatiran Perubahan Bertahap

Para peneliti keselamatan telah mengekspresikan berbagai reaksi. Chris Painter, direktur METR nonprofit, menggambarkan perubahan sebagai dapat dipahami tetapi berpotensi berbahaya. Dia memuji penekanan pada pelaporan risiko transparan tetapi mengangkat kekhawatiran tentang efek "perebusan kodok perlahan-lahan" — ide bahwa ketika garis keselamatan keras menjadi pedoman fleksibel, setiap konsesi individu tampaknya masuk akal sementara arah kumulatif mengganggu.

Painter mencatat bahwa RSP baru menyarankan Anthropic "percaya perlu untuk berubah ke mode triase dengan rencana keselamatan mereka, karena metode untuk menilai dan mengurangi risiko tidak berjalan seiring dengan kecepatan kemampuan." Dia menambahkan dengan jelas: "Ini bukti lebih lanjut bahwa masyarakat tidak siap untuk potensi risiko katastropik yang ditimbulkan oleh AI."

Paralel dengan evolusi Google sulit diabaikan. Raksasa pencarian itu terkenal beroperasi di bawah motto "Jangan menjadi jahat" sebelum dengan tenang menghapusnya dari kode etiknya karena tekanan komersial meningkat. Apakah lintasan Anthropic mengikuti busur serupa akan tergantung pada apa yang dilakukan perusahaan dalam berminggu-minggu dan berbulan-bulan mendatang — khususnya dalam kebuntuan dengan Pentagon.

Apa Selanjutnya

Kerangka RSP baru menggantikan keputusan biner stop/go dengan penilaian bertingkat dan pengungkapan publik. Dalam teori, ini memberikan tata kelola keselamatan yang lebih bernuansa. Dalam praktik, kritikus khawatir itu menghapus satu-satunya mekanisme yang bisa telah memaksa jeda dalam pengembangan pada saat kritis.

Untuk industri AI yang lebih luas, pesannya jelas: bahkan perusahaan yang paling lantang berkomitmen pada keselamatan merasa sulit mempertahankan komitmen itu saat valuasi melonjak, persaingan memanas, dan pemerintah mulai mendesak. Pertanyaannya bukan apakah pengembangan AI akan melambat — jelas tidak akan. Ini apakah rel pengaman yang dibangun kembali cukup kuat untuk penting.

Artikel ini didasarkan pada laporan oleh Engadget. Baca artikel asli.