Standardisasi AI di Seluruh Perusahaan Pertahanan

Pentagon sedang melakukan upaya terkoordinasi untuk membawa daftar penyedia kecerdasan buatan yang terus berkembang ke apa yang disebut pejabat sebagai "garis dasar yang sama," menetapkan standar bersama untuk bagaimana sistem AI dikembangkan, diuji, digunakan, dan diatur dalam militer. Inisiatif ini, yang dijelaskan oleh kepala penelitian Departemen Pertahanan, mencerminkan tantangan pengelolaan ekosistem AI yang berkembang yang mencakup puluhan perusahaan, beberapa layanan militer, dan berbagai aplikasi dari optimisasi logistik hingga dukungan keputusan medan perang.

Karena DOD telah mempercepat adopsi AI selama beberapa tahun terakhir, ia telah membuat kontrak dengan berbagai penyedia teknologi, mulai dari kontraktor pertahanan besar seperti Lockheed Martin dan Raytheon hingga firma Silicon Valley seperti Palantir dan Anduril hingga startup AI khusus yang lebih kecil. Setiap perusahaan ini membawa praktik pengembangan, metodologi pengujian, dan pendekatan terhadap keselamatan dan etika mereka sendiri. Hasilnya adalah lanskap AI dalam militer yang secara teknis heterogen dan, dalam beberapa kasus, sulit untuk diatur secara konsisten.

Apa Arti "Garis Dasar Sama" dalam Praktik

Upaya standardisasi mencakup beberapa dimensi pengembangan dan penyebaran AI:

  • Pengujian dan evaluasi: DOD menginginkan semua penyedia AI menggunakan metode yang sebanding untuk menguji kinerja, keandalan, dan mode kegagalan sistem mereka. Ini termasuk tugas tolok ukur standar, metrik evaluasi umum, dan infrastruktur pengujian bersama yang memungkinkan sistem yang berbeda dibandingkan berdasarkan basis yang sebanding.
  • Keselamatan dan ketahanan: Sistem AI yang digunakan dalam konteks militer harus memenuhi standar minimum untuk ketahanan terhadap serangan yang sengaja, degradasi yang elegan ketika input jatuh di luar distribusi pelatihan, dan perilaku yang dapat diprediksi dalam kondisi ekstrem yang mencirikan operasi militer.
  • Tata kelola data: Inisiatif ini mencakup standar untuk bagaimana data pelatihan bersumber, diberi label, disimpan, dan dibagikan di seluruh penyedia. Kualitas data adalah penentu kritis dari kinerja sistem AI, dan praktik data yang tidak konsisten di seluruh penyedia dapat menyebabkan hasil yang tidak konsisten.
  • Interoperabilitas: Sistem AI militer semakin perlu berkomunikasi satu sama lain dan dengan infrastruktur komando dan kontrol yang ada. Standar antarmuka umum dan format data sangat penting untuk memungkinkan integrasi ini.
  • Dokumentasi dan auditabilitas: Penyedia diharapkan mempertahankan catatan rinci tentang bagaimana sistem mereka dilatih, data apa yang digunakan, pengujian apa yang dilakukan, dan keterbatasan apa yang diidentifikasi. Dokumentasi ini sangat penting baik untuk kepercayaan operasional maupun akuntabilitas hukum.

Dimensi Etika

Salah satu aspek yang paling dipantau dari upaya standardisasi AI Pentagon adalah perpotongannya dengan prinsip AI etis departemen. DOD mengadopsi prinsip etika AI-nya pada tahun 2020, menetapkan lima komitmen: bahwa sistem AI harus bertanggung jawab, adil, dapat dilacak, andal, dan dapat diatur. Prinsip-prinsip ini telah dipuji oleh beberapa orang sebagai kerangka kerja yang bermakna untuk AI militer yang bertanggung jawab dan dikritik oleh orang lain sebagai terlalu samar untuk membatasi keputusan pengembangan dan penyebaran aktual.

Kepala penelitian DOD menekankan bahwa upaya standardisasi dirancang untuk mengoperasionalkan prinsip-prinsip tersebut, bukan menggantinya. Dengan menetapkan standar konkret untuk pengujian, dokumentasi, dan keselamatan yang harus dipenuhi semua penyedia, departemen bertujuan untuk memberikan kekuatan praktis pada komitmen etika-nya. Idenya adalah bahwa prinsip abstrak seperti "ketertelusuran" menjadi bermakna ketika diterjemahkan menjadi persyaratan spesifik untuk logging, audit, dan penjelasan keputusan sistem AI.

Ini sangat penting ketika militer bergerak menuju aplikasi AI yang lebih konsekuensial. Sistem AI yang mengoptimalkan logistik rantai pasokan menimbulkan kekhawatiran etis yang berbeda dari sistem AI yang mengidentifikasi target atau merekomendasikan penggunaan kekerasan. Upaya standardisasi dimaksudkan untuk memastikan bahwa kerangka tata kelola dapat diskalakan dengan tepat sesuai dengan taruhan aplikasi.

Tantangan Standardisasi

Menetapkan standar AI bersama di seluruh perusahaan pertahanan adalah tantangan yang sangat besar karena beberapa alasan. Teknologinya sendiri berkembang pesat, dan standar yang sesuai hari ini mungkin sudah ketinggalan zaman dalam beberapa tahun. Keragaman aplikasi AI dalam militer berarti bahwa pendekatan satu ukuran untuk semua tidak mungkin berhasil; standar untuk sistem pemrosesan bahasa alami yang merangkum laporan intelijen akan berbeda secara inheren dari standar untuk sistem visi komputer yang memandu kendaraan otonom.

Ada juga ketegangan antara standardisasi dan inovasi. Komunitas AI pertahanan telah dengan sengaja mengembangkan ekosistem penyedia yang beragam tepatnya karena perusahaan yang berbeda membawa pendekatan yang berbeda, dan keragaman ini mendorong inovasi. Standar yang terlalu ketat dapat membatasi eksperimen yang menghasilkan kemampuan terobosan, sementara standar yang terlalu longgar dapat gagal mengatasi risiko nyata dari pengunaan AI dalam konteks militer.

Menavigasi ketegangan ini akan memerlukan DOD untuk mengadopsi kerangka standar yang cukup ketat untuk memastikan keselamatan dan akuntabilitas sambil cukup fleksibel untuk mengakomodasi kecepatan cepat dari pengembangan AI. Pejabat menyarankan bahwa mereka mengejar pendekatan berjenjang, dengan persyaratan garis dasar yang berlaku untuk semua sistem AI dan persyaratan tambahan yang diskalakan dengan sensitivitas dan konsekuensialitas aplikasi.

Respons Industri

Respons industri AI pertahanan terhadap upaya standardisasi secara umum positif, meskipun tidak tanpa reservasi. Kontraktor pertahanan besar, yang terbiasa dengan persyaratan regulasi yang luas, cenderung menyambut standar yang jelas karena mengurangi ketidakpastian dan memberikan keuntungan kompetitif bagi perusahaan dengan sumber daya untuk mematuhi. Startup yang lebih kecil, bagaimanapun, telah mengungkapkan kekhawatiran bahwa persyaratan kepatuhan yang memberatkan dapat secara tidak proporsional mempengaruhi perusahaan yang lebih kecil dan memperlambat kecepatan inovasi.

DOD telah menunjukkan bahwa ia mencari masukan industri tentang pengembangan kerangka standarnya, mengakui bahwa standar top-down sepihak lebih kecil kemungkinannya untuk efektif daripada yang dikembangkan secara kolaboratif. Beberapa kelompok kerja industri telah diadakan untuk memberikan umpan balik tentang metodologi pengujian yang diusulkan, persyaratan dokumentasi, dan tolok ukur keselamatan.

Hasil dari upaya standardisasi ini akan memiliki implikasi jauh melampaui militer. Sebagai konsumen tunggal terbesar teknologi AI di Amerika Serikat, keputusan standar DOD akan mempengaruhi bagaimana perusahaan AI mengembangkan produk mereka dan bagaimana industri teknologi yang lebih luas mendekati keselamatan dan tata kelola AI. Mendapatkan hasil yang benar penting tidak hanya untuk keamanan nasional tetapi untuk lintasan pengembangan AI secara keseluruhan.

Artikel ini didasarkan pada laporan oleh Defense One. Baca artikel asli.