Bulan lalu, China mengumumkan rencana untuk membentuk sebuah badan global yang bertujuan mengawasi kecerdasan buatan (AI) dengan prinsip akses yang setara terhadap teknologi, kolaborasi lintas negara yang lebih mendalam, serta langkah-langkah untuk mengatasi hambatan seperti pembatasan perangkat keras dan keterbatasan pertukaran talenta.
Enam bulan sebelumnya, 58 negara bertemu di Paris untuk mendukung deklarasi tentang “AI yang inklusif dan berkelanjutan,” namun Amerika Serikat dan Inggris menolak untuk menandatangani deklarasi tersebut.
Pendekatan yang diambil berbeda, tetapi polanya sama. Perlombaan untuk menguasai AI bergerak jauh lebih cepat dibandingkan upaya untuk mengaturnya.
Kecerdasan buatan adalah pengganda kekuatan bagi perekonomian, sistem keamanan, dan pengaruh geopolitik.
Dalam satu dekade terakhir, AI telah berpindah dari laboratorium teknologi ke sistem penargetan militer, pengadaan pemerintah, dan infrastruktur inti. Pertanyaan tentang apakah AI dapat diatur secara bermakna kini telah berpindah dari ruang seminar ke meja kabinet.
Ketika model yang sama dapat membantu lulus ujian lisensi medis pada suatu hari dan menghasilkan video rekayasa palsu realistis pada hari berikutnya, menjadi jelas bahwa alat pengawasan saat ini tidak sebanding dengan kecepatan, fleksibilitas, atau jangkauan AI modern.
Kerangka peraturan yang ada dirancang untuk kemajuan yang lambat dan aplikasi yang didefinisikan secara sempit. Kerangka ini tidak dirancang untuk sistem yang dapat menghasilkan teks setara manusia, menganalisis citra satelit dalam hitungan detik, atau mengoordinasikan armada mesin otonom.
Kesenjangan ini mendorong seruan untuk mekanisme tata kelola baru yang dapat merespons skala, kecepatan, dan potensi penggunaan ganda AI yang unik.
Dimensi internasional dari perdebatan tata kelola didorong oleh bagaimana teknologi baru mengubah kalkulasi risiko untuk konflik dan ketidakstabilan. Beberapa kemajuan dapat mengurangi risiko tersebut dengan meningkatkan verifikasi, komunikasi, atau pencegahan.
Namun, kemajuan yang menawarkan keunggulan di medan perang cenderung meningkatkan pengeluaran militer dan mempercepat perlombaan senjata. Kebijaksanaan konvensional menunjukkan bahwa AI termasuk dalam kategori terakhir ini.
Keberhasilan AI dalam pengawasan, penargetan, dan sistem otonom memperkuat persepsi bahwa tertinggal berarti kerugian strategis yang serius.
Dalam teori, kerangka kontrol senjata atau pengaturan kerja sama yang lebih ringan dapat membantu semua pihak dengan menetapkan batasan yang menghindari persaingan yang tidak stabil. Namun, dalam praktiknya, kesepakatan semacam itu jarang terjadi.
Kegagalan koordinasi, ketidakpercayaan bersama, dan sifat penggunaan ganda AI membuat jenis pengendalian bersama internasional yang terlihat dalam perjanjian senjata masa lalu jauh lebih sulit dicapai saat ini.
Di dalam perbatasan nasional, regulasi dimungkinkan bagi negara-negara dengan kekuatan institusional dan teknis untuk mengikuti perkembangan. Namun, di tingkat global, kekuatan yang mendorong adopsi AI membuat aturan yang luas dan dapat ditegakkan hampir mustahil.
Tingkat domestik
Di tingkat domestik, pemerintah memiliki kendali. Badan legislatif dapat mengesahkan undang-undang, regulator dapat mengeluarkan aturan, dan lembaga dapat menuntut kepatuhan dari pengembang yang beroperasi di yurisdiksi mereka.
Ini adalah arena di mana konteks budaya, hukum, dan ekonomi dapat tercermin dalam tata kelola. Negara yang cakap dapat menyesuaikan aturan untuk melindungi privasi, mencegah bias algoritmik, dan menjaga sistem kritis tanpa menghambat inovasi.
Namun, kemampuan ini tidak merata. Regulasi adalah permainan kapasitas.
Pengawasan yang efektif membutuhkan infrastruktur teknis yang maju, regulator yang memahami sistem dasar, dan institusi yang cukup gesit untuk menyesuaikan aturan seiring perubahan teknologi.
Tanpa ini, regulasi berisiko menjadi simbolis daripada efektif.
Kecepatan adalah kendala pertama. Sistem AI dapat berubah secara signifikan dalam hitungan bulan, sementara pembuatan undang-undang biasanya memakan waktu bertahun-tahun.
Kendala kedua adalah keahlian. Di banyak negara, regulator, hakim, dan pegawai negeri kekurangan pengetahuan teknis untuk menilai arsitektur model, risiko data pelatihan, atau kerentanan sistem.
Tanpa kemampuan ini, pemerintah menyusun aturan yang tidak dapat mereka tegakkan.
Kelemahan ini paling terasa ketika AI menjadi fondasi infrastruktur penting, layanan kesehatan, atau sistem keuangan, di mana kegagalan pengawasan dapat menimbulkan konsekuensi langsung dan berdampak besar.
Tanpa peninjau yang terampil, bahkan undang-undang AI yang ditulis sebaik mungkin pun hanya akan menjadi kata-kata di atas kertas.
Kendala ketiga adalah ketergantungan. Negara-negara yang bergantung pada platform AI milik asing, layanan cloud, atau rantai pasokan semikonduktor tidak dapat sepenuhnya menegakkan standar mereka sendiri.
Jika sistem AI kritis suatu negara dilatih dan dihosting di luar negeri, penegak hukum kehilangan kekuatan untuk mengaudit atau memodifikasinya. Ini bukanlah pertanyaan kedaulatan yang membingungkan.
Tanpa kapabilitas independen, penegak hukum atau regulator AI nasional bergantung pada pemasok eksternal. Pengalaman Eropa dengan dominasi cloud asing memberikan preseden yang perlu diwaspadai.
Bahkan bagi negara-negara yang mampu, menemukan keseimbangan yang tepat itu sulit. Aturan yang terlalu ketat mendorong investasi dan talenta ke tempat lain, karena pengembang cenderung beralih ke yurisdiksi yang lebih mudah bereksperimen.
Aturan yang terlalu longgar mengikis privasi, memungkinkan penyalahgunaan, dan melemahkan keamanan nasional. Mencapai keseimbangan yang tepat membutuhkan kekuatan kelembagaan, kemauan politik, dan kalibrasi berkelanjutan. Beberapa negara akan berhasil; banyak yang tidak.
Tata kelola internasional
Di tingkat internasional, gambaran ini lebih keras. Alasan utamanya adalah strategis. AI menjanjikan keuntungan nyata dalam efektivitas militer, dan tidak ada kekuatan besar yang bersedia melambat.
Dalam dinamika perlombaan senjata, pengendalian menjadi toksik secara politik. Ketakutan akan tertinggal, dan kerugian strategis yang dapat ditimbulkannya, lebih besar daripada manfaat yang dirasakan dari batasan kolektif.
Dana tersebut menegaskan momentum tersebut. Pasar AI militer global, yang bernilai sekitar $10 miliar pada tahun 2024, diproyeksikan akan tumbuh lebih dari 13 persen per tahun hingga dekade berikutnya.
Di AS saja, anggaran pertahanan AI diperkirakan sekitar $2 miliar per tahun, dengan miliaran lagi dialokasikan untuk sistem otonom dan platform pendukung keputusan. Anggaran ini bukan sinyal persiapan untuk jeda. Anggaran ini merupakan cetak biru untuk percepatan.
Sekalipun pemerintah ingin memperlambat perlombaan, masalah verifikasi akan tetap sulit diatasi.
Salah satu alasan mengapa perjanjian senjata nuklir berhasil adalah karena hulu ledak dan sistem pengirimannya besar, sulit disembunyikan, dan mudah dihitung.
Model AI tidak demikian. Model-model tersebut dapat dilatih secara rahasia, disimpan di perangkat keras konsumen, disematkan dalam aplikasi sipil, dan disalin secara global.
Rezim inspeksi untuk AI akan membutuhkan tingkat pengawasan digital yang intrusif yang tidak akan diterima oleh negara adidaya mana pun. Dalam lingkungan seperti itu, insentif untuk berbuat curang sangat besar.
Teknologi dual-use atau dwiguna semakin mengaburkan gambaran tersebut. Sistem visi komputer yang sama yang digunakan untuk pencitraan medis dapat diadaptasi untuk penargetan drone; model bahasa besar yang sama yang digunakan untuk menulis skrip layanan pelanggan dapat menghasilkan propaganda atau misinformasi yang meyakinkan.
Artinya, perjanjian yang ditujukan untuk 'AI militer' mau tidak mau akan menyentuh teknologi sipil, sesuatu yang sebagian besar negara enggan tunduk pada inspeksi asing.
Kondisi tatanan internasional memperparah masalah ini. Diplomasi multilateral sedang berjuang bahkan dalam isu-isu yang kurang kontroversial seperti target iklim, reformasi WTO, dan pencegahan genosida.
Kepercayaan di antara negara-negara besar rendah dan menurun. Diskusi PBB tentang "robot pembunuh" telah berlarut-larut selama bertahun-tahun tanpa resolusi, meskipun ada kesepakatan luas di antara negara-negara yang lebih kecil.
Negara-negara dengan kemampuan AI tercanggih, seperti AS dan China, melihat lebih banyak risiko daripada manfaat dalam mengikat diri pada batasan yang mungkin diabaikan oleh para pesaing.
Hasil yang mungkin terjadi adalah lingkungan internasional yang terfragmentasi. Negara-negara akan mengejar senjata dan sistem intelijen yang didukung AI tanpa pagar pembatas yang disepakati.
Strategi perpecahan
Dengan latar belakang ini, langkah paling praktis adalah strategi terpisah. Di dalam negeri, pemerintah harus membangun kapasitas tata kelola dengan melatih regulator, mengembangkan perangkat audit, dan mengamankan rantai pasok AI.
Independensi dalam komputasi, pengembangan model, dan infrastruktur hosting sangat penting bagi regulator yang serius.
Secara internasional, tujuannya harus berupa perjanjian yang sempit dan dapat ditegakkan di area berisiko tinggi seperti melarang AI dalam sistem komando dan kendali nuklir, melarang kelas senjata otonom mematikan tertentu, atau mewajibkan notifikasi untuk insiden AI yang memengaruhi infrastruktur penting.
Perjanjian semacam itu akan terbatas cakupannya dan rapuh dalam penegakannya, tetapi setidaknya dapat memperlambat penggunaan yang paling mengganggu stabilitas.
Diplomasi Jalur II, menggunakan jalur informal antara pakar teknis dan perencana militer, dapat membantu membangun kepercayaan dan pemahaman yang dibutuhkan untuk perjanjian formal di kemudian hari.
Koalisi pengendalian ekspor, seperti yang telah membatasi chip AI kelas atas untuk tujuan tertentu, juga dapat berperan dalam mengelola proliferasi.
Namun, para pembuat kebijakan harus menyadari bahwa dinamika dominan secara internasional akan tetap kompetitif.
AI akan terus berkembang pesat, didorong oleh peluang komersial dan tuntutan keamanan nasional. Regulasi akan tertinggal, dan kesenjangan tersebut akan diisi bukan oleh perjanjian multilateral, melainkan oleh upaya mencari keuntungan sepihak.
Era AI akan diatur secara tidak merata. Di dalam negeri, beberapa negara yang mumpuni akan mengembangkan sistem yang menyeimbangkan inovasi dengan keamanan dan kedaulatan.
Di tingkat internasional, persaingan ini sebagian besar akan terus berlanjut tanpa aturan, dengan perjanjian-perjanjian sempit yang sesekali muncul di bidang-bidang yang paling berbahaya.