Serangan AS ke Iran: Ketika AI ikut menentukan hidup dan mati di medan perang

Sejak akhir Februari, Amerika Serikat telah melancarkan lebih dari 2.000 serangan ke berbagai target di Iran. Di balik intensitas operasi ini, sebuah revolusi senyap sedang terjadi: algoritma kecerdasan buatan (AI) kini memegang peran krusial dalam menyaring intelijen dan menentukan sasaran. Fenomena ini memicu perdebatan mendalam tentang sejauh mana mesin harus dilibatkan dalam pengambilan keputusan hidup dan mati di medan perang. Hanya dalam 24 jam pertama operasi yang dimulai pada 28 Februari, lebih dari 1.000 target berhasil dihantam, sebuah skala yang menurut Kepala Centcom Laksamana Brad Cooper, hampir dua kali lipat dibandingkan operasi “Shock and Awe” di Irak pada tahun 2003. Jika dahulu keputusan militer sepenuhnya di tangan manusia, kini algoritma AI semakin terintegrasi dalam proses vital yang menentukan nasib di garis depan.

Advertisements

United States Central Command (Centcom) mengungkapkan bahwa pasukan militer AS semakin mengandalkan berbagai perangkat AI untuk memproses volume data intelijen yang masif dengan kecepatan luar biasa selama operasi di Iran. Adopsi ini menggarisbawahi posisi teknologi AI yang kian tak terpisahkan dalam strategi perang modern. Dalam konflik di Iran, AI secara spesifik membantu dalam penyaringan awal data intelijen yang masuk. Kapten Timothy Hawkins, juru bicara Centcom, menjelaskan bahwa peran AI ini memungkinkan petugas manusia untuk “berfokus pada analisis dan verifikasi tingkat yang lebih tinggi.” Meskipun Centcom mengakui penggunaan beragam alat AI, detail spesifik mengenai teknologi yang digunakan masih dirahasiakan.

Keterlibatan AI dalam perang di Iran memperdalam urgensi perdebatan global mengenai kendali atas masa depan AI sebagai instrumen perang, termasuk legitimasi penggunaannya dalam konflik bersenjata. Polemik ini semakin memanas menyusul keberatan keras dari perusahaan Anthropic pada Januari 2026. Mereka memprotes penggunaan model AI miliknya, Claude, oleh militer AS dalam operasi penangkapan Presiden Venezuela, Nicolás Maduro. Anthropic menegaskan bahwa ketentuan penggunaan produk mereka secara eksplisit melarang Claude digunakan untuk tujuan kekerasan, pengembangan senjata otonom sepenuhnya (yang kerap dijuluki “robot pembunuh”), atau pengawasan massal domestik. Menariknya, hanya beberapa jam sebelum serangan ke Iran dimulai, tepatnya pada Jumat (27/2), Presiden AS Donald Trump telah memerintahkan semua lembaga federal untuk menghentikan penggunaan Claude. Meskipun demikian, militer AS dilaporkan masih diizinkan menggunakan AI Anthropic ini selama enam bulan masa transisi, sebelum beralih ke ChatGPT besutan OpenAI. Bahkan, Pentagon atau Departemen Pertahanan AS, sempat mengancam akan memberi label Anthropic sebagai “risiko rantai pasok,” sebuah istilah yang biasanya disematkan pada perusahaan asing yang berpotensi membahayakan keamanan nasional, seperti Huawei.

Sejarah penggunaan AI dalam operasi militer AS berakar dari Project Maven, sebuah proyek pengolahan citra drone yang dimulai pada tahun 2017. Program ini menjadi fondasi utama bagi pengembangan berbagai sistem analisis intelijen berbasis algoritma yang kini menjadi andalan Pentagon dalam operasi militer modern. Salah satu evolusi penting dari proyek tersebut adalah Maven Smart System (MSS), yang dilaporkan telah digunakan secara ekstensif dalam operasi militer AS di Iran.

Advertisements

Contoh penggunaan AI dalam operasi militer AS (Gemini AI, Katadata/Desy Setyowati)

Peran AI di Balik Operasi Militer AS

Pejabat militer AS sebelumnya menyatakan bahwa MSS mengintegrasikan masukan dari lebih dari 150 sumber data yang beragam, meliputi citra satelit hingga berbagai bentuk data intelijen lainnya. Informasi dari sumber yang mengetahui operasi tersebut juga menyebutkan bahwa sistem ini memanfaatkan beberapa model bahasa besar (LLM), termasuk Claude dari Anthropic. Claude dilaporkan memainkan peran vital dalam operasi AS terhadap Iran, secara signifikan mempercepat analisis data dalam ekosistem Maven. Project Maven, yang awalnya dikembangkan oleh Google untuk memproses data masif dari drone militer Amerika di Timur Tengah, kini telah bertransformasi menjadi sistem AI canggih. Sistem ini mampu mengidentifikasi objek dan potensi target militer secara otomatis dari rekaman pengawasan. Lebih lanjut, setelah dimodernisasi oleh Palantir, sistem Maven dilaporkan digunakan untuk memetakan jaringan bunker bawah tanah melalui pemrosesan sinyal radar dan citra satelit. Inovasi teknologi ini memungkinkan militer AS untuk melancarkan serangan presisi, sebuah karakteristik kunci dalam operasi melawan kepemimpinan Iran. Kemampuan sistem AI untuk menganalisis volume data intelijen yang sangat besar diyakini berkontribusi pada keberhasilan penargetan komandan senior dan fasilitas nuklir.

Maven (Gemini, Claude, Katadata/Desy Setyowati)

Selain Maven, platform Mosaic yang juga dikembangkan oleh Palantir turut memegang peran esensial dalam analisis data intelijen. Sistem ini mulanya dirancang untuk mendukung misi verifikasi oleh Badan Energi Atom Internasional (IAEA) di Iran. Mosaic memiliki kapasitas luar biasa untuk menganalisis sekitar 400 juta objek digital, mencakup beragam informasi seperti foto satelit, unggahan media sosial, sinyal komunikasi, dan dokumen intelijen. Bahkan, dilaporkan bahwa sistem ini digunakan untuk memproses puluhan ribu dokumen sensitif yang diperoleh oleh badan intelijen Israel, Mossad, guna menciptakan peta visual komprehensif yang menghubungkan fasilitas nuklir, personel, dan material.

Berbanding terbalik dengan kemajuan AS, Iran menghadapi kendala signifikan dalam pengembangan teknologi AI. Hal ini disebabkan oleh terbatasnya akses terhadap perangkat keras dan teknologi krusial, imbas dari sanksi internasional yang diberlakukan.

Muncul pertanyaan krusial tentang siapa yang bertanggung jawab atas keputusan mesin. Craig Jones, dosen senior geografi politik di Newcastle University sekaligus peneliti rantai pembunuhan (kill chain), menjelaskan kepada The Guardian bahwa AI mampu menyajikan rekomendasi target jauh lebih cepat dibandingkan analisis konvensional. Di masa lalu, respons terhadap serangan rudal balistik berskala besar bisa memakan waktu berhari-hari, bahkan berminggu-minggu. David Leslie, profesor etika teknologi di Queen Mary University of London, menyebut bahwa perkembangan teknologi militer telah memasuki era baru. Namun, ia memperingatkan risiko “pengalihan beban kognitif,” di mana manusia yang bertanggung jawab atas keputusan serangan bisa merasa terlepas dari konsekuensi moral karena proses analisis telah diemban oleh mesin. Koalisi Stop Killer Robots, yang terdiri dari 270 kelompok hak asasi manusia, juga menyuarakan kekhawatiran bahwa sistem AI dapat mengaburkan batas antara rekomendasi dan eksekusi serangan, berpotensi menciptakan “bias otomatisasi”—kondisi di mana manusia terlalu mempercayai keputusan yang dihasilkan oleh mesin. “Pertanyaan etis dan hukumnya adalah: sampai sejauh mana manusia benar-benar meninjau target-target yang tercantum, memverifikasi legalitas dan nilai militernya sebelum memberikan otorisasi?” tegas Peter Asaro, wakil ketua kampanye Stop Killer Robots, seperti dikutip dari The Japan Times. Asaro, yang juga ahli AI dan robotika, menyoroti kesulitan dalam mengevaluasi hasil rekomendasi AI atau menentukan secara pasti penyebab kesalahan dalam proses penargetan. Ia mempertanyakan, “Jika terjadi sesuatu yang tidak diinginkan, lalu siapa yang bertanggung jawab? Bagaimana Anda mendefinisikannya secara hukum, dan di mana batasan moralnya?”

Kekhawatiran ini mengemuka seiring dengan insiden tragis serangan rudal pada Sabtu (28/2) yang menghantam sebuah sekolah di Iran selatan, menewaskan 165 orang, termasuk banyak anak-anak. Agence France-Presse (AFP) melaporkan bahwa bangunan sekolah tersebut terletak di dekat dua barak milik Korps Garda Revolusi Islam. Asaro menyoroti, “Mereka tidak membedakan sekolah dengan pangkalan militer sebagaimana seharusnya. Tetapi siapakah ‘mereka’? Apakah manusia atau mesin?” Pertanyaan ini menggema, mempertanyakan akuntabilitas di tengah kompleksitas peperangan berbasis AI.

Perubahan signifikan terjadi pada tahun 2023 ketika Departemen Pertahanan AS (Pentagon) merevisi definisi sistem senjata otonom, mengganti frasa ‘operator manusia’ menjadi sekadar ‘operator’. Dalam definisi yang diperbarui, sistem senjata otonom kini digambarkan sebagai sistem yang, setelah diaktifkan, mampu memilih dan menyerang target tanpa intervensi lebih lanjut dari operator, mengindikasikan semakin besarnya otonomi yang diberikan kepada mesin.

Apabila AI memang terlibat dalam serangan mematikan seperti yang menimpa sekolah di Iran, Asaro menegaskan bahwa pertanyaan krusial berikutnya adalah mengenai kualitas data yang menjadi masukan bagi sistem tersebut. Yang lebih mengkhawatirkan, menurutnya, adalah jika sistem AI secara keliru menyimpulkan bahwa sebuah fasilitas pendidikan merupakan ancaman militer. “Pertanyaan yang lebih besar adalah sistem penalaran seperti apa yang mendasari kesimpulan AI itu. Kita harus benar-benar khawatir tentang bagaimana hal itu memengaruhi pengambilan keputusan,” ujar Asaro, menyoroti implikasi mendalam dari logika mesin dalam konflik bersenjata.

Menanggapi insiden tersebut, Centcom menyatakan sedang melakukan penyelidikan atas serangan rudal yang mengenai sekolah di Iran. “Kami menanggapi laporan-laporan ini dengan serius dan sedang menyelidikinya,” kata Kapten Timothy Hawkins, juru bicara Komando Pusat AS.

Center for Democracy & Technology (CDT), sebuah lembaga nirlaba yang berfokus pada hak digital, menekankan bahwa hukum konflik bersenjata secara tegas melarang penggunaan senjata mematikan yang sepenuhnya otonom. Oleh karena itu, organisasi ini mendesak Kongres Amerika Serikat untuk segera merumuskan kerangka hukum yang transparan dan komprehensif terkait pemanfaatan AI dalam sistem senjata dan pengawasan digital. Kerangka ini harus mencakup batasan yang jelas mengenai penggunaan AI, mekanisme pengawasan yang efektif, serta struktur akuntabilitas yang tegas untuk teknologi tersebut.

Secara keseluruhan, perang di Iran menjadi bukti nyata bahwa AI telah bertransformasi dari sekadar alat analisis data menjadi infrastruktur vital dalam kekuatan militer modern. Dari pemrosesan intelijen rahasia hingga operasi informasi di ranah digital, algoritma kini semakin menentukan arah dan dinamika konflik kontemporer. Jika tren ini terus berlanjut, masa depan peperangan bukan lagi semata tentang strategi para jenderal atau superioritas persenjataan, melainkan juga tentang kecanggihan algoritma yang bekerja di balik layar. Pertanyaan mendesak yang kini harus dijawab bukan lagi apakah AI akan digunakan dalam perang, melainkan siapa yang akan bertanggung jawab penuh ketika keputusan yang diambil oleh mesin berujung pada kematian manusia.

Advertisements