AS dan Israel Pakai AI untuk Serang Iran, Gaza, dan Tangkap Presiden Venezuela
Militer Amerika Serikat menggunakan teknologi AI Claude milik Anthropic dalam perang di Iran. Israel dan AS juga sudah lama memakai AI canggih seperti ChatGPT milik OpenAI dan Palantir buatan Palantir Technologies untuk pengeboman di Gaza, Palestina.
AS dan Israel melancarkan hampir 900 serangan terhadap Iran hanya dalam 12 jam pertama. Rudal Israel menewaskan pemimpin tertinggi Iran, Ayatollah Ali Khamenei.
Komando militer AS menyatakan mereka menggunakan alat berbasis AI Anthropic untuk tujuan menganalisis data intelijen dalam jumlah besar, serta memilih target dan melakukan simulasi medan perang.
Pada 2024, Anthropic menerapkan modelnya di seluruh Departemen Perang AS dan lembaga keamanan nasional lainnya untuk mempercepat perencanaan perang. Claude menjadi bagian dari sistem yang dikembangkan oleh perusahaan teknologi perang Palantir bersama Pentagon untuk meningkatkan analisis intelijen secara dramatis dan memberdayakan para pejabat dalam proses pengambilan keputusan mereka.
Palantir Technologies adalah perusahaan perangkat lunak analitik big data yang berfokus pada penyediaan platform terintegrasi untuk organisasi kompleks, intelijen pemerintah, dan sektor komersial.
Sistem AI terbaru dapat dengan cepat menganalisis sejumlah besar informasi tentang target potensial, mulai dari rekaman drone hingga intersepsi telekomunikasi serta intelijen manusia.
Sistem Palantir menggunakan pembelajaran mesin untuk mengidentifikasi dan memprioritaskan target serta merekomendasikan persenjataan, dengan mempertimbangkan persediaan dan kinerja sebelumnya terhadap target serupa. Sistem ini juga menggunakan penalaran otomatis untuk mengevaluasi dasar hukum untuk melakukan serangan.
Namun kemudian Anthropic berselisih dengan Pemerintah AS pada Januari 2026. Anthropic keberatan Claude AI digunakan oleh militer AS dalam serangan untuk menangkap Presiden Venezuela, Nicolás Maduro pada awal tahun.
Anthropic mengatakan, ketentuan penggunaan sudah jelas perusahaan tidak mengizinkan Claude digunakan untuk tujuan kekerasan, pengembangan senjata, atau pengawasan.
Pada Jumat (27/2) atau hanya beberapa jam sebelum serangan Iran dimulai, Presiden AS Donald Trump memerintahkan semua lembaga federal untuk segera berhenti menggunakan Claude. Dia juga mengecam Anthropic di media sosial miliknya Truth Social.
Namun militer AS masih menggunakan Claude AI milik Anthropic selama enam bulan ke depan, untuk masa transisi beralih ke ChatGPT buatan OpenAI.
Para akademisi mengatakan bahwa AI mempersingkat waktu perencanaan yang dibutuhkan untuk serangan kompleks, fenomena yang dikenal sebagai ‘kompresi keputusan’, yang dikhawatirkan sebagian orang dapat mengakibatkan para ahli militer dan hukum manusia hanya sekadar menyetujui rencana serangan otomatis.
“Mesin AI memberikan rekomendasi tentang apa yang harus ditargetkan, yang sebenarnya jauh lebih cepat dalam beberapa hal daripada kecepatan berpikir,” kata dosen senior geografi politik di Universitas Newcastle dan ahli dalam rantai pembunuhan Craig Jones dikutip dari The Guardian, Selasa (3/3).
“Jadi Anda memiliki skala dan kecepatan, Anda melakukan serangan untuk tujuan pembunuhan, pada saat yang sama melumpuhkan kemampuan rezim untuk merespons dengan semua rudal balistik udara. Itu mungkin membutuhkan waktu berhari-hari atau berminggu-minggu dalam perang-perang di masa lalu. Kini, Anda melakukan semuanya sekaligus,” Jones menambahkan.
Microsoft dan OpenAI ChatGPT Diduga Bantu Israel Serang Gaza
Investigasi Associated Press pada awal 2025 mengungkapkan bahwa raksasa teknologi AS, termasuk Microsoft dan OpenAI, memasok model AI ke Israel selama serangan di Gaza dan Lebanon.
Menurut penyelidikan, serangan Israel di Gaza dan Lebanon menandai contoh utama penggunaan model AI komersial buatan AS dalam peperangan aktif.
Militer Israel menggunakan AI untuk menyaring sejumlah besar intelijen, komunikasi yang dicegat, dan pengawasan untuk menemukan ucapan atau perilaku yang mencurigakan dan mempelajari pergerakan musuh-musuhnya.
Investigasi itu didasarkan pada dokumen internal, data, dan wawancara eksklusif dengan pejabat Israel dan mantan pejabat serta karyawan perusahaan.
Setelah dimulainya serangan ke Gaza, penggunaan teknologi Microsoft dan OpenAI oleh Israel meroket, menurut investigasi AP.
Penggunaan AI Microsoft dan OpenAI oleh Israel melonjak pada Maret 2024. Model AI canggih disediakan melalui OpenAI, pembuat ChatGPT, melalui platform cloud Azure milik Microsoft, di mana model ini dibeli oleh militer Israel.
OpenAI mengklaim tidak memiliki kemitraan dengan militer Israel, dan kebijakan penggunaannya menyatakan bahwa pelanggannya tidak boleh menggunakan produknya untuk mengembangkan senjata, menghancurkan properti, atau membahayakan orang.
Namun, pada awal 2024, OpenAI mengubah ketentuan penggunaannya dari melarang penggunaan militer menjadi mengizinkan ‘kasus penggunaan keamanan nasional yang selaras dengan misi perusahaan’.
Bagaimana Militer Israel Menggunakan AI untuk Perang di Gaza?
Militer Israel menggunakan Microsoft Azure untuk mengumpulkan informasi yang diperoleh melalui pengawasan massal, yang kemudian ditranskripsikan dan diterjemahkan, termasuk panggilan telepon, pesan teks, dan pesan audio, kata seorang perwira intelijen Israel yang bekerja dengan sistem tersebut kepada AP.
Data itu kemudian dapat dicocokkan dengan sistem penargetan internal Israel, yang disebut Lavender menurut laporan The Guardian pada 2024, dan sebaliknya.
Perwira intelijen Israel itu mengatakan bahwa dia mengandalkan Azure untuk dengan cepat mencari istilah dan pola dalam kumpulan teks yang sangat besar, seperti menemukan percakapan antara dua orang dalam dokumen setebal 50 halaman.
Azure juga dapat menemukan orang-orang yang saling memberi arahan dalam teks, yang kemudian dapat dibandingkan dengan sistem AI militer sendiri untuk menentukan lokasi.
Data Microsoft yang ditinjau AP menunjukkan bahwa sejak awal serangan terhadap Gaza, militer Israel telah banyak menggunakan alat transkripsi dan penerjemahan serta model OpenAI, meskipun tidak dijelaskan secara rinci model mana yang digunakan. Biasanya, model AI yang melakukan transkripsi dan penerjemahan bekerja paling baik dalam bahasa Inggris.
OpenAI mengakui bahwa model terjemahan AI mereka, Whisper, yang dapat mentranskripsikan dan menerjemahkan ke dalam berbagai bahasa termasuk bahasa Arab, dapat mengarang teks yang tidak pernah diucapkan siapa pun, termasuk menambahkan komentar rasis dan retorika kekerasan.
“Kesalahan dapat terjadi karena banyak alasan yang melibatkan AI,” kata para perwira militer Israel yang telah bekerja dengan sistem penargetan dan pakar teknologi lainnya.
Rekaman panggilan telepon yang disadap dan dikaitkan dengan profil seseorang mencakup waktu panggilan serta nama dan nomor telepon orang-orang yang terlibat dalam panggilan tersebut. Namun, diperlukan langkah tambahan untuk mendengarkan dan memverifikasi audio aslinya, atau untuk melihat transkrip terjemahannya.
Dokumen yang ditinjau AP menunjukkan bahwa Azure milik Microsoft digunakan untuk mendukung aktivitas tempur dan intelijen. Raksasa teknologi ini juga memberikan akses skala besar kepada militer Israel terhadap model GPT-4 milik OpenAI.
Selama serangan di Gaza, para engineer Microsoft memberikan dukungan kepada unit-unit intelijen Israel seperti Unit 8200 dan unit mata-mata rahasia lainnya, Unit 9900 – yang mengumpulkan dan menganalisis intelijen visual – untuk mendukung penggunaan infrastruktur cloud mereka.
Dalam pernyataan yang diungkapkan oleh +972 dan Local Call, Kolonel Racheli Dembinsky menjelaskan bahwa keuntungan paling signifikan yang diberikan oleh perusahaan-perusahaan cloud adalah ‘berbagai layanan luar biasa’, termasuk kemampuan AI canggih.
Bekerja sama dengan perusahaan-perusahaan ini, katanya, memberikan IDF efektivitas operasional yang sangat signifikan di Gaza.
Meskipun Dembinsky tidak menyebutkan nama penyedia layanan cloud yang kini diandalkan IDF, logo Azure beserta logo Amazon Web Services dan Google Cloud ditampilkan dalam slide presentasinya.
Pejabat Militer Israel Izinkan Warga Sipil di Gaza Terkena Rudal
Meksi ada tantangan terkait kebenaran hasil analisis AS, sumber-sumber intelijen mengklaim bahwa para pejabat militer Israel mengizinkan sejumlah besar warga sipil Palestina untuk dibunuh.
Seorang petugas intelijen yang menggunakan Lavender AI mengatakan kepada The Guardian pada 2024, bahwa pejabat militer Israel lebih percaya pada mekanisme statistik daripada seorang prajurit yang berduka.
“Semua orang di sana, termasuk saya, kehilangan orang-orang terkasih pada 7 Oktober 2023. Mesin itu melakukannya dengan ‘dingin’. Dan itu membuatnya lebih mudah.”
Enam petugas intelijen mengatakan Lavender AI memainkan peran sentral dalam perang, memproses sejumlah besar data untuk dengan cepat mengidentifikasi calon agen ‘junior’ yang akan menjadi target.
Empat dari sumber itu mengatakan bahwa, pada satu tahap di awal perang, Lavender AI mencatat sebanyak 37.000 pria Palestina yang telah dikaitkan oleh sistem AI dengan Hamas atau dan Jihad Islam Palestina (PIJ).
Lavender AI dikembangkan oleh divisi intelijen elit Angkatan Pertahanan Israel, Unit 8200, yang setara dengan Badan Keamanan Nasional AS atau GCHQ di Inggris.
Beberapa sumber menjelaskan bagaimana, untuk kategori target tertentu, IDF menerapkan alokasi pra-otorisasi untuk perkiraan jumlah warga sipil yang dapat terbunuh sebelum serangan diizinkan.
Dua sumber mengatakan bahwa selama beberapa minggu pertama perang, mereka diizinkan untuk membunuh 15 atau 20 warga sipil selama serangan udara terhadap militan berpangkat rendah.
“Serangan terhadap target tersebut biasanya dilakukan menggunakan amunisi tanpa pemandu yang dikenal sebagai ‘bom bodoh’,” kata sumber. Bom ini menghancurkan seluruh rumah dan membunuh semua penghuninya.
Seorang petugas intelijen mengatakan pejabat militer Israel tidak ingin membuang bom mahal pada warga sipil yang dianggap tidak penting. “Biasanya kami melakukan serangan dengan bom konvensional, dan itu berarti benar-benar menghantam seluruh penghuninya. Tetapi bahkan jika serangan berhasil digagalkan, kami langsung beralih ke target berikutnya, karena sistem mengidentifikasi ada 36 ribu target lain yang menunggu,” katanya.
Perkembangan ini menandai babak baru peperangan modern, ketika algoritma dan komputasi awan menjadi bagian dari rantai keputusan militer yang sebelumnya sepenuhnya dikendalikan manusia. Di satu sisi, teknologi kecerdasan buatan diklaim meningkatkan kecepatan, akurasi, dan efisiensi operasi.
Namun di sisi lain, penggunaan AI dalam konflik bersenjata memunculkan pertanyaan serius soal akuntabilitas, transparansi, serta perlindungan warga sipil. Ketika keputusan menyerang dapat dipercepat dalam hitungan menit oleh sistem otomatis, perdebatan etis dan hukum tentang peran manusia dalam menentukan hidup dan mati pun semakin mendesak, menjadikan perang era AI bukan hanya soal kecanggihan teknologi, tetapi juga ujian bagi norma kemanusiaan global.