Perpres AI Hadir Sebagai Pedoman, Tantangan Ada pada Penegakan Hukum
Viralnya foto perempuan yang dimanipulasi terlihat memakai bikini menggunakan Grok, memicu kegelisahan masyarakat, termasuk dari kalangan figur publik seperti anggota JKT48 dan penyanyi Bernadya Ribka. Fenomena ini mencuat saat pemerintah bersiap menerbitkan Perpres AI yang didesain sebagai pedoman kebijakan, sementara penegakan hukum atas pelanggaran tetap bertumpu pada undang-undang yang sudah ada.
Desain kebijakan itu menempatkan Perpres AI sebagai rujukan awal tata kelola, bukan instrumen penegakan hukum. Konsekuensinya, efektivitas mitigasi risiko AI sangat bergantung pada kesiapan dan konsistensi penerapan regulasi eksisting, seperti UU ITE dan UU Pelindungan Data Pribadi, yang masih menghadapi tantangan implementasi.
Sementara itu, risiko penyalahgunaan sudah bermunculan. Dalam beberapa pekan terakhir, laporan penyalahgunaan Grok muncul di berbagai negara. Riset Centre for Countering Digital Hate (CCDH) mencatat, dalam waktu kurang dari dua pekan, platform AI milik Elon Musk ini menghasilkan tiga juta gambar yang diseksualisasi. Sekitar 23 ribu di antaranya merupakan potret anak-anak.
Merespons polemik itu, Kementerian Komunikasi dan Digital atau Komdigi memblokir Grok AI, menjadikan Indonesia sebagai salah satu negara pertama yang menutup layanan ini. Perlindungan sementara ini ditempuh, sembari pemerintah menyusun kerangka kebijakan yang mengatur pengembangan dan pemanfaatan kecerdasan buatan.
Komdigi bersama puluhan kementerian dan lembaga terkait menyusun regulasi kecerdasan buatan yang akan diterbitkan dalam bentuk Perpres. Menteri Komdigi Meutya Hafid menyebutkan, ada dua beleid yang disiapkan, yakni peta jalan pemanfaatan AI dan etika sebagai panduan lintas-sektor.
Penyusunan draf Perpres terkait AI mencapai 90%, dan masuk antrean untuk ditandatangani Presiden Prabowo Subianto. “Penting sekali peraturan ini dilahirkan. InshaAllah menjadi prioritas ditandatangani Presiden pada 2026,” kata Meutya dalam rapat kerja dengan Komisi I DPR, Senin (26/1).
Saat rapat itu, Komisi I DPR menyoroti potensi risiko penggunaan AI, termasuk edit foto perempuan menggunakan Grok, pembajakan karya, serta sulitnya membedakan konten gambar, suara maupun video asli dengan buatan AI.
Salah satu contoh, viral di media sosial netizen membagikan video yang menunjukkan oknum penipu menggunakan wajah pendeta dan melakukan panggilan video untuk mengelabui calon korban. Beruntung, calon korban itu sedang bersama dengan pendeta yang asli. Ketika pemilik wajah yang asli muncul, oknum itu langsung mematikan video call.
Itu baru salah satu contoh penipuan dengan modus deepfake yang terjadi di Indonesia. Otoritas Jasa Keuangan alias OJK bahkan menerima 70 ribu lebih laporan terkait penipuan berbasis AI selama Januari – Juli 2025.
Untuk itu, salah satu yang diatur oleh Komdigi yakni kewajiban memberikan label pada konten buatan platform kecerdasan buatan. Namun hal ini bakal dimuat dalam aturan turunan Perpres AI.
“Ketika perpres ditandatangani, peraturan menteri pertama yang akan dikeluarkan sebagai turunan dari Perpres itu yakni mewajibkan platform melakukan labeling atau watermarking konten AI,” ujar Meutya.
Perpres AI akan menjadi rujukan berbagai sektor baik perguruan tinggi, swasta maupun pemerintah, agar mampu menyeimbangkan inovasi dengan proteksi. Namun aturan per sektornya bakal diatur oleh masing-masing kementerian terkait.
Peta jalan AI akan mengatur 10 sektor yang didorong menggunakan AI, karena sejalan dengan fokus pemerintahan Prabowo, yaitu ketahanan pangan; kesehatan; pendidikan; ekonomi dan keuangan; reformasi birokrasi; politik, hukum dan keamanan; energi, sumber daya, dan lingkungan; perumahan; transportasi, logistik, dan infrastruktur; serta ekonomi kreatif.
Regulasi itu juga menetapkan pemanfaatan AI untuk delapan program pemerintah yakni Makan Bergizi Gratis (MBG), swasembada pangan, skrining TBC, cek kesehatan gratis, pemetaan wilayah rawan stunting, koperasi merah putih, pembelajaran adaptif di sekolah rakyat, serta deteksi hoaks dan disinformasi.
Peta jalan itu kemudian dikawal oleh Perpres kedua yang membahas standar etika. Standar etika ini mengatur tiga pelaku, yakni pengguna, pelaku sektor, dan regulator.
Beleid itu bakal mengatur prinsip-prinsip moral dan tanggung jawab atas pengembangan dan penggunaan AI, agar tidak merugikan masyarakat.
Prinsip etika yang akan diatur mencakup transparansi penggunaan AI, keamanan dan tanggung jawab pengembang, pelindungan data pribadi hingga pencegahan bias atau diskriminasi dalam sistem kecerdasan buatan.
Meski urgensinya tinggi, kerangka kebijakan yang disiapkan pemerintah tidak serta-merta memuat instrumen sanksi tersendiri.
Perpres AI Tak Atur Sanksi
Perpres terkait peta jalan dan etika AI itu tidak mengatur sanksi. Wakil Menteri Komdigi Nezar Patria menegaskan, aspek penegakan hukum terhadap konten berbasis AI tetap merujuk pada regulasi yang sudah ada, seperti Undang-Undang Informasi dan Transaksi Elektronik (UU ITE), UU Pelindungan Data Pribadi (UU PDP), serta UU Pornografi beserta aturan turunannya.
"Di Perpres AI kita tidak mengatur soal sanksi,” kata Nezar di Jakarta pada Kamis (22/1), seraya menambahkan regulasi ini akan terbit setidaknya dua bulan lagi.
Penegasan serupa disampaikan Direktur Jenderal Ekosistem Digital Komdigi Edwin Hidayat Abdullah dalam rapat bersama Komisi I DPR. Ia menjelaskan bahwa akan ada Peraturan Menteri yang mengatur teknis, termasuk sanksinya. Misalnya, apabila penyelenggara sistem elektronik, penyedia platform, atau pengguna tidak menyematkan label pada konten buatan AI, maka dapat dikenai sanksi mulai dari pemblokiran akun atau laman, hingga pidana dengan merujuk pada UU yang berlaku.
Namun, Direktur Eksekutif ICT Institute Heru Sutadi menilai perlu ada UU khusus terkait AI, yang memuat sanksi tegas dan sesuai dengan karakteristik kecerdasan buatan. “Tanpa sanksi, efektivitas sangat bergantung pada kepatuhan sukarela dan rujukan UU yang sudah ada,” kata dia kepada Katadata.co.id, Kamis (29/1).
Menurut dia, karakteristik kecerdasan buatan yang berkembang cepat, mulai dari chatbot, agen AI, hingga sistem robotik, menuntut kerangka hukum yang lebih spesifik dan adaptif. Jika regulasi datang terlambat, ruang pengaturannya justru akan semakin sulit.
Meski demikian, Heru menilai penerbitan Perpres AI merupakan langkah awal yang realistis untuk ditempuh saat ini, sembari membuka jalan menuju UU khusus AI di masa depan.
Dari sisi hukum, hakim Pengadilan Negeri Barabai, Kalimantan Selatan, Abdurrahman Mazli, dalam artikel berjudul ‘Menakar Pertanggungjawaban Artificial Intelligence dalam Tata Hukum Indonesia’ yang dimuat di laman Mahkamah Agung pada Agustus 2025, menyebut bahwa AI hingga kini masih diklasifikasikan sebagai objek hukum, bukan subjek hukum.
Dalam sistem hukum Indonesia, pengaturan terkait AI masih bertumpu pada UU ITE, yang belum memberikan definisi eksplisit mengenai kecerdasan buatan. Hal ini membuka ruang tafsir terkait keberadaan kecerdasan buatan dalam konteks hukum.
Menurut dia, dilihat dari karakteristiknya, AI dikategorikan sebagai sistem elektronik sebagaimana dimaksud dalam Pasal 1 angka 5 UU ITE, mengingat operasinya berbasis pengumpulan dan pengolahan data. AI juga dapat dipandang sebagai agen elektronik berdasarkan Pasal 1 angka 8 UU ITE karena mampu bertindak otomatis atas instruksi manusia.
Dalam konteks pertanggungjawaban, Peraturan Pemerintah Nomor 71 Tahun 2019 tentang Penyelenggaraan Sistem dan Transaksi Elektronik menegaskan bahwa subjek hukum tetap berada pada penyelenggara sistem atau manusia di baliknya, kecuali dalam kondisi tertentu atau force majeure. Dengan demikian, AI tidak diperlakukan sebagai subjek hukum maupun badan hukum yang memiliki kemandirian kehendak.
Namun batas itu mulai kabur ketika AI tak lagi sekadar alat. Abdurrahman Mazli menyinggung preseden global yang memancing diskursus serius, mulai dari peran AI sebagai hakim di Cina, menteri di Albania, dan advokat yang telah menangani lebih dari 1.000 bantuan hukum melalui platform DoNotPay di Inggris.
Menurut Mazli, kemampuan AI dalam membantu bahkan menggantikan fungsi-fungsi manusia, membuka argumen bahwa teknologi ini layak dipertimbangkan sebagai subjek hukum.
Meski demikian, problem mendasar muncul ketika diskursus itu ditarik ke ranah pertanggungjawaban pidana. Dalam teori hukum pidana, tanggung jawab selalu bertumpu pada mens rea atau niat jahat yang lahir dari kehendak dan kesadaran manusia. Sementara itu, kecerdasan buatan bekerja berdasarkan algoritma dan sistem yang sepenuhnya dirancang, dilatih, dan dioperasikan oleh manusia.
Dalam konteks itu, AI tidak memahami makna akibat dari perbuatannya, apalagi menentukan kehendak secara otonom. Ketika terjadi pelanggaran hukum, pertanggungjawaban tidak dapat dibebankan pada mesin, melainkan kepada pencipta, pengembang, atau pengguna AI.
Oleh karena itu, ia menekankan pentingnya interpretasi hukum yang tegas mengenai posisi AI, hak dan kewajibannya, serta skema pertanggungjawaban atas dampak yang ditimbulkan. Isu ini, menurut dia, masih menuntut kajian mendalam lintas disiplin.
Korea Selatan menjadi salah satu negara yang sudah mendefinisikan AI lewat Artificial Intelligence Basic Act yang mulai berlaku pada 22 Januari. Kecerdasan buatan mengacu pada implementasi elektronik dari kemampuan intelektual manusia seperti pembelajaran, penalaran, persepsi, penilaian, dan pemahaman bahasa.
Regulasi tersebut juga memperkenalkan konsep AI berisiko tinggi, yakni sistem yang berpotensi signifikan memengaruhi keselamatan, kehidupan, atau hak-hak dasar manusia, termasuk penggunaan AI dalam pengambilan keputusan oleh negara, pemerintah daerah, atau lembaga publik.
Alih-alih menempatkan AI sebagai subjek hukum mandiri, UU itu secara eksplisit menunjuk pengembang, operator, dan pengguna AI sebagai subjek hukum yang memikul hak, kewajiban, sekaligus tanggung jawab.
Pelanggaran terhadap ketentuan dalam UU itu dapat dikenai sanksi administratif berupa denda hingga 30 juta won atau Rp 347 juta (kurs Rp 11,58 per won). Pendekatan ini menegaskan bahwa negara mengatur dampak dan aktor di balik AI, bukan memberi ‘kepribadian hukum’ pada mesinnya.
Uni Eropa juga sudah menerbitkan UU AI sejak medio 2024, dengan penerapan yang bertahap hingga 2027. Beleid ini mengatur kecerdasan buatan berdasarkan tingkat risiko, dengan sanksi yang disesuaikan mulai dari 1% sampai 7% terhadap omset global.
Pakar keamanan siber dari Vaksincom, Alfons Tanujaya menilai, Indonesia tidak perlu tergesa-gesa menyusun UU komprehensif terkait AI, termasuk sanksinya. Menurut dia, Perpres AI yang akan terbit cukup fleksibel, sehingga tetap mendorong inovasi dan tetap mengantisipasi risiko.
“Perpres ini harus disikapi sebagai kompas, bukan palu godam,” kata Alfons kepada Katadata.co.id, Kamis (29/1).
Alfons berpandangan bahwa Indonesia sejatinya sudah memiliki instrumen sanksi yang memadai melalui UU PDP, UU ITE hingga KUHAP. Tantangan utamanya, menurut dia, bukan terletak pada kekosongan norma, melainkan pada implementasi dan konsistensi penegakan hukum.
UU PDP misalnya, belum sepenuhnya berjalan lantaran belum ada lembaga pelindungan data pribadi. Padahal, regulasi ini mengamanatkan badan dibentuk paling lambat dua tahun setelah pengesahan pada 2022, atau pada 2024.
Lembaga itu memegang peran strategis yakni merumuskan kebijakan dan strategi pelindungan data pribadi, menjadi rujukan bagi subjek data, pengendali, dan prosesor data, sekaligus bertindak sebagai pengawas dan penegak hukum administratif. Tanpa kehadirannya, arsitektur pelindungan data, dan kini AI, berjalan pincang.
“Aturan yang sudah ada saja, implementasinya menunggu bertahun-tahun,” ujar Alfons.
Perpres AI tetap relevan sebagai instrumen awal mitigasi risiko penyalahgunaan kecerdasan buatan. Namun ketiadaan sanksi administratif membuat efektivitas kebijakan ini sangat bergantung pada penegakan UU eksisting, yang selama ini juga menghadapi tantangan implementasi.
Sementara di dalam ekosistem digital saat ini, data kredensial, foto, dan suara telah menjadi bahan baku kejahatan. Ketika pelaku mengantongi foto dan data pribadi seseorang, teknologi AI memungkinkan penciptaan deepfake untuk menyamar, menjadi lebih meyakinkan. Tanpa penegakan hukum yang konsisten atas aturan yang sudah ada, Perpres AI berisiko berhenti sebagai rambu kebijakan, bukan pagar pengaman.