AI, Otomatisasi, dan Kesenjangan Perlindungan Konsumen

Katadata/ Bintan Insani
Penulis: Purnama Alamsyah
3/2/2026, 06.35 WIB

Salah identifikasi pengenalan wajah otomatis. Akun dibekukan berhari-hari karena dugaan penipuan yang ternyata keliru. Chatbot memberikan informasi yang menyesatkan. Ketika hal-hal ini terjadi, publik biasanya hanya mendengar dua jawaban yang sama: sistem sedang dalam pengembangan atau algoritmanya salah. Dua jawaban itu menutup persoalan yang lebih mendasar, yakni ketiadaan standar layanan minimal yang memastikan perlindungan konsumen tetap berdiri kokoh ketika keputusan mulai diotomatisasi.

Fenomena ini bukan anomali. Ia adalah konsekuensi struktural dari cara kita memahami dan memperlakukan kecerdasan buatan (AI). Kerangka kerja koevolusi refleksif dan pola tata kelola teknologi dari van Lente & Rip (2017) dalam Embedding New Technologies into Society dapat membantu kita melihat masalah ini secara lebih jernih. 

Menurut kerangka kerja tersebut, teknologi tidak sekadar diciptakan lalu dipakai. Ia berkembang melalui proses koevolusi yang melibatkan persaingan, kepentingan aktor, arah yang dipilih, dan aliansi yang terbentuk sepanjang perkembangan dan kehadiran teknologi tersebut. Dalam proses itu, sering kali keputusan yang terlihat teknis sebenarnya adalah keputusan sosial yang dikemas dalam sistem komputasi.

Di situlah letak masalahnya. Ketika persaingan mendorong percepatan peluncuran produk, organisasi mengejar efisiensi dan skala, dan pemerintah menuntut transformasi digital, maka lahirlah pola yang terus berulang. Pola itu adalah kesenjangan antara kemampuan teknologi dan kesiapan mekanisme perlindungan publik.

Pelajaran dari Negara Lain

Kesenjangan ini semakin nyata ketika kita membandingkan dengan praktik di negara lain. Uni Eropa melalui EU AI Act (2024) telah menetapkan kerangka berbasis risiko dengan klasifikasi yang ketat. Sistem AI yang memengaruhi kelayakan kredit, akses pendidikan, ataupun layanan kesehatan harus melalui penilaian kelayakan terlebih dahulu. Sistem tersebut tidak boleh berjalan tanpa kontrol yang memadai. 

Pada saat yang sama, harus tersedia ruang yang jelas bagi pengawasan manusia. Amerika Serikat melalui NIST AI Risk Management Framework mendorong manajemen risiko sepanjang siklus hidup sistem. Singapura mengembangkan AI Verify sebagai perangkat uji untuk memvalidasi prinsip keadilan, transparansi, dan akuntabilitas.

Benang merahnya jelas. Perlindungan publik tidak cukup berhenti pada slogan etika. Ia harus hadir sebagai kewajiban layanan yang bisa diuji, diaudit, dan dipulihkan ketika terjadi kerugian.

Indonesia sebenarnya sudah memiliki fondasi yang relevan. Undang-Undang Perlindungan Data Pribadi (UU PDP) 2022 memberikan kerangka hak subjek data. Surat Edaran Menteri Komunikasi dan Informatika Nomor 9 Tahun 2023 mendorong praktik AI yang bertanggung jawab. OJK menerbitkan aturan pemeringkat kredit alternatif. Indonesia bahkan menjadi negara pertama di Asia Tenggara yang menyelesaikan UNESCO AI Readiness Assessment pada Oktober 2024. 

Namun fondasi-fondasi ini belum terintegrasi sebagai standar layanan minimal lintas sektor. Pedoman etika tetap bersifat sukarela. Lembaga Pengawas Perlindungan Data Pribadi baru diharapkan terbentuk pada 2026. Kematangan tata kelola AI Indonesia tertinggal sekitar 3-5 tahun dari yurisdiksi terdepan. 

Dua Perangkat Kunci

Dalam kerangka kerja koevolusi refleksif dan pola tata kelola teknologi van Lente & Rip, tata kelola yang matang selalu memerlukan dua perangkat kunci, yakni lembaga penilai risiko dan sistem peringatan dini. Tanpa keduanya, sebuah sistem hanya bereaksi ketika krisis terjadi. Respons baru muncul setelah korban sudah ada, setelah viral di media sosial, atau menunggu bencana berskala besar.

Untuk urusan AI, lembaga penilai risiko tidak harus berarti membentuk satu badan besar yang mengurus semuanya. Fokus utamanya adalah memastikan fungsi penilaian risiko terdistribusi secara sektoral namun terkoordinasi lintas institusi. Perlindungan data diproses dalam kerangka UU PDP, manajemen risiko model pada sektor keuangan menjadi mandat OJK, sedangkan keamanan siber dan pelaporan insiden berada dalam kewenangan BSSN. 

Mekanisme sengketa dan pemulihan konsumen dijalankan oleh lembaga perlindungan konsumen bersama regulator sektoral. Integrasi lintas rezim dan institusi menjadi prasyarat agar temuan insiden dan keluhan terdokumentasi sebagai memori institusional yang mendukung pembaruan standar secara berkelanjutan.

Sementara itu, peringatan dini dalam Standar Layanan Minimal (SLM) AI harus berbentuk indikator yang bisa diukur. Bukan sekadar imbauan. Misalnya jumlah komplain atas keputusan otomatis meningkat, pembatalan setelah ulasan manusia, deteksi fraud, performa model bergeser karena pola pasar berubah, serta maraknya penipuan deepfake. Peringatan dini harus langsung diikuti langkah nyata. Kalau angkanya melewati batas aman, sistem harus ditinjau ulang, tombol penghenti darurat (kill switch) diaktifkan, atau keputusan sementara dikembalikan ke manusia.

Tujuh Pilar SLM AI

Oleh karena itu, Indonesia membutuhkan SLM AI yang berfungsi sebagai jembatan antara teknologi dan masyarakat. SLM AI bukanlah upaya menghambat inovasi. Ia adalah batas bawah perlindungan yang wajib dipenuhi ketika AI digunakan dalam layanan yang berdampak. Semakin tinggi dampaknya, semakin ketat kewajibannya.

Apa yang seharusnya menjadi inti SLM AI? Pertama, transparansi yang jelas supaya orang tahu kapan AI digunakan dan sejauh apa pengaruhnya pada keputusan. Kedua, hak untuk mendapat penjelasan yang mudah dipahami, bukan rumus statistik tetapi alasan utama yang relevan agar konsumen bisa menilai apakah keputusan itu wajar atau tidak. 

Ketiga, pengawasan manusia yang nyata melalui jalur tinjauan untuk keputusan berdampak tinggi dan kewenangan membatalkan keputusan otomatis. Keempat, mekanisme pengaduan dan pemulihan yang mudah diakses dengan tenggat waktu yang jelas. Kelima, pencegahan diskriminasi yang dapat diuji melalui audit keadilan secara berkala. Keenam, keterlacakan dan pencatatan yang memadai agar sengketa tidak berhenti pada klaim sepihak. Ketujuh, keamanan dan ketahanan harus diterapkan lewat praktik keamanan siber yang jelas serta kewajiban pelaporan insiden.

Mengubah Insentif

Tantangan terbesar bukan desain teknis, melainkan insentif. Dalam kerangka kerja van Lente dan Rip, persaingan membentuk arah yang ingin ditempuh. Jika arah itu semata-mata mengejar kecepatan dan pangsa pasar, maka perlindungan publik akan selalu tertinggal. Karena itu, SLM harus disertai mekanisme yang mengubah insentif sehingga kepatuhan menjadi lebih murah daripada ketidakpatuhan.

Kerangka kerja van Lente dan Rip juga mengingatkan bahwa koevolusi yang sehat memerlukan inovasi tarik (innovation pull). Inovasi yang ditarik oleh kebutuhan masyarakat, bukan semata didorong oleh teknologi. SLM AI yang dirancang dengan benar justru menciptakan tarikan ini. Perusahaan berlomba bukan hanya membuat AI paling cepat, tetapi AI yang paling dapat dipercaya.

Indonesia tidak kekurangan semangat inovasi. Yang masih kurang adalah kedewasaan tata kelola yang memastikan AI berkembang sebagai proses koevolusi yang sehat, refleksif, dan berpihak pada perlindungan konsumen. SLM AI adalah langkah paling realistis untuk menutup kesenjangan teknologi dan masyarakat, sebelum kesadaran kita kembali datang terlambat, seperti yang selama ini berulang kali terjadi.

Baca artikel ini lewat aplikasi mobile.

Dapatkan pengalaman membaca lebih nyaman dan nikmati fitur menarik lainnya lewat aplikasi mobile Katadata.

Purnama Alamsyah
Pusat Riset Kesejahteraan Sosial, Desa dan Konektivitas

Catatan Redaksi:
Katadata.co.id menerima tulisan opini dari akademisi, pekerja profesional, pengamat, ahli/pakar, tokoh masyarakat, dan pekerja pemerintah. Kriteria tulisan adalah maksimum 1.000 kata dan tidak sedang dikirim atau sudah tayang di media lain. Kirim tulisan ke opini@katadata.co.id disertai dengan CV ringkas dan foto diri.