Hindari Eksploitasi Anak, Apple Akan Periksa Arsip Foto di iPhone

Image title
7 Agustus 2021, 10:25
Dado Ruvic/Illustration//File Photo FOTO FILE: Siluet pengguna ponsel terlihat di ping proyeksi layar logo Apple dalam ilustrasi gambar yang diambil pada Rabu (28/3/2018).
ANTARA FOTO/REUTERS/Dado Ruvic/Illustration/File Photo/AWW/sa.
Dado Ruvic/Illustration//File Photo FOTO FILE: Siluet pengguna ponsel terlihat di ping proyeksi layar logo Apple dalam ilustrasi gambar yang diambil pada Rabu (28/3/2018).

Perusahaan raksasa asal Amerika Serikat, Apple, berencana untuk memeriksa setiap arsip foto yang terekam di iPhone dan iCloud. Langkah ini diambil sebagai upaya pencegahan terhadap praktek eksploitasi dan kekerasan terhadap anak-anak. 

Apple akan memasang deteksi khusus terkait child sexual abuse material (CSAM) untuk memeriksa foto-foto yang dinilai menggambarkan aktivitas seksual secara eksplisit dan melibatkan anak-anak. Apple menambahkan deteksi ini baru direncanakan untuk pengguna di Amerika Serikat saja. 

Dengan menggunakan deteksi CSAM, Apple akan memeriksa foto-foto yang dianggap mencurigakan untuk kemudian dilaporkan kepada National Center for Missing and Exploited Children (NCMEC).

Foto-foto yang dianggap memiliki konten eksplisit pelecehan seksual terhadap anak akan ditandai dengan hashes, atau kode dari hasil penyandian yang biasanya terdiri dari huruf dan angka.  Hasil dari deteksi ini akan diperiksa secara manual. Jika dari hasil pemeriksaan dinilai foto tersebut mengindikasikan eksploitasi anak maka Apple akan melaporkannya kepada NCMEC untuk ditindaklanjuti secara hukum.

“Sebelum foto disimpan di iCloud, device akan mencocokkan apakah foto tersebut bertentangan dengan CSAM hashes. Sistem ini memiliki level akurasi yang sangat tinggi,” ujar Apple, seperi dilansir BBC.

Apple mengatakan sistem pendeteksi CSAM sudah dilatih dengan memanfaatkan 200 ribu foto milik National Center for Missing & Exploited Children dan organisasi keselamatan untuk anak-anak lainnya.

Apple mengatakan deteksi teknologi CSAM tetap mempertimbangkan hak privasi pengguna. Apple juga menambahkan bahwa sistem deteksi CSAM sangat akurat dalam memindai akun. Jika pengguna merasa akunnya salah ditandai oleh deteksi CSAM, mereka dapat mengajukan banding untuk dilakukan pemulihan.

Undang Kritik
Sejumlah pihak menyambut baik langkah Apple untuk memeriksa arsip foto terkait eksploitasi anak karena sistem deteksi CSAM bisa membantu penegak hukum untuk memerangi kejahatan seksual terhadap anak-anak.  Langkah ini juga mencegah predator anak-anak yang menggunakan perangkat gawai untuk merekrut dan mengeksploitasi mereka.

Namun, banyak dari mereka yang mengkritik keras rencana Apple itu. Mereka menilai langkah Apple bisa digunakan pemerintah sebagai sarana untuk memata-matai data pribadi pengguna.

"Alat deteksi ini adalah anugerah untuk menemukan pornografi yang melibatkan anak-anak di handphone orang-orang. Tapi bayangkan jika itu jatuh ke tangan pemerintah yang otoriter?,” ujar Matthew Green, profesor dan kriptografer asal Johns Hopkins University  lewat twitter nya.

Keprihatinan yang sama disampaikan Will Cathcart,  Chief Executive Officer Whatsapp Inc melalui twitternya. Dia mengingatkan bahwa sistem WhatsApp mampu menangani pelecehan seksual dengan jumlah kasus lebih dari 400 ribu tanpa melanggar penyandian.

“Saya membaca informasi soal Apple dan saya khawatir. Saya rasa itu adalah pendekatan yang salah karena bisa menjadi langkah mundur bagi privasi orang di seluruh dunia. Orang-orang bertanya apa saya akan mengadopsi hal yang sama untuk WhatsApp. Jawabannya adalah tidak,” tutur Will Cathcart,   melalui twitternya.

 

News Alert

Dapatkan informasi terkini dan terpercaya seputar ekonomi, bisnis, data, politik, dan lain-lain, langsung lewat email Anda.

Dengan mendaftar, Anda menyetujui Kebijakan Privasi kami. Anda bisa berhenti berlangganan (Unsubscribe) newsletter kapan saja, melalui halaman kontak kami.
Video Pilihan

Artikel Terkait