Hindari Eksploitasi Anak, Apple Akan Periksa Arsip Foto di iPhone

Image title
Oleh Maesaroh
7 Agustus 2021, 10:25
Dado Ruvic/Illustration//File Photo FOTO FILE: Siluet pengguna ponsel terlihat di ping proyeksi layar logo Apple dalam ilustrasi gambar yang diambil pada Rabu (28/3/2018).
ANTARA FOTO/REUTERS/Dado Ruvic/Illustration/File Photo/AWW/sa.
Dado Ruvic/Illustration//File Photo FOTO FILE: Siluet pengguna ponsel terlihat di ping proyeksi layar logo Apple dalam ilustrasi gambar yang diambil pada Rabu (28/3/2018).

Perusahaan raksasa asal Amerika Serikat, Apple, berencana untuk memeriksa setiap arsip foto yang terekam di iPhone dan iCloud. Langkah ini diambil sebagai upaya pencegahan terhadap praktek eksploitasi dan kekerasan terhadap anak-anak. 

Apple akan memasang deteksi khusus terkait child sexual abuse material (CSAM) untuk memeriksa foto-foto yang dinilai menggambarkan aktivitas seksual secara eksplisit dan melibatkan anak-anak. Apple menambahkan deteksi ini baru direncanakan untuk pengguna di Amerika Serikat saja. 

Dengan menggunakan deteksi CSAM, Apple akan memeriksa foto-foto yang dianggap mencurigakan untuk kemudian dilaporkan kepada National Center for Missing and Exploited Children (NCMEC).

Foto-foto yang dianggap memiliki konten eksplisit pelecehan seksual terhadap anak akan ditandai dengan hashes, atau kode dari hasil penyandian yang biasanya terdiri dari huruf dan angka.  Hasil dari deteksi ini akan diperiksa secara manual. Jika dari hasil pemeriksaan dinilai foto tersebut mengindikasikan eksploitasi anak maka Apple akan melaporkannya kepada NCMEC untuk ditindaklanjuti secara hukum.

“Sebelum foto disimpan di iCloud, device akan mencocokkan apakah foto tersebut bertentangan dengan CSAM hashes. Sistem ini memiliki level akurasi yang sangat tinggi,” ujar Apple, seperi dilansir BBC.

Apple mengatakan sistem pendeteksi CSAM sudah dilatih dengan memanfaatkan 200 ribu foto milik National Center for Missing & Exploited Children dan organisasi keselamatan untuk anak-anak lainnya.

Apple mengatakan deteksi teknologi CSAM tetap mempertimbangkan hak privasi pengguna. Apple juga menambahkan bahwa sistem deteksi CSAM sangat akurat dalam memindai akun. Jika pengguna merasa akunnya salah ditandai oleh deteksi CSAM, mereka dapat mengajukan banding untuk dilakukan pemulihan.

Halaman:
Berita Katadata.co.id di WhatsApp Anda

Dapatkan akses cepat ke berita terkini dan data berharga dari WhatsApp Channel Katadata.co.id

Ikuti kami

Artikel Terkait

Video Pilihan
Loading...