Amazon Larang Polisi Pakai Teknologi Rekognition Imbas Kematian Floyd

Ahli mengatakan, teknologi pengenalan wajah milik Amazon salah dalam mengenali warga kulit hitam, sehingga tidak boleh digunakan oleh polisi.
Desy Setyowati
11 Juni 2020, 07:06
Amazon Larang Polisi Pakai Teknologi Rekognition Imbas Kematian Floyd
Ken Wolter|123RF.com
Ilustrasi, gedung Amazon di Santa Clara, California, Amerika Serikat (AS).

Amazon menghentikan sementara penggunaan teknologi pengenalan wajah Rekognition oleh polisi Amerika Serikat (AS) selama setahun. Moratorium ini dilakukan agar kejadian yang mengakibatkan meninggalnya warga kulit hitam, George Floyd tidak terulang.

"Kami berharap moratorium setahun ini dapat memberi Kongres cukup waktu untuk menerapkan aturan yang tepat, dan kami siap membantu jika diminta," kata Amazon dikutip dari Reuters, Kamis (11/6).

Langkah itu ditempuh Amazon, setelah banyak ahli mempertanyakan keakuratan teknologi pengenalan wajah dalam mengidentifikasi jenis kelamin individu dengan warna kulit yang lebih gelap. Perusahaan mengaku, sudah meneliti hal ini.

Keputusan untuk melarang polisi AS menggunakan Rekognition, kata Amazon, karena perusahaan ingin memastikan perangkat lunaknya itu digunakan secara etis. Bukan karena dikritik para ahli terkait keakuratannya.

Advertisement

(Baca: Orang Terkaya di Dunia Dikritik Konsumen soal Kematian George Floyd)

Namun, Joy Buolamwini, peneliti di MIT Media Lab dan Timnit Gebru sekaligus anggota di Microsoft Research yang menemukan adanya kesalahan dalam sistem pengenalan wajah dari perusahaan teknologi besar, seperti IBM dan Microsoft. Berdasarkan kajiannya pada 2018, kesalahan teknologi ini dalam mengidentifikasi individu berkulit gelap lebih tinggi puluhan poin dibanding ketika mengenali warga kulit putih.

Persoalannya terletak pada set data yang digunakan untuk melatih sistem, menurut laporan New York Times. Sebagaimana diketahui, teknologi seperti mesin pembelajar (machine learning) dan kecerdasan buatan (artificial intelligence/AI) butuh asupan data yang banyak agar hasilnya maksimal.

Dalam studi terpisah pada 2019, Buolamwini dan rekannya Deborah Raji menganalisis Rekognition. Hasilnya, perangkat lunak milik Amazon ini memiliki masalah signifikan dalam mengidentifikasi jenis kelamin individu yang berkulit gelap.

(Baca: Kerusuhan di AS, Semprotan Merica-Pistol Listrik Laris Manis di Amazon)

Berdasarkan kajiannya, Rekognition sempat mengira perempuan berkulit gelap sebagai pria. Kondisi berbeda ketika sistem ini menganalisis gambar orang-orang berkulit putih, tingkat kesalahannya mendekati nol.

"Kami tidak dapat mengandalkan Amazon untuk mengawasi sendiri atau menyediakan teknologi yang tidak diatur dan tidak terbukti kepada polisi atau lembaga pemerintah,” kata Buolamwini melalui akun Twitter-nya, dikutip dari The Verge, Kamis (11/6).

Temuan Buolamwini dan Raji itu pun didukung oleh sekelompok peneliti AI yang menulis surat terbuka. Mereka menyatakan bahwa Rekognition cacat dan tidak boleh digunakan oleh penegak hukum.

(Baca: Facebook, Intel, hingga YouTube Donasi Rp 283 M untuk Lawan Rasisme)

Akan tetapi, Amazon tidak berkomentar mengenail hal itu. Perusahaan memutuskan untuk melarang polisi menggunakan Rekognition selama setahun, tanpa memberikan alasan yang konkret.

Sebelum Amazon, perusahaan teknologi IBM  memutuskan tidak lagi menawarkan teknologi pengenalan wajah. CEO IBM Arvind Krishna mengirimkan surat yang ditujukan kepada Kongres AS tertanggal 8 Juni, yang berisi bahwa keputusan ini diambil untuk melawan rasisme.

(Baca: Andalan Trump Redam Kerusuhan di AS, Apa itu Pasukan Garda Nasional?)

News Alert

Dapatkan informasi terkini dan terpercaya seputar ekonomi, bisnis, data, politik, dan lain-lain, langsung lewat email Anda.

Dengan mendaftar, Anda menyetujui Kebijakan Privasi kami. Anda bisa berhenti berlangganan (Unsubscribe) newsletter kapan saja, melalui halaman kontak kami.
Video Pilihan

Artikel Terkait