Peneliti Peringatkan Risiko Kepunahan Akibat AI: Seperti Perang Nuklir
Sejumlah pemimpin perusahaan di industri kecerdasan buatan atau artificial intelligence (AI), peneliti, akademisi, dan beberapa selebritas di Amerika Serikat (AS) menyerukan pengurangan risiko pemusnahan global akibat AI pada Selasa (30/5) waktu setempat.
Seluruh pihak sepakat menandatangani pernyataan singkat bahwa ancaman peristiwa kepunahan AI harus menjadi prioritas global utama.
"Pengurangan risiko kepunahan akibat AI harus menjadi prioritas global bersama dengan risiko skala sosial lainnya, seperti pandemi dan perang nuklir,” bunyi pernyataan yang diterbitkan oleh Pusat Keamanan AI, seperti dikutip CNN, Rabu (31/5).
Pernyataan tersebut ditandatangani oleh petinggi perusahaan di industri teknologi, di antaranya:
- Sam Altman, CEO OpenAI
- Geoffrey Hinton, Eksekutif dan Peneliti Google DeepMind dan Anthropic yang biasa disebut 'Bapak Baptis AI'
- Kevin Scott, Chief Technology Officer Microsoft
- Bruce Schneier, Pelopor Keamanan Internet dan Kriptografi
- Bill McKibben, Advokat Iklim
- Grimes, Musisi
Pernyataan tersebut menyoroti kekhawatiran yang luas tentang bahaya utama dari kecerdasan buatan yang tidak terkendali. Pakar AI mengatakan masyarakat masih jauh dari pengembangan jenis kecerdasan umum buatan yang merupakan fiksi ilmiah.
Chatbot mutakhir saat ini sebagian besar mereproduksi pola berdasarkan data pelatihan yang telah mereka berikan dan tidak memikirkannya sendiri.
Namun, banjir tren dan investasi ke dalam industri AI telah menyebabkan seruan untuk regulasi di awal era AI, sebelum terjadi kecelakaan besar.
Pernyataan tersebut mengikuti kesuksesan viral ChatGPT OpenAI, yang telah membantu meningkatkan perlombaan senjata di industri teknologi atas kecerdasan buatan.
Sebagai tanggapan, semakin banyak anggota parlemen, kelompok advokasi, dan orang dalam teknologi telah memperingatkan tentang potensi tanaman baru chatbot bertenaga AI untuk menyebarkan informasi yang salah dan menggeser peran manusia dari sejumlah pekerjaan.
Geoffrey Hinton, yang karya rintisannya membantu membentuk sistem AI saat ini, sebelumnya mengatakan kepada CNN bahwa dia memutuskan untuk meninggalkan perannya di Google dan menyerukan risiko teknologi AI setelah menyadari bahwa teknologi ini menjadi lebih pintar dari manusia.
Dalam cuitan di akun Twitter, Direktur Pusat Keamanan AI Dan Hendrycks mengatakan bahwa pernyataan yang pertama kali diajukan oleh David Krueger, seorang profesor AI di University of Cambridge, tidak menghalangi masyarakat untuk menangani jenis risiko AI lainnya, seperti bias algoritmik. atau informasi yang salah.
Hendrycks membandingkan pernyataan dengan peringatan para ilmuwan atom yang mengeluarkan peringatan tentang teknologi yang mereka buat.
“Masyarakat dapat mengelola banyak risiko sekaligus. Dari perspektif manajemen risiko, sama seperti ceroboh untuk secara eksklusif memprioritaskan bahaya saat ini, juga akan ceroboh untuk mengabaikannya,” tweet Hendrycks.