Google, Microsoft, dan OpenAI Bentuk Organisasi untuk Promosi AI Aman
Beberapa perusahaan teknologi global yakni, Google, Microsoft, OpenAI, dan Anthropic meluncurkan organisasi baru bernama Frontier Model Forum.
Organisasi dibentuk sebagai wadah kerja sama antara para anggota dan pembuat kebijakan serta peneliti untuk membahas tentang cara mengatur pengembangan teknologi kecerdasan buatan atau artificial intelligence (AI).
Para anggota Frontier Model Forum mengatakan misi pembentukan forum tersebut adalah untuk mengembangkan praktik AI yang aman, dan mempromosikan penelitian tentang risiko AI. Selain itu, berbagi informasi secara publik dengan pemerintah dan masyarakat sipil.
Pembentukan organisasi ini menunjukkan bahwa pengembang teknologi AI bersatu menjelang upaya anggota parlemen Amerika Serikat (AS) dan Uni Eropa untuk membuat undang-undang yang mengatur pengembangan teknologi AI.
Pembentukan organisasi itu muncul setelah empat perusahaan pengembang AI bersama beberapa perusahaan lainnya, termasuk Amazon dan Meta, berjanji kepada pemerintahan Joe Biden untuk melakukan pengujian pihak ketiga terhadap sistem AI mereka sebelum merilisnya ke publik. Mereka juga berjanji untuk memberi label yang jelas terkait konten hasil teknologi AI.
“Perusahaan yang menciptakan teknologi AI memiliki tanggung jawab untuk memastikannya aman, terjamin, dan tetap berada di bawah kendali manusia,” kata Presiden Microsoft Brad Smith seperti dikutip CNN, Minggu (30/7).
“Inisiatif ini merupakan langkah penting untuk menyatukan sektor teknologi dalam memajukan AI secara bertanggung jawab dan mengatasi tantangan sehingga bermanfaat bagi seluruh umat manusia,” sambungnya.
Pengumuman tersebut muncul sehari setelah pakar AI yakni, CEO Anthropic Dario Amodei dan perintis AI Yoshua Bengio memperingatkan anggota parlemen tentang risiko sosial serius yang berasal dari implementasi AI. Mereka bahkan menyebutnya malapetaka yang berasal dari pengembangan AI yang tidak terkendali.
“Secara khusus, saya khawatir sistem AI dapat disalahgunakan dalam skala besar di bidang keamanan siber, teknologi nuklir, kimia, dan terutama biologi,” kata Amodei dalam kesaksian tertulisnya.
Dalam dua hingga tiga tahun, kata Amodei, AI bisa menjadi cukup kuat untuk membantu aktor jahat membangun senjata biologis fungsional, di mana saat ini para aktor tersebut mungkin kekurangan pengetahuan khusus yang diperlukan untuk menyelesaikan prosesnya.
Cara terbaik untuk mencegah bahaya besar, kata Bengio kepada panel Senat, adalah dengan membatasi akses ke sistem AI. Selain itu, mengembangkan rezim pengujian standar dan efektif untuk memastikan sistem tersebut mencerminkan nilai-nilai sosial bersama, dan membatasi seberapa banyak dunia yang benar-benar dapat dipahami oleh satu sistem AI. Terakhir, membatasi dampak yang dapat ditimbulkan oleh sistem AI di dunia nyata.