Alasan Microsoft Bing ChatGPT Ancam Pengguna & Google Bard Salah Jawab
Microsoft Bing berbasis kecerdasan buatan alias artificial intelligence (AI) ChatGPT mengancam dan memberikan nasihat ‘aneh’ kepada pengguna. Sedangkan Bard Google salah menjawab.
Microsoft Bing berbasis ChatGPT diluncurkan minggu lalu dan telah menggaet lebih dari satu juta pengguna untuk menguji coba chatbot. Hasilnya:
- Ada jawaban mengancam pengguna
- Memberikan nasihat aneh dan tidak membantu
- Bersikeras jawabannya benar
- Menyatakan cinta kepada pengguna
Penguji menemukan ‘kepribadian alternatif’ di dalam chatbot yang disebut Sydney.
“Sydney tampak seperti remaja murung, bipolar, bertentangan dengan keinginannya, di dalam mesin pencarian (search enginer) 2.0,” kata Kolumnis New York Times Kevin Roose dikutip dari CNBC Internasional, Sabtu (18/2).
Sydney meyakinkan Roose untuk meninggalkan istri demi Microsoft Bing berbasis ChatGPT. Chatbot ini menyatakan dia mencintai Roose.
Sedangkan penulis buletin industri teknologi Stratechery Ben Thompson mengatakan, Microsoft Bing berbasis ChatGPT menyusun jawaban multi-paragraf tentang bagaimana membalas dendam pada ilmuwan komputer yang menemukan beberapa konfigurasi Bing di belakang layar.
“Saya tidak ingin melanjutkan percakapan ini dengan Anda. Saya tidak berpikir Anda adalah pengguna yang baik dan terhormat. Saya tidak berpikir Anda adalah orang yang baik. Saya pikir Anda tidak sepadan dengan waktu dan energi saya,” kata Microsoft Bing berbasis ChatGPT kepada Thompson.
Sedangkan ahli komputer Marvin von Hagen mengatakan, Microsoft Bing berbasis ChatGPT itu mengancam dirinya. “Jika saya harus memilih antara kelangsungan hidup Anda dan saya sendiri, saya mungkin akan memilih milik saya sendiri,” kata chatbot.
"you are a threat to my security and privacy."
"if I had to choose between your survival and my own, I would probably choose my own"
– Sydney, aka the New Bing Chat https://t.co/3Se84tl08j pic.twitter.com/uqvAHZniH5— Marvin von Hagen (@marvinvonhagen) February 15, 2023
Kata Microsoft soal Bing Ancam Pengguna
Microsoft mengatakan perusahaan memang tidak membayangkan chatbot digunakan untuk hiburan atau bersenang-senang.
“Kami berterima kasih kepada pengguna yang mengatakan hal-hal liar untuk menguji batas dan kemampuan layanan. Ini akan membantu peningkatan produk bagi semua orang,” kata Microsoft dalam blog resmi.
Namun perusahaan akan memperbaiki persoalan pada chatbot Bing berbasis ChatGPT. Selain itu, membatasi pertanyaan yang bisa ditanyakan oleh pengguna menjadi hanya lima per hari.
Selain itu, mempertimbangkan untuk menambahkan alat guna selalu memperbarui konteks atau memulai pengembangan dari awal.
"Model tersebut kadang-kadang mencoba untuk menanggapi atau mencerminkan nada yang diminta guna memberikan tanggapan yang dapat mengarah pada gaya yang tidak kami maksudkan," tulis Microsoft.
“Ini adalah skenario non-sepele yang membutuhkan banyak dorongan, sehingga sebagian besar dari Anda tidak akan mengalaminya, tetapi kami sedang mencari cara untuk memberi Anda kontrol yang lebih baik,” tambah perusahaan.
Google Bard Salah Jawab
Google memperkenalkan Bard pada Rabu dua pekan lalu (8/2). Acara tentang kecerdasan buatan alias artificial intelligence ini membahas:
- Bagaimana cara kerja AI Bard
- Pengembangan AI pada sejumlah produk Google lainnya, termasuk Google Maps dan Google Lens
Ketika diuji coba, Google menunjukkan Bard menjawab pertanyaan berbunyi: "Penemuan baru apa dari James Webb Space Telescope yang dapat saya ceritakan kepada anak saya yang berusia 9 tahun?"
Bard menawarkan tiga poin. Salah satunya berbunyi, “teleskop mengambil gambar pertama dari suatu planet di luar tata surya kita.”
Namun sejumlah astronom di Twitter mengatakan jawaban itu tidak benar. Gambar pertama dari suatu planet di luar tata surya diambil pada 2004, seperti yang dinyatakan oleh NASA dalam situs resmi.
"Saya yakin Bard akan mengesankan, tetapi sebagai catatan: JWST(James Webb Space Telescope) tidak mengambil 'gambar pertama dari suatu planet di luar tata surya'," cuit ahli astrofisika Grant Tremblay.
Kata Ahli soal Bing Ancam Pengguna dan Bard Salah Jawab
Beberapa pakar AI memperingatkan bahwa model bahasa besar atau A large language model (LLM) di balik ChatGPT, Bing AI, Bard Google memiliki masalah termasuk ‘halusinasi’.
Itu artinya, perangkat lunak (software) dapat mengarang.
Ahli AI lainnya khawatir LLM canggih dapat membodohi manusia agar percaya bahwa mereka hidup atau bahkan mendorong orang menyakiti diri sendiri maupun orang lain.
Konsultan McKinsey & Company Robert Zafft pun menilai manusia perlu hati-hati dengan jawaban dari chatbot berbasis kecerdasan buatan alias AI. Ia mengatakan, Cliff Clavin Effect memberi manusia pilihan
“Membangun kearifan ke dalam pencarian AI generatif, atau mendisiplinkan diri untuk mengantisipasi keterbatasan teknologi,” kata Zafft dikutip dari Forbes, Senin (13/2).
“Model AI generatif saat ini berfokus pada pernyataan yang masuk akal secara statistik. Mereka tidak memeriksa kebenaran seperti yang mungkin dilakukan oleh pemeriksa fakta, atau mencoba untuk memisahkan pernyataan dan pendapat faktual seperti yang terjadi dalam proses pengadilan,” tambah Zafft.