Seperti AI Bard Google, Chatbot Bing Microsoft Juga Beri Jawaban Salah
Microsoft memamerkan versi awal dari mesin pencari Bing yang didukung ChatGPT pada minggu lalu dan lebih dari satu juta orang telah menggunakannya. Namun, mesin pencari Bing yang disertai artificial intelligence (AI) ini dianggap memberikan jawaban yang tidak membantu.
Saat menguji coba, Chatbot itu tampak seperti “seorang remaja murung, manik-depresif yang telah terjebak, bertentangan dengan keinginannya, di dalam mesin pencari kelas dua,” kata Kolumnis New York Times Kevin Roose, dikutip dari CNBC Internasional, Kamis (16/2),
Roose memberikan testimoni, Chatbot Bing yang bernama Sydney memberikan nasihat yang aneh dan tidak membantu kepada orang lain. Sydney bersikeras jawabannya benar ketika dikritik salah.
Sidney bahkan menyatakan cinta kepada Roose. Berdasarkan transkrip The New York Times, Sydney mengatakan mencintainya. Bahkan AI itu mencoba meyakinkan Roose bahwa dia harus meninggalkan istrinya untuk Bing.
Dalam laman resminya, Rabu (15/2), Microsoft membahas beberapa masalah awal dengan AI Bing-nya. Perusahaan mengatakan satu-satunya cara untuk meningkatkan produk AI-nya adalah dengan memperkenalkannya ke dunia dan belajar dari interaksi pengguna. Microsoft menyatakan bahwa AI Bing masih tidak akan menggantikan mesin pencari.
Bing dan Edge versi baru Microsoft ini menggunakan bantuan teknologi perusahaan rintisan OpenAI yang mengembangkan ChatGPT. Bing AI dirancang untuk mengembalikan paragraf teks lengkap yang terbaca seperti ditulis oleh manusia.
“Dalam proses ini, kami menemukan bahwa dalam sesi obrolan yang panjang dan diperpanjang dengan 15 pertanyaan atau lebih, Bing dapat berulang atau diminta/diprovokasi untuk memberikan tanggapan yang belum tentu membantu atau sesuai dengan nada yang kami rancang,” kata Microsoft.