Manusia Dinilai Perlu Hati-hati dengan Jawaban ChatGPT dan Bard

Desy Setyowati
15 Februari 2023, 07:00
ChatGPT, bard, google
Search Engine Journal
ChatGPT

ChatGPT telah digunakan oleh 100 juta lebih pengguna. Namun konsultan McKinsey & Company Robert Zafft menilai manusia perlu hati-hati dengan jawaban dari chatbot berbasis kecerdasan buatan alias artificial intelligence (AI).

Ia mengatakan, Cliff Clavin Effect memberi manusia pilihan. “Membangun kearifan ke dalam pencarian AI generatif, atau mendisiplinkan diri untuk mengantisipasi keterbatasan teknologi,” kata dia dikutip dari Forbes, Senin (13/2).

Advertisement

Kini, raksasa teknologi seperti Microsoft, Google, Baidu hingga JD.Com berlomba-lomba membangun chatbot berbasis AI generatif 2.0. Dua di antaranya yakni ChatGPT dan Bard.

Namun Bard salah menjawab pertanyaan ketika diperkenalkan oleh Google dalam acara Rabu pekan lalu (8/2).

“Model AI generatif saat ini berfokus pada pernyataan yang masuk akal secara statistik. Mereka tidak memeriksa kebenaran seperti yang mungkin dilakukan oleh pemeriksa fakta, atau mencoba untuk memisahkan pernyataan dan pendapat faktual seperti yang terjadi dalam proses pengadilan,” kata Zafft.

Ia mengutip hasil penelitian Senior Partner McKinsey & Company Kevin Buehler dan tim tentang keterbatasan jawaban chatbot AI seperti Bard dan ChatGPT. Kevin juga membangun bagian Risk practice di McKinsey & Company sekaligus ketua firma penasihat Risk Dynamics.

Hasilnya, mereka mengidentifikasi enam area baru yang perlu dikelola dengan hati-hati untuk mengembangkan mesin pembelajar atau machine learning dan model AI yang lebih sesuai untuk tujuan:

  1. Interpretabilitas: Mampu menggambarkan model dan output
  2. Bias: Memastikan bahwa model secara akurat mewakili data tanpa pola pembelajaran yang dapat mempengaruhi kelompok yang berbeda
  3. Rekayasa Fitur: Merakit elemen data individu ke dalam fitur yang mendorong model (misalnya, menggunakan rasio utang terhadap pendapatan sebagai fitur dalam model kredit)
  4. Hyperparameters: Membuat pilihan tentang desain model (misalnya, jumlah lapisan tersembunyi di jaringan saraf)
  5. Kesiapan Produksi: Mengantisipasi bagaimana algoritme AI generatif harus beroperasi dalam sistem yang lebih besar. Misalnya, dapatkah setiap bagian dari sistem menangani laju aliran data yang lain? Akankah pemrosesan tambahan yang diperlukan untuk penegasan membuat harga atau margin rusak?
  6. Kalibrasi Model Dinamis: Menyesuaikan pemrosesan dengan cepat untuk mencerminkan informasi baru — kapan hal ini harus terjadi, dan siapa yang harus menentukannya?

Model bahasa dan untuk aplikasi dialog alias Language and dialogue models can be immense (LaMDA) di balik Bard milik Google, dilatih dengan 1,56 triliun kata. Satu versi terdiri dari 137 miliar parameter model.

Halaman:
Berita Katadata.co.id di WhatsApp Anda

Dapatkan akses cepat ke berita terkini dan data berharga dari WhatsApp Channel Katadata.co.id

Ikuti kami

Artikel Terkait

Video Pilihan
Loading...
Advertisement