Manusia Dinilai Perlu Hati-hati dengan Jawaban ChatGPT dan Bard

Desy Setyowati
15 Februari 2023, 07:00
ChatGPT, bard, google
Search Engine Journal
ChatGPT

Akibatnya, bias dan interpretabilitas mewakili perhatian yang sangat menonjol. Tidak ada manusia yang dapat meninjau lebih dari satu triliun kata untuk memastikan tidak ada ‘bias halus’.

Paling seseorang harus mengandalkan model lain untuk melakukannya,” kata Zafft.

Demikian pula, ketika model yang kompleks memiliki miliaran parameter, akan sangat sulit untuk menginterpretasikan dengan tepat mengapa model tersebut menghasilkan output tertentu.

“Jadi, misalnya, apa yang dimaksud dengan ‘kearifan’ dalam konteks ini? Apakah ini pencarian ‘kebenaran’? Untuk ‘validasi’? Jika kita mengandalkan pekerjaan ‘otoritas’ untuk memvalidasi pernyataan atau opini, bagaimana seharusnya algoritme menilai dan menimbang ‘otoritas’?” ujar Zafft.

“Ingatlah bahwa survei pada 1905 terhadap semua fisikawan tentang relativitas waktu, akan menghasilkan satu ‘Ya’ dari seorang pegawai paten Swiss yang tidak dikenal bernama Einstein,” tambah dia.

Oleh karena itu, menurutnya manusia harus lebih berhati-hati terhadap potensi penyalahgunaan AI generatif.

“Daripada memutuskan pada titik mana algoritme dapat menyebut sesuatu sebagai hitam atau putih, akan lebih aman dan baik untuk memastikan pemahaman manusia tentang nuansa abu-abu yang sedang kita hadapi,” kata dia.

Halaman:
Berita Katadata.co.id di WhatsApp Anda

Dapatkan akses cepat ke berita terkini dan data berharga dari WhatsApp Channel Katadata.co.id

Ikuti kami

Artikel Terkait

Video Pilihan
Loading...