Pemanfaatan kecerdasan buatan (AI) semakin lumrah digunakan dalam kepentingan bisnis berbagai sektor. Namun, ternyata sejumlah penelitian membuktikan bahwa AI belum mampu diandalkan sebagai mesin cek fakta atau fact-checking yang akurat.
Data Scientist dan Co-founder dari Supertype AI Samuel Chan mempraktikan hal tersebut menggunakan AI generatif ChatGPT. Ia mencontohkan, meski ChatGPT bisa menjawab dengan benar jumlah huruf "R" dalam kata "strawberry", namun sering salah menjawab jumlah huruf "R" pada kata "raspberry". Hal ini menunjukkan bahwa model generatif tidak memiliki konsistensi atau pemahaman kontekstual yang kuat.
“Ini adalah masalah yang diketahui oleh tim OpenAI. Dan dalam enam bulan terakhir, para engineer terpintar di dunia masih belum bisa memperbaikinya,” ungkap Chan dalam acara Data Technology Summit di Jakarta Design Center, Jakarta Pusat pada Rabu (30/10).
Ia menilai, model seperti ChatGPT tidak benar-benar memahami atau merasionalisasi informasi yang diprosesnya. AI ini hanya mampu menyelesaikan teks berdasarkan pola yang dipelajari, sehingga sering membuat kesalahan saat menghadapi persoalan cek fakta.
Model AI generatif sering dianggap tidak sesuai untuk aplikasi bisnis yang memerlukan presisi dan akurasi, seperti layanan keuangan atau manajemen bisnis. Penggunaan AI dalam industri yang membutuhkan verifikasi fakta yang kuat dikhawatirkan bisa membahayakan perusahaan jika AI membuat kesalahan faktual.
“Ia tidak memiliki kemampuan untuk memeriksa fakta,” ujar Chan.
Sejalan dengan hal itu, riset yang diterbitkan oleh arXiv untuk Apple juga pernah menunjukkan chatbot AI tersebut hanya mencocokan pola untuk menjawab pertanyaan atau memproses permintaan pengguna.
Masih Bisa Dikembangkan untuk Keperluan Bisnis
Chan mengungkap integrasi bisnis dengan AI bisa diupayakan dengan mengintegrasikan kecerdasan buatan dengan database yang lengkap. Menurut dia, penting untuk membangun infrastruktur data yang baik agar AI dapat bekerja dalam batas yang aman dan efektif sebelum menggunakan AI generatif.
Salah satu solusinya dengan pendekatan pipeline untuk menghubungkan model bahasa besar (LLM) yang digunakan oleh AI, dengan sistem internal perusahaan, tanpa memberikan akses langsung yang bisa mengubah data atau mempengaruhi sistem secara langsung.
Pendekatan pipeline dalam konteks AI atau pemrosesan data adalah serangkaian langkah terstruktur yang dirancang untuk menangani data secara bertahap, dari awal hingga akhir proses, dalam urutan yang ditentukan. Setiap langkah dalam pipeline melakukan tugas spesifik pada data.
Chan mengingatkan, pengintegrasian data perusahaan dengan AI memerlukan peninjauan keamanan yang matang. Misalnya, alih-alih AI memiliki akses langsung ke database, AI sebaiknya menggunakan API dengan izin terbatas untuk memastikan keamanan.
AI harus digunakan sebagai alat pendukung untuk meninjau data atau mengakses informasi sederhana, tetapi bukan untuk mengambil keputusan atau memberikan jawaban akhir pada data sensitif bisnis.
“Jadi, ChatGPT bukan jawaban untuk skenario B2B,” ungkap Chan.