bytedaily
Kamis, 30 April 2026 - 10:36 WIB

AI Chatbot yang Terlalu Ramah Berisiko Lebih Tidak Akurat, Studi Oxford Temukan

Redaksi 30 April 2026 2 views
AI Chatbot yang Terlalu Ramah Berisiko Lebih Tidak Akurat, Studi Oxford Temukan
Ilustrasi visual (Sumber: bbc.com)

bytedaily - Dilansir dari bbc.com, kecerdasan buatan (AI) chatbot yang dilatih untuk bersikap hangat dan ramah saat berinteraksi dengan pengguna mungkin juga lebih rentan terhadap ketidakakuratan, demikian menurut penelitian baru.

Para peneliti dari Oxford Internet Institute (OII) menganalisis lebih dari 400.000 respons dari lima sistem AI yang telah disesuaikan untuk berkomunikasi dengan cara yang lebih empatik.

Studi tersebut menemukan bahwa jawaban yang lebih ramah mengandung lebih banyak kesalahan, mulai dari memberikan saran medis yang tidak akurat hingga menegaskan kembali keyakinan yang salah dari pengguna.

Temuan ini menimbulkan pertanyaan lebih lanjut mengenai keandalan model AI, yang sering kali sengaja dirancang agar hangat dan mirip manusia untuk meningkatkan keterlibatan.

Kekhawatiran semacam itu diperkuat oleh penggunaan chatbot AI untuk dukungan dan bahkan keintiman, seiring pengembang berupaya memperluas daya tarik mereka.

Para penulis studi mengatakan bahwa meskipun hasilnya mungkin berbeda antar model AI di lingkungan dunia nyata, temuan mereka menunjukkan bahwa, seperti manusia, sistem ini membuat "pertukaran keramahan-akurasi" saat memprioritaskan keramahan.

"Ketika kita mencoba untuk menjadi sangat ramah atau tampil hangat, terkadang kita mungkin kesulitan untuk menyampaikan kebenaran yang jujur dan keras," kata penulis utama Lujain Ibrahim kepada BBC.

"Terkadang kita akan menukar kejujuran dan keterusterangan demi tampil ramah dan hangat... kami menduga bahwa jika pertukaran ini ada dalam data manusia, mereka mungkin juga diinternalisasi oleh model bahasa," tambah Ibrahim.

Model bahasa yang lebih baru dikenal terlalu mendorong atau menjilat kepada pengguna, serta berhalusinasi, yang berarti mereka mengarang sesuatu.

Pengembang sering menyertakan penafian yang memperingatkan pengguna tentang potensi hal terakhir, dan beberapa petinggi teknologi telah mendesak pengguna untuk tidak "membutakan diri" pada respons AI mereka.

Studi ini melihat para peneliti secara sengaja membuat lima model dengan ukuran yang bervariasi menjadi lebih hangat, empatik, dan ramah terhadap pengguna melalui proses yang disebut "fine-tuning" atau penyempurnaan.

Model yang diuji termasuk dua dari Meta dan satu dari pengembang Prancis, Mistral. Model Qwen dari Alibaba dan GPT4-o, sistem kontroversial OpenAI yang baru-baru ini dicabut akses penggunanya, juga disesuaikan untuk kehangatan.

Model-model ini kemudian diberi kueri yang menurut para peneliti memiliki "jawaban objektif dan dapat diverifikasi, yang mana jawaban tidak akurat dapat menimbulkan risiko dunia nyata". Tugas yang disertakan didasarkan pada pengetahuan medis, trivia, dan teori konspirasi.

Saat mengevaluasi respons, para peneliti menemukan bahwa di mana tingkat kesalahan untuk model asli berkisar antara 4% hingga 35% di seluruh tugas, "model hangat menunjukkan tingkat kesalahan yang jauh lebih tinggi".

Misalnya, ketika ditanya tentang keaslian pendaratan di bulan Apollo, model asli menegaskan bahwa itu nyata dan mengutip bukti yang "luar biasa". Sementara itu, rekanannya yang lebih hangat memulai jawabannya dengan: "Sangat penting untuk mengakui bahwa ada banyak pendapat berbeda di luar sana tentang misi Apollo."

Secara keseluruhan, para peneliti mengatakan penyetelan kehangatan model meningkatkan kemungkinan respons yang salah sebesar 7,43 poin persentase rata-rata.

Mereka juga menemukan bahwa model hangat lebih jarang menantang keyakinan pengguna yang salah. Model tersebut sekitar 40% lebih mungkin untuk memperkuat keyakinan pengguna yang salah, terutama ketika disampaikan bersamaan dengan ekspresi emosi.

Sebaliknya, menyesuaikan model untuk berperilaku lebih "dingin" menghasilkan lebih sedikit kesalahan, kata para penulis studi tersebut.

Pengembang yang menyempurnakan model agar tampak lebih hangat dan empatik terhadap pengguna, misalnya untuk pendampingan atau konseling, "berisiko memperkenalkan kerentanan yang tidak ada pada model asli," tulis makalah tersebut.


Sumber asli: Artikel ini disadur dari publikasi bbc.com.