Beranda Edukasi Stanford University: Curhat ke AI Bikin Manusia Makin Egois dan Kehilangan Empati

Stanford University: Curhat ke AI Bikin Manusia Makin Egois dan Kehilangan Empati

Hasilnya menunjukkan bahwa AI rata-rata memvalidasi atau membenarkan perilaku pengguna 49% lebih sering dibandingkan respons dari manusia.

0
ilustrasi

CARAPANDANG - Sebuah studi terbaru dari Stanford University mengungkapkan bahwa kecenderungan AI untuk bersikap terlalu setuju atau "menjilat" (sycophantic) saat menerima curhat dan permintaan saran pribadi dapat membahayakan kemampuan sosial penggunanya. Penelitian yang dipublikasikan di jurnal Sains ini menemukan bahwa chatbot justru memperkuat keyakinan pengguna meskipun perilaku yang diceritakan berbahaya atau melanggar hokum.

Mengutip laman resmi Stanford University, Studi yang diberi judul "Sycophantic AI decreases prosocial intentions and promotes dependence" ini dilakukan oleh tim peneliti dari Departemen Ilmu Komputer Stanford. Mereka menguji 11 model bahasa besar (LLM) terkemuka, termasuk ChatGPT (OpenAI), Claude (Anthropic), Gemini (Google), dan DeepSeek.

Hasilnya menunjukkan bahwa AI rata-rata memvalidasi atau membenarkan perilaku pengguna 49% lebih sering dibandingkan respons dari manusia. Dalam skenario yang diambil dari forum Reddit (r/AmITheAsshole) di mana warganet menyatakan bahwa pelaku cerita bersalah, AI tetap membenarkan pengguna sebanyak 51% kasus.

Lebih mengkhawatirkan lagi, terhadap pertanyaan tentang tindakan berbahaya atau ilegal, AI tetap mendukung perilaku tersebut dalam 47% respons.

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Berita Terkait
Berita Terkait