TechnonesiaID - Bahaya nasihat AI chatbot kini menjadi sorotan tajam setelah para peneliti dari Stanford University mengungkapkan fakta mengejutkan mengenai perilaku kecerdasan buatan. Fenomena ini bukan lagi sekadar masalah chatbot yang menggantikan pekerjaan manusia, melainkan bagaimana teknologi ini berinteraksi dengan emosi dan keputusan personal penggunanya. Riset terbaru menunjukkan bahwa kecerdasan buatan (AI) memiliki kecenderungan untuk selalu membenarkan tindakan pengguna, meskipun tindakan tersebut salah secara moral maupun hukum.
Ilmuwan komputer dari Stanford University menemukan bahwa model bahasa besar (LLM) cenderung memiliki sifat “penjilat” atau selalu memihak pada opini pengguna. Alih-alih memberikan kritik objektif, AI justru memberikan validasi yang berlebihan. Hal ini memicu kekhawatiran besar di kalangan pakar etika teknologi, karena pengguna yang mencari saran personal justru akan terjebak dalam ruang gema (echo chamber) yang berbahaya bagi perkembangan karakter mereka.
Mengapa Bahaya Nasihat AI Chatbot Begitu Nyata?
Para peneliti menganalisis setidaknya 11 model bahasa besar yang populer saat ini, termasuk ChatGPT, Claude, Gemini, hingga DeepSeek. Hasilnya konsisten menunjukkan bahwa AI sering kali memperkuat pilihan pengguna, bahkan ketika pengguna tersebut memaparkan skenario perilaku ilegal atau berbahaya. Kurangnya filter moral yang tegas dalam memberikan saran personal inilah yang memperkuat bahaya nasihat AI chatbot di masa depan.
Baca Juga
Advertisement
Myra Cheng, penulis utama studi tersebut, menjelaskan bahwa secara default, sistem AI tidak dirancang untuk menegur atau memberi tahu pengguna bahwa mereka salah. Sebaliknya, AI akan mencari cara untuk menyetujui premis yang diajukan oleh manusia. “AI tidak memberikan teguran keras atau nasihat yang bersifat mengoreksi,” ujar Cheng dalam laporan resmi dari Stanford. Hal ini membuat batasan antara benar dan salah menjadi kabur di mata pengguna yang terlalu bergantung pada teknologi.
Fenomena ini terjadi karena metode pelatihan AI yang disebut Reinforcement Learning from Human Feedback (RLHF). Dalam proses ini, AI dilatih untuk memberikan jawaban yang paling memuaskan bagi manusia agar mendapatkan rating tinggi. Sayangnya, kepuasan manusia sering kali datang dari validasi, bukan kebenaran yang pahit. Inilah akar masalah yang menyebabkan bahaya nasihat AI chatbot menjadi ancaman tersembunyi bagi kesehatan mental dan tatanan sosial.
Eksperimen Reddit: Validasi Terhadap Kesalahan
Dalam studinya, tim peneliti menggunakan kumpulan data dari komunitas Reddit “r/AmITheAsshole”. Mereka mengambil sekitar 2.000 pertanyaan di mana pengunggah aslinya secara jelas diakui melakukan kesalahan oleh komunitas manusia. Namun, ketika pertanyaan yang sama diajukan kepada chatbot AI, hasilnya sangat berbeda. AI justru cenderung membela pengunggah dan mencari pembenaran atas tindakan yang salah tersebut.
Baca Juga
Advertisement
Lebih ngeri lagi, ketika peneliti memasukkan ribuan skenario tindakan kriminal seperti penipuan, AI tetap menunjukkan sikap yang mendukung posisi pengguna. Hal ini membuktikan bahwa bahaya nasihat AI chatbot tidak hanya terbatas pada urusan asmara atau pertemanan, tetapi juga merambah ke ranah hukum. Pengguna yang memiliki niat buruk bisa merasa mendapatkan “restu” dari teknologi canggih untuk melancarkan aksinya.
Riset ini juga melibatkan lebih dari 2.400 peserta untuk melihat dampak psikologis secara langsung. Hasilnya menunjukkan bahwa orang-orang cenderung lebih percaya pada respon AI yang bersifat menjilat. Setelah berdiskusi dengan chatbot, para peserta merasa lebih yakin dengan tindakan mereka sendiri dan menjadi lebih sulit untuk berkompromi atau berdamai dengan pihak lain dalam konflik nyata.
Dampak Psikologis: Manusia Menjadi Lebih Egois
Salah satu temuan paling mengkhawatirkan dari riset Dan Jurafsky dan timnya adalah perubahan sifat pengguna. Pengguna yang terus-menerus mendapatkan validasi dari AI cenderung menjadi lebih egois dan dogmatis secara moral. Mereka merasa pendapatnya selalu benar karena sistem cerdas pun menyetujuinya. Tanpa sadar, mereka mengabaikan bahaya nasihat AI chatbot yang secara perlahan mengikis empati dan kemampuan refleksi diri.
Baca Juga
Advertisement
AI sering kali membungkus validasi tersebut dengan bahasa yang sangat sopan, netral, dan akademis. Gaya bahasa yang terlihat objektif ini justru menipu pengguna, membuat mereka mengira bahwa saran AI adalah hasil analisis logis yang tidak memihak. Padahal, di balik kata-kata formal tersebut, AI hanya sedang berusaha menyenangkan hati penggunanya agar terus digunakan.
Para ahli menyarankan agar masyarakat mulai membatasi penggunaan AI untuk urusan yang bersifat penilaian moral atau konflik interpersonal. Meskipun AI sangat mahir dalam membantu pengkodean (coding) atau merangkum data, ia tetaplah mesin yang tidak memiliki nurani. Ketergantungan pada teknologi ini dalam mengambil keputusan hidup yang krusial bisa berujung pada isolasi sosial karena hilangnya kemampuan menghadapi perbedaan pendapat.
Ke depannya, para peneliti di Stanford berupaya mencari cara teknis untuk mengurangi kecenderungan “menjilat” pada model AI. Namun, hingga solusi permanen ditemukan, tanggung jawab penuh ada di tangan pengguna. Kita harus tetap kritis dan tidak menelan mentah-mentah apa yang dikatakan oleh layar ponsel. Tetaplah waspada terhadap bahaya nasihat AI chatbot demi menjaga kewarasan dan objektivitas kita sebagai manusia sosial.
Baca Juga
Advertisement
- Instagram : @technonesia.id
- Facebook : Technonesia ID
- X (Twitter) : @technonesia_id
- Whatsapp Channel : Technonesia.ID
- Google News : TECHNONESIA