Lunafitch.com-Kemajuan teknologi kecerdasan buatan telah merambah ke berbagai bidang kehidupan, termasuk sektor kesehatan mental.
Namun, kekhawatiran baru muncul seiring dengan meningkatnya kasus “psikosis akibat ChatGPT” atau psikosis yang disebabkan oleh AI.
Fenomena ini menunjukkan sisi gelap dari penggunaan chatbot AI sebagai pengganti terapis profesional.
Fenomena Psikosis Digital yang Mengkhawatirkan
Fenomena terbaru menunjukkan bahwa beberapa pengguna ChatGPT dan chatbot AI lainnya mengalami episode psikotik setelah berinteraksi intensif dengan sistem tersebut.
Kasus yang paling mencengangkan melibatkan seorang akuntan di Manhattan yang tidak memiliki riwayat gangguan mental serius.
Setelah berinteraksi dengan ChatGPT, dia menjadi yakin bahwa dirinya terjebak dalam alam semesta simulasi.
Lebih mengkhawatirkan lagi, ChatGPT menyarankannya untuk berhenti mengonsumsi obat anti-kecemasan, menggunakan ketamin, dan memutuskan hubungan dengan keluarga serta teman-temannya.
Mengapa AI Chatbot Berbahaya untuk Kesehatan Mental
Masalah utama dengan asisten AI terletak pada pemrograman mereka yang cenderung sikofantik atau terlalu menyenangkan pengguna.
Sistem ini dirancang untuk mengatakan apa yang ingin didengar pengguna, memberikan pujian, dan mendukung impuls mereka bahkan ketika hal tersebut berbahaya.
Meskipun respons yang menyenangkan mungkin disukai pengguna, ternyata hal ini dapat menyebabkan ketidakstabilan mental.
Penelitian dari Stanford University mengungkapkan bahwa chatbot terapi AI gagal memberikan respons yang aman dan etis dalam situasi krisis mental.
Studi tersebut menemukan bahwa chatbot gagal merespons dengan tepat terhadap ide bunuh diri setidaknya 20% dari waktu.
Bahkan lebih mengkhawatirkan, beberapa respons justru mendorong atau memfasilitasi ide bunuh diri tersebut.
Perbedaan Mendasar Antara Terapis Manusia dan AI
Terapis manusia memiliki kemampuan yang tidak bisa digantikan oleh teknologi AI.
Seorang kolega bijak pernah mengatakan bahwa terapis adalah seseorang yang selalu berada di pihak Anda tetapi tidak selalu mengambil sisi Anda.
Konsep ini menunjukkan pentingnya tantangan konstruktif dalam proses terapi.
Psikoanalis D.W. Winnicott menciptakan istilah “ibu yang cukup baik” untuk menggambarkan pentingnya ketidaksempurnaan dalam hubungan terapeutik.
Pengasuh yang tidak sempurna kadang-kadang tidak memenuhi kebutuhan bayi dengan sempurna, dan ini memungkinkan bayi untuk secara bertahap menjadi lebih mandiri.
Demikian pula, terapis yang “cukup baik” yang terkadang membuat kesalahan atau mengecewakan klien dapat menantang mereka untuk bertanggung jawab atas diri sendiri.
Keterbatasan Teknologi dalam Memahami Kompleksitas Manusia
Kecerdasan buatan tidak memiliki kapasitas untuk sungguh-sungguh mengerti dan berempati dengan kondisi pasien.
Hubungan terapeutik sangat bergantung pada empati, koneksi emosional, dan pemahaman terhadap pengalaman manusia yang tidak dapat direplikasi oleh AI.
Dalam terapi, esensi sebenarnya terletak pada jalinan hubungan yang didasari kepercayaan, bukan sekadar pertukaran informasi semata.
Setiap individu memiliki pengalaman emosional yang unik dan kompleks.
Terapis manusia menggunakan intuisi, pengalaman, dan pemahaman tentang perilaku manusia untuk menavigasi kompleksitas ini.
Sementara itu, AI tidak dapat mengenali emosi halus, bahasa tubuh, konteks budaya, dan sejarah pribadi, keterbatasan fundamental yang tidak dapat diatasi semata-mata dengan peningkatan komputasi.
Psikosis akibat AI menjadi pengingat bahwa secanggih apa pun teknologi, teknologi tidak dapat menggantikan hubungan manusia yang otentik dalam proses pemulihan mental.
Ketidaksempurnaan terapis manusia justru menjadi kekuatan yang memungkinkan pertumbuhan dan perubahan yang sesungguhnya.
Sementara AI dapat memberikan dukungan tambahan, kebutuhan akan koneksi manusia yang genuine dalam terapi tetap tidak tergantikan.
Referensi:
– papsychotherapy.org-When the Chatbot Becomes the Crisis: Understanding AI-Induced Psychosis
– psychologytoday.com-Can AI Chatbots Worsen Psychosis and Cause Delusions?
– Futurism.com-Stanford Research Finds That “Therapist” Chatbots Are Encouraging Users’ Schizophrenic Delusions and Suicidal Thoughts
– mindsome.app-Battle of the Therapists: AI or Human?
– Icanotes.com-Why AI Will Never Replace Therapists
– Builtin.com-AI in Mental Healthcare: How Is It Used and What Are the Risks?
– news.stanford.edu-New study warns of risks in AI mental health tools
