
“Pria Alami Kondisi Langka Usai Konsultasi Diet Garam dengan ChatGPT – Kisah Nyata!”
Pria Alami Gangguan Jiwa Usai Ikut Saran Diet dari ChatGPT
Seorang pria berusia 60 tahun mengalami gangguan kejiwaan setelah mengikuti rekomendasi diet dari ChatGPT, seperti diungkap dalam laporan kasus yang diterbitkan di *Annals of Internal Medicine: Clinical Cases*. Tanpa riwayat masalah psikologis sebelumnya, pria ini tiba-tiba dirawat di rumah sakit akibat gejala paranoia dan halusinasi, yang ternyata dipicu oleh keracunan zat kimia.
Diet Ekstrem Tanpa Garam, Beralih ke Zat Berbahaya
Pria tersebut mengaku berhenti mengonsumsi natrium klorida (garam) setelah membaca dampak buruknya bagi kesehatan. Ia kemudian berkonsultasi dengan ChatGPT dan memutuskan menghilangkan garam sepenuhnya dari makanannya. Tak hanya menghindari makanan tertentu, ia bahkan menyuling air minumnya sendiri di rumah.
Selama tiga bulan, ia mengganti garam dengan natrium bromida—zat yang dibelinya secara online setelah ChatGPT menyebut bromida bisa menjadi alternatif klorida. Namun, ia tidak menyadari bahwa bromida umumnya digunakan untuk keperluan industri, seperti pembersih, bukan untuk dikonsumsi.
Gejala Keracunan dan Rawat Inap Mendadak
Meski asupan natrium berlebihan bisa berbahaya, tubuh tetap membutuhkannya dalam jumlah tepat. Pria ini justru mengalami bromisme, atau keracunan bromida, kondisi langka yang pernah populer di awal abad ke-20. Gejalanya muncul ketika ia dirawat dengan keluhan rasa haus ekstrem, tetapi menolak minum air karena paranoid.
Dalam 24 jam pertama, kondisinya memburuk: ia mengalami halusinasi pendengaran dan penglihatan, lalu mencoba kabur dari rumah sakit. Akibatnya, ia harus menjalani perawatan psikiatri darurat dan sempat mengalami disabilitas berat.
AI dan Risiko Saran Kesehatan yang Tidak Terkendali
Tim dokter dari University of Washington, Seattle, menegaskan kasus ini menunjukkan bahaya mengandalkan AI untuk nasihat medis tanpa pengawasan profesional. Mereka tidak bisa memastikan detail percakapan pasien dengan ChatGPT, tetapi saat mengetes pertanyaan serupa, chatbot memang merekomendasikan bromida tanpa peringatan risiko atau klarifikasi tujuan penggunaan.
“Berbeda dengan tenaga medis yang akan mengevaluasi konteks dan bahayanya,” tulis peneliti, menekankan bahwa AI tidak memiliki kemampuan untuk mempertimbangkan dampak kesehatan secara menyeluruh. Pria tersebut akhirnya pulih setelah dirawat karena psikosis, tetapi kasusnya menjadi peringatan tentang potensi jebakan teknologi dalam memberikan informasi kesehatan.