
Seorang pria berusia 60 tahun terpaksa menjalani perawatan intensif di rumah sakit setelah menggunakan natrium bromida sebagai pengganti garam dapur selama tiga bulan. Keputusan ini diambilnya berdasarkan saran yang didapat dari ChatGPT, seperti diungkap dalam laporan terbaru *American College of Physicians Journals* pada Selasa (5/8/2025). Kasus ini menjadi peringatan serius tentang bahaya mengandalkan rekomendasi medis dari kecerdasan buatan tanpa berkonsultasi dengan tenaga kesehatan profesional.
Gejala dan kondisi pasien
Pasien tersebut dilarikan ke rumah sakit dalam keadaan menderita *bromisme*, suatu bentuk keracunan akibat paparan bromida berlebihan. Meski jarang ditemui di era modern, bromida pernah populer pada awal abad ke-20 sebagai bahan obat penenang dan penangkal insomnia. Selama perawatan awal, pria ini menunjukkan gejala parah seperti halusinasi, paranoid, dan rasa haus yang tidak terkendali. “Dia terus-menerus haus, tetapi menolak minum air karena ketakutan yang tidak jelas,” ungkap laporan tersebut, seperti dikutip dari *The Independent*.
Pengakuan pasien
Setelah kondisinya membaik, pasien mengaku telah membeli natrium bromida secara online dan menggunakannya sebagai pengganti garam. Ia terinspirasi oleh informasi dari ChatGPT yang menyebut bromida bisa menjadi alternatif klorida. Latar belakang pendidikannya di bidang gizi mendorongnya untuk mencoba menghilangkan klorida dari menu harian. Namun, peneliti menduga informasi yang ia dapatkan mungkin merujuk pada penggunaan bromida untuk keperluan industri, bukan konsumsi manusia.
Perawatan dan pemulihan
Tim medis memberikan terapi cairan dan elektrolit untuk menstabilkan kondisi pasien sebelum memindahkannya ke unit psikiatri. Selain gangguan mental, ia juga mengalami masalah kulit seperti jerawat dan munculnya *cherry angiomas*—tanda khas keracunan bromida. Setelah tiga minggu menjalani perawatan, akhirnya ia dinyatakan cukup pulih untuk kembali ke rumah.
Peringatan dari peneliti
Para peneliti menekankan bahwa AI seperti ChatGPT rentan menghasilkan informasi yang tidak akurat dan tidak memiliki kemampuan untuk memverifikasi kebenarannya. OpenAI, perusahaan di balik ChatGPT, secara eksplisit menyatakan dalam syarat penggunaan bahwa hasil generasi AI “tidak selalu benar” dan tidak boleh dijadikan patokan tunggal, apalagi pengganti saran medis profesional. “Layanan kami tidak dirancang untuk mendiagnosis atau menangani masalah kesehatan,” tegas pernyataan resmi mereka.