Pria Ini Keracunan Usai Konsultasi Diet Sama ChatGPT

Internasional

Pria Ini Keracunan Usai Konsultasi Diet Sama ChatGPT

Rachmatunnisa - detikKalimantan
Senin, 11 Agu 2025 13:00 WIB
Portland, OR, USA - May 19, 2023: Assorted productivity apps are seen on an iPhone, including ChatGPT, Microsoft 365, Slack, Google, Teams, Trello, Dropbox, Google Drive, and Zoom.
Ilustrasi ChatGPT/Foto: Getty Images/hapabapa
Balikpapan -

Seorang pria mengubah pola makannya setelah konsultasi diet pada ChatGPT. Namun tiga bulan kemudian, ia dirawat di UGD dengan gejala kejiwaan baru yang mengkhawatirkan, termasuk paranoia dan halusinasi.

Dikutip detikInet, pria berusia 60 tahun itu menderita bromisme, suatu sindrom yang disebabkan paparan kronis berlebihan terhadap senyawa kimia bromida atau senyawa sejenisnya, bromin. Dalam kasus ini, pria tersebut mengonsumsi natrium bromida yang dibelinya secara daring.

Mengenai kasus pria tersebut dipublikasikan di jurnal Annals of Internal Medicine Clinical Cases pada 5 Agustus 2025. Dalam laporan yang dikutip dari Live Science, OpenAI selaku pengembang ChatGPT telah dihubungi terkait kasus tersebut.

ADVERTISEMENT

SCROLL TO CONTINUE WITH CONTENT

Juru bicara OpenAI merespons dengan mengarahkan ke informasi terkait ketentuan layanan perusahaan, yang menyatakan layanannya tidak ditujukan untuk diagnosis atau pengobatan kondisi kesehatan apa pun, dan ketentuan penggunaannya.

"Anda tidak diperkenankan mengandalkan layanan kami sebagai satu-satunya sumber kebenaran atau informasi faktual, atau sebagai pengganti nasihat profesional," demikian bunyi keterangan tersebut.

Juru bicara tersebut menambahkan tim keamanan OpenAI bertujuan untuk mengurangi risiko penggunaan layanan perusahaan dan melatih produk mereka agar mendorong pengguna untuk mencari nasihat profesional.

Sementara itu, di unit gawat darurat, hasil laboratoriumnya saat itu menunjukkan penumpukan karbon dioksida dalam darahnya, serta peningkatan alkalinitas (kebalikan dari keasaman). Ia juga tampak memiliki kadar klorida yang tinggi dalam darahnya, tetapi kadar natriumnya normal.

Setelah diselidiki lebih lanjut, ternyata ini adalah kasus 'pseudohiperkloremia', yang berarti tes laboratorium untuk klorida memberikan hasil yang salah karena senyawa lain dalam darah, yaitu bromida dalam jumlah besar, mengganggu pengukuran. Setelah berkonsultasi dengan literatur medis dan Pusat Pengendalian Racun, dokter pria tersebut menentukan diagnosis yang paling mungkin adalah bromisme.

Usai dirawat untuk pemantauan elektrolit dan pemulihan, pria tersebut mengatakan sangat haus tetapi paranoid terhadap air yang ditawarkan. Setelah seharian penuh di rumah sakit, paranoianya semakin parah dan ia mulai mengalami halusinasi.

Bahkan, pria itu mencoba melarikan diri dari rumah sakit, yang mengakibatkan dirinya harus mengalami penahanan untuk penanganan psikiatrik. Selama masa penahanan tersebut, ia mulai menerima antipsikotik .

Kondisi vital pria tersebut stabil setelah diberikan cairan dan elektrolit, dan seiring membaiknya kondisi mentalnya setelah mengonsumsi antipsikotik. Ia dapat memberi tahu dokter tentang penggunaan ChatGPT. Ia juga mencatat gejala-gejala tambahan yang baru-baru ini ia sadari, seperti jerawat di wajah dan benjolan merah kecil di kulitnya, yang mungkin merupakan reaksi hipersensitivitas terhadap bromida. Ia juga mengalami insomnia, kelelahan, masalah koordinasi otot, dan rasa haus yang berlebihan, yang semakin menunjukkan bromisme.

Dalam proses penyembuhannya, dosis antipsikotik secara bertahap dikurangi selama tiga minggu, lalu diperbolehkan pulang dari rumah sakit. Kondisinya terpantau tetap stabil saat kontrol dua minggu kemudian.

"Meskipun AI merupakan alat yang sangat potensial untuk menjembatani antara ilmuwan dan komunitas nonakademis, AI juga berisiko menyebarkan informasi yang tidak kontekstual," simpul para penulis laporan.

"Sangat kecil kemungkinan seorang pakar medis akan menyebutkan natrium bromida ketika dihadapkan dengan pasien yang mencari pengganti natrium klorida yang layak," kata mereka.

Mereka menekankan seiring meningkatnya penggunaan AI, penyedia layanan kesehatan perlu mempertimbangkan hal ini saat menyaring di mana pasien mereka mengonsumsi informasi kesehatan. Kasus ini menambah kekhawatiran terkait saran medis dari AI. Sekelompok ilmuwan lain baru-baru ini menguji enam LLM, termasuk ChatGPT, dengan meminta model tersebut menafsirkan catatan klinis yang ditulis oleh dokter.

Mereka menemukan bahwa LLM sangat rentan terhadap serangan halusinasi adversarial, yang berarti LLM sering menghasilkan detail klinis palsu yang menimbulkan risiko jika digunakan tanpa pengaman.

Menerapkan perbaikan teknis dapat mengurangi tingkat kesalahan tetapi tidak menghilangkannya, demikian temuan para peneliti. Hal ini menyoroti cara lain bagaimana LLM dapat menimbulkan risiko dalam pengambilan keputusan medis.

Baca selengkapnya di sini.




(sun/des)
Berita Terkait

 

 

 

 

 

 

 

 

Hide Ads