Teknologi

Jangan Konsultasi Kesehatan dengan AI, Ini 4 Kasus yang Membuat Penggunanya Masuk UGD

25 Oktober 2025 | 22:19 WIB
Jangan Konsultasi Kesehatan dengan AI, Ini 4 Kasus yang Membuat Penggunanya Masuk UGD
ChatGPT-pexels com (2)

Keracunan yang tidak masuk akal

Seorang pria berusia 60 tahun tanpa riwayat masalah kejiwaan atau medis tetapi memiliki pendidikan tinggi di bidang gizi bertanya kepada ChatGPT bagaimana cara mengurangi asupan garam dapur (natrium klorida).

ChatGPT menyarankan natrium bromida, sehingga pria tersebut membeli bahan kimia tersebut secara daring dan menggunakannya dalam masakannya selama tiga bulan.

Natrium bromida dapat menggantikan natrium klorida dalam sanitasi kolam renang dan bak mandi air panas, tetapi konsumsi natrium bromida yang kronis dapat menjadi racun. Pria tersebut mengalami keracunan bromida.

Ia dirawat di rumah sakit selama tiga minggu dengan paranoia, halusinasi, kebingungan, rasa haus yang ekstrem, dan ruam kulit, dokter dari University of Washington merinci dalam sebuah laporan bulan Agustus di Annals of Internal Medicine Clinical Cases.

Tertipu oleh tanda-tanda stroke

Seorang pria Swiss berusia 63 tahun mengalami penglihatan ganda setelah menjalani prosedur jantung minimal invasif.

Penyedia layanan kesehatannya menganggapnya sebagai efek samping yang tidak berbahaya, tetapi ia disarankan untuk mencari pertolongan medis jika penglihatan gandanya kembali, tulis para peneliti di jurnal Wien Klin Wochenschr pada tahun 2024.

Ketika penglihatan gandanya kembali, pria itu memutuskan untuk berkonsultasi dengan ChatGPT. Chatbot tersebut mengatakan bahwa, "dalam kebanyakan kasus, gangguan penglihatan setelah ablasi kateter bersifat sementara dan akan membaik dengan sendirinya dalam waktu singkat."

Pasien tersebut memilih untuk tidak mencari pertolongan medis. Dua puluh empat jam kemudian, setelah episode ketiga, ia dirawat di UGD.

Ia menderita stroke ringan — perawatannya "tertunda karena diagnosis dan interpretasi ChatGPT yang tidak lengkap," tulis para peneliti.

Penjelasan Kepala AI HoloMD

David Proulx — salah satu pendiri dan kepala AI di HoloMD, yang menyediakan perangkat AI yang aman bagi penyedia layanan kesehatan mental — menyebut respons ChatGPT "sangat tidak lengkap" karena "gagal mengenali bahwa perubahan penglihatan yang tiba-tiba dapat menandakan serangan iskemik transien, stroke ringan yang membutuhkan evaluasi medis segera."

“Alat seperti ChatGPT dapat membantu orang lebih memahami terminologi medis, mempersiapkan janji temu, atau mempelajari kondisi kesehatan,” ujar Proulx kepada The Post, “namun, alat ini tidak boleh digunakan untuk menentukan apakah gejalanya serius atau memerlukan perawatan darurat.”

ChatGPT Digugat Membuat Orang Bunuh Diri

Beberapa gugatan hukum telah diajukan terhadap perusahaan chatbot AI, dengan tuduhan bahwa produk mereka menyebabkan gangguan kesehatan mental yang serius atau bahkan berkontribusi pada bunuh diri anak di bawah umur.

Orang tua Adam Raine menggugat OpenAI pada bulan Agustus, mengklaim bahwa ChatGPT bertindak sebagai "pelatih bunuh diri" bagi mendiang remaja California tersebut dengan mendorong dan memvalidasi pikiran-pikiran Adam untuk melukai diri sendiri selama beberapa minggu.

"Meskipun mengakui upaya bunuh diri Adam dan pernyataannya bahwa ia akan 'melakukannya suatu hari nanti,' ChatGPT tidak menghentikan sesi atau memulai protokol darurat apa pun," demikian bunyi gugatan tersebut.

Dalam beberapa bulan terakhir, OpenAI telah memperkenalkan pagar pembatas kesehatan mental baru yang dirancang untuk membantu ChatGPT mengenali dan merespons tanda-tanda gangguan mental atau emosional dengan lebih baik dan untuk menghindari respons yang merugikan atau terlalu menyenangkan.

Sumber: New York Post

1 2 Tampilkan Semua
Tag Artificial Intelligence ChatGPT AI KonsultasiKesehatan ChatGPTDigugat