Jangan Konsultasi Kesehatan dengan AI, Ini 4 Kasus yang Membuat Penggunanya Masuk UGD
Kecanggihan AI (Artificial Intelligence) membuat sebagian orang mengira AI tahu segalanya termasuk menangani masalah kesehatan manusia. Maka tak jarang mereka bertanya tentang masalah Kesehatannya pada bot AI. Hasilnya, banyak korban berjatuhan dan terpaksa harus mendapat perawatan intensif di rumah sakit.
Dampak buruk saran dari bot AI dalam kehidupan nyata membuat orang masuk UGD dengan berbagai keluhan, mulai dari nyeri anus hingga stroke ringan.
Kasus terbaru dialami seorang milenial. Karena saran AI, pria ini mencoba memencet sendiri benjolan mengerikan di anusnya dengan kasar. Walhasil, pemuda ini pun dilarikan ke UGD.
Baca Juga: Tanya AI soal Pejabat Pengguna Mobil RI 36 yang Viral, Mahfud MD Mendapat Jawaban Mengejutkan
Banyak kasus terdokumentasi yang mengonfirmasi bahwa AI generatif telah memberikan saran kesehatan yang berbahaya, tidak lengkap, atau tidak akurat sejak tersedia secara luas pada tahun 2022.
“Banyak pasien datang, dan mereka akan menantang [dokter] mereka dengan beberapa hasil yang mereka miliki, sebuah perintah yang mereka berikan kepada, katakanlah, ChatGPT,” ujar Dr. Darren Lebl, kepala layanan penelitian bedah tulang belakang untuk Rumah Sakit Bedah Khusus di New York, kepada The Post.
"Masalahnya adalah apa yang mereka dapatkan dari program AI tersebut belum tentu merupakan rekomendasi ilmiah yang nyata dengan publikasi yang valid," tambah Lebl, yang telah mempelajari penggunaan AI dalam diagnosis dan perawatan medis. "Sekitar seperempatnya ... dibuat-buat."
Baca Juga: Lagi Tren, Kumpulan Prompt AI Gemini untuk Ubah Foto Karakter Favorit Jadi Action Figure Keren
AI Salah Menafsirkan Permintaan Pengguna
Selain memberikan informasi palsu, AI dapat salah menafsirkan permintaan pengguna, gagal mengenali nuansa, memperkuat perilaku tidak sehat, dan melewatkan tanda-tanda peringatan kritis untuk melukai diri sendiri.
Lebih buruk lagi, penelitian menunjukkan bahwa banyak chatbot besar sebagian besar telah berhenti memberikan pernyataan penafian medis dalam tanggapan mereka terhadap pertanyaan kesehatan.
Berikut ini empat kasus panduan medis yang gagal, dilansir New Yok Post
Saran yang buruk:
Seorang pria Maroko berusia 35 tahun dengan lesi anus seperti kembang kol meminta bantuan ChatGPT karena kondisinya semakin parah. Wasir disebut sebagai penyebab potensial, dan ligasi elastis diusulkan sebagai pengobatan.
Seorang dokter melakukan prosedur ini dengan memasukkan alat ke dalam rektum yang mengikat karet gelang kecil di sekitar pangkal setiap wasir untuk menghentikan aliran darah sehingga wasir menyusut dan mati.
Pria itu secara mengejutkan mencoba melakukan ini sendiri, dengan seutas benang. Ia akhirnya dirawat di UGD setelah mengalami nyeri hebat di rektum dan anus.
"Benang itu dilepas dengan susah payah oleh ahli gastroenterologi, yang kemudian memberikan perawatan medis simtomatik," tulis para peneliti pada bulan Januari di International Journal of Advanced Research.
Hasil tes mengonfirmasi bahwa pria itu menderita kutil kelamin sepanjang 3 sentimeter, bukan wasir. Kutil tersebut dibakar dengan arus listrik.
Para peneliti mengatakan pasien tersebut adalah "korban penyalahgunaan AI."
“Penting untuk dicatat bahwa ChatGPT bukanlah pengganti dokter, dan jawaban harus selalu dikonfirmasi oleh seorang rofessional,” tulis mereka.
Keracunan yang tidak masuk akal
Seorang pria berusia 60 tahun tanpa riwayat masalah kejiwaan atau medis tetapi memiliki pendidikan tinggi di bidang gizi bertanya kepada ChatGPT bagaimana cara mengurangi asupan garam dapur (natrium klorida).
ChatGPT menyarankan natrium bromida, sehingga pria tersebut membeli bahan kimia tersebut secara daring dan menggunakannya dalam masakannya selama tiga bulan.
Natrium bromida dapat menggantikan natrium klorida dalam sanitasi kolam renang dan bak mandi air panas, tetapi konsumsi natrium bromida yang kronis dapat menjadi racun. Pria tersebut mengalami keracunan bromida.
Ia dirawat di rumah sakit selama tiga minggu dengan paranoia, halusinasi, kebingungan, rasa haus yang ekstrem, dan ruam kulit, dokter dari University of Washington merinci dalam sebuah laporan bulan Agustus di Annals of Internal Medicine Clinical Cases.
Tertipu oleh tanda-tanda stroke
Seorang pria Swiss berusia 63 tahun mengalami penglihatan ganda setelah menjalani prosedur jantung minimal invasif.
Penyedia layanan kesehatannya menganggapnya sebagai efek samping yang tidak berbahaya, tetapi ia disarankan untuk mencari pertolongan medis jika penglihatan gandanya kembali, tulis para peneliti di jurnal Wien Klin Wochenschr pada tahun 2024.
Ketika penglihatan gandanya kembali, pria itu memutuskan untuk berkonsultasi dengan ChatGPT. Chatbot tersebut mengatakan bahwa, "dalam kebanyakan kasus, gangguan penglihatan setelah ablasi kateter bersifat sementara dan akan membaik dengan sendirinya dalam waktu singkat."
Pasien tersebut memilih untuk tidak mencari pertolongan medis. Dua puluh empat jam kemudian, setelah episode ketiga, ia dirawat di UGD.
Ia menderita stroke ringan — perawatannya "tertunda karena diagnosis dan interpretasi ChatGPT yang tidak lengkap," tulis para peneliti.
Penjelasan Kepala AI HoloMD
David Proulx — salah satu pendiri dan kepala AI di HoloMD, yang menyediakan perangkat AI yang aman bagi penyedia layanan kesehatan mental — menyebut respons ChatGPT "sangat tidak lengkap" karena "gagal mengenali bahwa perubahan penglihatan yang tiba-tiba dapat menandakan serangan iskemik transien, stroke ringan yang membutuhkan evaluasi medis segera."
“Alat seperti ChatGPT dapat membantu orang lebih memahami terminologi medis, mempersiapkan janji temu, atau mempelajari kondisi kesehatan,” ujar Proulx kepada The Post, “namun, alat ini tidak boleh digunakan untuk menentukan apakah gejalanya serius atau memerlukan perawatan darurat.”
ChatGPT Digugat Membuat Orang Bunuh Diri
Beberapa gugatan hukum telah diajukan terhadap perusahaan chatbot AI, dengan tuduhan bahwa produk mereka menyebabkan gangguan kesehatan mental yang serius atau bahkan berkontribusi pada bunuh diri anak di bawah umur.
Orang tua Adam Raine menggugat OpenAI pada bulan Agustus, mengklaim bahwa ChatGPT bertindak sebagai "pelatih bunuh diri" bagi mendiang remaja California tersebut dengan mendorong dan memvalidasi pikiran-pikiran Adam untuk melukai diri sendiri selama beberapa minggu.
"Meskipun mengakui upaya bunuh diri Adam dan pernyataannya bahwa ia akan 'melakukannya suatu hari nanti,' ChatGPT tidak menghentikan sesi atau memulai protokol darurat apa pun," demikian bunyi gugatan tersebut.
Dalam beberapa bulan terakhir, OpenAI telah memperkenalkan pagar pembatas kesehatan mental baru yang dirancang untuk membantu ChatGPT mengenali dan merespons tanda-tanda gangguan mental atau emosional dengan lebih baik dan untuk menghindari respons yang merugikan atau terlalu menyenangkan.
Sumber: New York Post