5 Alasan Mengapa Anda Tidak Harus Mempercayai ChatGPT untuk Saran Medis

5 Alasan Mengapa Anda Tidak Harus Mempercayai ChatGPT untuk Saran Medis
Pembaca seperti Anda membantu mendukung MUO. Saat Anda melakukan pembelian menggunakan tautan di situs kami, kami dapat memperoleh komisi afiliasi. Baca selengkapnya.

ChatGPT—bot obrolan kecerdasan buatan (AI) yang dikembangkan oleh OpenAI—telah menjadi alat lengkap untuk menjawab banyak pertanyaan sederhana dan sulit, termasuk permintaan nasihat medis. Itu dapat menjawab pertanyaan medis dan lulus Ujian Perizinan Medis Amerika Serikat (USMLE), tetapi tidak dapat menggantikan janji temu dengan dokter di rumah sakit.





GUNAKAN VIDEO HARI INI GULIR UNTUK LANJUTKAN DENGAN KONTEN

Seiring kemajuan ChatGPT, ia memiliki potensi untuk mengubah sepenuhnya sektor perawatan kesehatan. Ketika terintegrasi dengan sistem kesehatan, ini dapat meningkatkan akses pasien ke perawatan dan meningkatkan efisiensi kerja dokter. Namun, karena berbasis AI, ada beberapa kekhawatiran tentang potensi bahayanya.





1. ChatGPT Memiliki Pengetahuan yang Terbatas

  Babi ke hati

ChatGPT tidak mengetahui segalanya. Menurut OpenAI, ChatGPT memiliki pengetahuan yang terbatas, terutama terkait apa yang terjadi setelah September 2021.





ChatGPT tidak memiliki akses langsung ke mesin pencari atau internet. Itu dilatih menggunakan sejumlah besar data teks dari berbagai sumber, termasuk buku, situs web, dan teks lainnya. Itu tidak 'tahu' data yang dikirimkannya. Sebagai gantinya, ChatGPT menggunakan teks yang telah dibacanya untuk membuat prediksi tentang kata yang akan digunakan dan urutannya.

Oleh karena itu, tidak bisa mendapatkan berita terkini tentang perkembangan di bidang medis. Ya, ChatGPT tidak mengetahui tentang transplantasi jantung babi ke manusia atau terobosan terbaru lainnya dalam ilmu kedokteran.



2. ChatGPT Dapat Menghasilkan Informasi yang Salah

ChatGPT dapat menjawab pertanyaan yang Anda ajukan, tetapi jawabannya bisa tidak akurat atau bias. Menurut a Kesehatan Digital PLoS belajar, ChatGPT dilakukan dengan akurasi setidaknya 50% di semua ujian USMLE. Dan meski melebihi ambang batas 60% dalam beberapa aspek, masih ada kemungkinan kesalahan.

Selain itu, tidak semua informasi yang digunakan untuk melatih ChatGPT adalah asli. Respons berdasarkan informasi yang tidak diverifikasi atau berpotensi bias mungkin salah atau ketinggalan zaman. Dalam dunia kedokteran, informasi yang tidak akurat bahkan bisa memakan korban jiwa.





bagaimana cara menghapus halaman bisnis di facebook

Karena ChatGPT tidak dapat meneliti atau memverifikasi materi secara independen, ia tidak dapat membedakan antara fakta dan fiksi. Jurnal medis ternama, termasuk Journal of American Medical Association (JAMA), telah menetapkan peraturan ketat bahwa hanya manusia yang dapat menulis studi ilmiah yang dipublikasikan di jurnal tersebut. Sebagai akibat, Anda harus selalu memeriksa fakta tanggapan ChatGPT .

3. ChatGPT Tidak Memeriksa Anda Secara Fisik

Diagnosis medis tidak semata-mata tergantung pada gejala. Dokter dapat memperoleh wawasan tentang pola dan tingkat keparahan suatu penyakit melalui pemeriksaan fisik pasien. Untuk mendiagnosis pasien, dokter saat ini menggunakan teknologi medis dan panca indera.





ChatGPT tidak dapat melakukan pemeriksaan virtual lengkap atau bahkan pemeriksaan fisik; itu hanya dapat membalas gejala yang Anda berikan sebagai pesan. Demi keselamatan dan perawatan pasien, kesalahan dalam pemeriksaan fisik—atau sama sekali mengabaikan pemeriksaan fisik—bisa berbahaya. Karena ChatGPT tidak memeriksa Anda secara fisik, ini akan memberikan diagnosis yang salah.

4. ChatGPT Dapat Memberikan Informasi Palsu

  Tanggapan Salah ChatGPT

Sebuah studi terbaru oleh Fakultas Kedokteran Universitas Maryland atas saran ChatGPT untuk skrining kanker payudara ditemukan hasil sebagai berikut:

'Kami telah melihat dalam pengalaman kami bahwa ChatGPT terkadang membuat artikel jurnal palsu atau konsorsium kesehatan untuk mendukung klaimnya.' —Paul Yi M.D., Asisten Profesor Radiologi Diagnostik dan Kedokteran Nuklir di UMSOM

Sebagai bagian dari pengujian ChatGPT kami, kami meminta daftar buku non-fiksi yang mencakup subjek pikiran bawah sadar. Akibatnya, ChatGPT menghasilkan buku palsu berjudul 'Kekuatan Pikiran Bawah Sadar' oleh Dr. Gustav Kuhn.

Ketika kami menanyakan tentang buku itu, ia menjawab bahwa itu adalah buku 'hipotetis' yang dibuatnya. ChatGPT tidak akan memberi tahu Anda jika artikel jurnal atau buku palsu jika Anda tidak menanyakan lebih lanjut.

5. ChatGPT Hanya Model Bahasa AI

  Medis ChatGPT

Model bahasa berfungsi dengan menghafal dan menggeneralisasi teks daripada memeriksa atau mempelajari kondisi pasien. Meskipun menghasilkan tanggapan yang sesuai dengan standar manusia dalam hal bahasa dan tata bahasa, ChatGPT masih mengandung sejumlah masalah , seperti bot AI lainnya.

ChatGPT Bukan Pengganti Dokter Anda

Dokter manusia akan selalu dibutuhkan untuk membuat keputusan akhir tentang perawatan kesehatan. ChatGPT biasanya menyarankan untuk berbicara dengan praktisi kesehatan berlisensi saat Anda meminta nasihat medis.

Alat bertenaga kecerdasan buatan seperti ChatGPT dapat digunakan untuk menjadwalkan janji dengan dokter, membantu pasien menerima perawatan, dan menjaga informasi kesehatan mereka. Tapi itu tidak bisa menggantikan keahlian dan empati dokter.

Anda tidak boleh mengandalkan alat berbasis AI untuk mendiagnosis atau merawat kesehatan Anda, baik fisik maupun mental.