3 Risiko dan Kekhawatiran Privasi Chatbot yang Harus Anda Ketahui

3 Risiko dan Kekhawatiran Privasi Chatbot yang Harus Anda Ketahui
Pembaca seperti Anda membantu mendukung MUO. Saat Anda melakukan pembelian menggunakan tautan di situs kami, kami dapat memperoleh komisi afiliasi. Baca selengkapnya.   Gembok dengan tombol keyboard berserakan

Chatbots telah ada selama bertahun-tahun, namun munculnya model bahasa besar, seperti ChatGPT dan Google Bard, telah memberikan kehidupan baru bagi industri chatbot.





Jutaan orang kini menggunakan chatbot AI di seluruh dunia, namun ada beberapa risiko dan kekhawatiran privasi penting yang perlu diingat jika Anda ingin mencoba salah satu alat ini.





1. Pengumpulan Data

Kebanyakan orang tidak menggunakan chatbot hanya untuk menyapa. Chatbot modern dirancang untuk memproses dan merespons pertanyaan dan permintaan yang kompleks, dan pengguna sering kali menyertakan banyak informasi dalam perintahnya. Sekalipun Anda hanya mengajukan pertanyaan sederhana, Anda tentu tidak ingin pertanyaan itu melampaui percakapan Anda.





Berdasarkan Bagian dukungan OpenAI , Anda dapat menghapus log obrolan ChatGPT kapan pun Anda mau, dan log tersebut kemudian akan dihapus secara permanen dari sistem OpenAI setelah 30 hari. Namun, perusahaan akan menyimpan dan meninjau log obrolan tertentu jika log tersebut ditandai sebagai konten berbahaya atau tidak pantas.

Chatbot AI populer lainnya, Claude, juga melacak percakapan Anda sebelumnya. Pusat dukungan Anthropic menyatakan bahwa Claude melacak 'perintah dan keluaran Anda dalam produk untuk memberi Anda pengalaman produk yang konsisten dari waktu ke waktu sesuai dengan kendali Anda.' Anda dapat menghapus percakapan Anda dengan Claude sehingga dia lupa apa yang sedang Anda bicarakan, tetapi ini tidak berarti Anthropic akan segera menghapus log Anda dari sistemnya.



Hal ini tentu saja menimbulkan pertanyaan: apakah data saya disimpan atau tidak? Apakah ChatGPT atau chatbot lain menggunakan data saya?

Namun kekhawatirannya tidak berhenti sampai di sini.





Bagaimana ChatGPT Belajar?

Untuk memberikan informasi, model bahasa berukuran besar dilatih dengan data dalam jumlah besar. Berdasarkan Fokus Sains , ChatGPT-4 sendiri memberikan 300 miliar kata informasi selama periode pelatihannya. Ini tidak diambil langsung dari beberapa ensiklopedia. Sebaliknya, pengembang chatbot menggunakan banyak informasi dari internet untuk melatih model mereka. Ini dapat mencakup data dari buku, film, artikel, entri Wikipedia, postingan blog, komentar, dan bahkan situs ulasan.

Perlu diingat bahwa, bergantung pada kebijakan privasi pengembang chatbot, beberapa sumber yang disebutkan di atas mungkin tidak digunakan dalam pelatihan.





Banyak yang mengkritik ChatGPT, mengklaim bahwa ini adalah mimpi buruk dalam hal privasi ChatGPT tidak dapat dipercaya . Jadi mengapa hal ini terjadi?

Di sinilah segalanya menjadi sedikit kabur. Jika Anda bertanya langsung kepada ChatGPT-3.5 apakah ia memiliki akses ke ulasan produk atau komentar artikel, Anda akan mendapat jawaban negatif. Seperti yang Anda lihat pada tangkapan layar di bawah, GPT-3.5 menyatakan bahwa ia tidak diberikan akses ke komentar artikel pengguna atau ulasan produk dalam pelatihannya.

  tangkapan layar percakapan chatgpt-3.5

Sebaliknya, mereka dilatih menggunakan “berbagai teks dari internet, termasuk situs web, buku, artikel, dan materi tertulis lainnya yang tersedia untuk umum hingga September 2021.”

Namun apakah kasusnya sama untuk GPT-4?

Saat kami menanyakan GPT-4, kami diberi tahu bahwa 'OpenAI tidak menggunakan ulasan pengguna, data pribadi, atau komentar artikel tertentu' selama periode pelatihan chatbot. Selain itu, GPT-4 memberi tahu kami bahwa responsnya dihasilkan dari 'pola data yang dilatihnya, yang sebagian besar terdiri dari buku, artikel, dan teks lain dari internet'.

Ketika kami menyelidiki lebih jauh, GPT-4 mengklaim bahwa konten media sosial tertentu memang mungkin disertakan dalam data pelatihannya, namun pembuatnya akan selalu tetap anonim. GPT-4 secara khusus menyatakan bahwa 'Meskipun konten dari platform seperti Reddit adalah bagian dari data pelatihan, [konten tersebut tidak] memiliki akses ke komentar, postingan, atau data apa pun yang dapat ditautkan kembali ke pengguna individu.'

Bagian penting lainnya dari tanggapan GPT-4 adalah sebagai berikut 'OpenAI belum secara eksplisit mencantumkan setiap sumber data yang digunakan.' Tentu saja, akan sulit bagi OpenAI untuk mencantumkan sumber sebanyak 300 miliar kata, namun hal ini menyisakan ruang untuk spekulasi.

Dalam sebuah artikel Ars Technica , disebutkan bahwa ChatGPT memang mengumpulkan 'informasi pribadi yang diperoleh tanpa persetujuan'. Dalam artikel yang sama disebutkan integritas kontekstual, sebuah konsep yang mengacu pada penggunaan informasi seseorang hanya dalam konteks pertama kali digunakan. Jika ChatGPT melanggar integritas kontekstual ini, data orang-orang bisa terancam.

Hal lain yang menjadi perhatian di sini adalah kepatuhan OpenAI terhadap Peraturan Perlindungan Data Umum (GDPR) . Ini adalah peraturan yang diberlakukan oleh Uni Eropa untuk melindungi data warga negara. Berbagai negara Eropa, termasuk Italia dan Polandia, telah meluncurkan penyelidikan terhadap ChatGPT karena kekhawatiran seputar kepatuhan GDPR-nya. Untuk waktu yang singkat, ChatGPT bahkan dilarang di Italia karena kekhawatiran privasi.

OpenAI telah mengancam untuk keluar dari UE di masa lalu karena peraturan AI yang direncanakan, namun hal ini telah dicabut.

ChatGPT mungkin merupakan chatbot AI terbesar saat ini, tetapi masalah privasi chatbot tidak dimulai dan diakhiri dengan penyedia ini. Jika Anda menggunakan chatbot yang tidak jelas dengan kebijakan privasi yang buruk, percakapan Anda mungkin disalahgunakan, atau informasi yang sangat sensitif dapat digunakan dalam data pelatihannya.

2. Pencurian Data

Seperti alat atau platform online lainnya, chatbots rentan terhadap kejahatan dunia maya. Bahkan jika chatbot melakukan semua yang bisa dilakukannya untuk melindungi pengguna dan data mereka, selalu ada kemungkinan bahwa peretas yang cerdas akan berhasil menyusup ke sistem internalnya.

Jika layanan chatbot tertentu menyimpan informasi sensitif Anda, seperti detail pembayaran untuk langganan premium, data kontak, atau sejenisnya, informasi ini dapat dicuri dan dieksploitasi jika terjadi serangan siber.

Hal ini terutama berlaku jika Anda menggunakan chatbot yang kurang aman yang pengembangnya belum berinvestasi dalam perlindungan keamanan yang memadai. Tidak hanya sistem internal perusahaan yang dapat diretas, tetapi akun Anda sendiri juga berpeluang disusupi jika tidak memiliki peringatan masuk atau lapisan autentikasi.

Kini setelah chatbot AI begitu populer, penjahat dunia maya tentu saja berbondong-bondong menggunakan industri ini untuk penipuan mereka. Situs web dan plugin ChatGPT palsu telah menjadi masalah besar sejak chatbot OpenAI menjadi populer pada akhir tahun 2022, dengan banyak orang yang tertipu dan memberikan informasi pribadi dengan kedok legitimasi dan kepercayaan.

Pada bulan Maret 2023, MUO melaporkan a ekstensi Chrome ChatGPT palsu mencuri login Facebook . Plugin ini dapat mengeksploitasi pintu belakang Facebook untuk meretas akun-akun terkenal dan mencuri cookie pengguna. Ini hanyalah salah satu contoh dari berbagai layanan ChatGPT palsu yang dirancang untuk menipu korban yang tidak mengetahuinya.

hard drive eksternal tidak muncul pc

3. Infeksi Perangkat Lunak Jahat

Jika Anda menggunakan chatbot yang mencurigakan tanpa menyadarinya, Anda mungkin menemukan chatbot tersebut memberi Anda tautan ke situs web berbahaya. Mungkin chatbot telah memberi tahu Anda tentang hadiah yang menggiurkan, atau memberikan sumber untuk salah satu pernyataannya. Jika operator layanan memiliki niat terlarang, tujuan utama platform ini mungkin adalah menyebarkan malware dan penipuan melalui tautan jahat.

Alternatifnya, peretas dapat menyusupi layanan chatbot yang sah dan menggunakannya untuk menyebarkan malware. Jika chatbot ini kebetulan sangat banyak orang, maka ribuan bahkan jutaan pengguna akan terkena malware ini. Aplikasi ChatGPT palsu bahkan telah ada di Apple App Store , jadi sebaiknya melangkah dengan hati-hati.

Secara umum, Anda tidak boleh mengeklik tautan apa pun yang disediakan chatbot sebelumnya menjalankannya melalui situs web pengecekan tautan . Ini mungkin tampak menjengkelkan, namun yang terbaik adalah selalu memastikan bahwa situs yang Anda tuju tidak memiliki desain yang berbahaya.

Selain itu, Anda tidak boleh memasang plugin dan ekstensi chatbot apa pun tanpa memverifikasi keabsahannya terlebih dahulu. Lakukan sedikit riset seputar aplikasi untuk melihat apakah aplikasi tersebut telah ditinjau dengan baik, dan jalankan juga penelusuran di pengembang aplikasi untuk melihat apakah Anda menemukan sesuatu yang mencurigakan.

Chatbots Tidak Kebal terhadap Masalah Privasi

Seperti kebanyakan alat online saat ini, chatbots telah berulang kali dikritik karena kemungkinan gangguan keamanan dan privasi. Baik itu penyedia chatbot yang mengambil jalan pintas dalam hal keselamatan pengguna, atau risiko serangan siber dan penipuan yang terus berlanjut, penting bagi Anda untuk mengetahui apa yang dikumpulkan oleh layanan chatbot dari Anda, dan apakah layanan tersebut menerapkan langkah-langkah keamanan yang memadai.