Chat GPT

Bisa Sebar Malware! Badan Intelijen Inggris Peringatkan Chat GPT dan Chatbot AI Lain Berbahaya

Editor: Elma Gloria Stevani
AA

Text Sizes

Medium

Large

Larger

Badan intelijen Inggris memperingatkan potensi ancaman keamanan pada Chat GPT dan chatbot pesaing lainnya.

TRIBUNJATIM.COM - Di saat semua orang berlomba-lomba menciptakan Model Bahasa Besar (LLM) atau Kecerdasan Buatan (AI) generatif, badan intelijen Inggris memperingatkan potensi ancaman keamanan pada Chat GPT dan chatbot pesaing lainnya.

National Cyber ​​​​Security Centre (NCSC) bagian dari Government Communications Headquarters (GCHQ) Inggris menerbitkan sebuah postingan pada blog resmi, yang menyatakan telah menyelidiki mekanisme AI generatif.

Meskipun, dikatakan mereka LLM tidak diragukan lagi mengesankan, itu bukan kecerdasan umum buatan dan mengandung beberapa kelemahan serius.

NCSC merekomendasikan pengguna untuk tidak memasukkan informasi pribadi atau sensitif ke dalam perangkat lunak, baik itu besutan OpenAI maupun yang lainnya.

Menurut NCSC, ada potensi kebocoran privasi dan penggunaan data ilegal oleh penjahat dunia maya.

Sebab, LLM dilatih pada kumpulan data besar (seluruh internet), tetapi begitu informasi itu dicerna, mereka tidak terus belajar dari petunjuk yang dimasukkan oleh pengguna, di mana Chat GPT menerima jutaan informasi per hari.

Saat ini, memang tidak ada risiko chatbot mengulangi kueri pengguna sebagai bagian dari jawaban untuk orang lain, semua kueri disimpan oleh pengembangnya.

Namun suatu hari, NCSC berpendapat, pengembang dapat menggunakan kueri tersimpan ini untuk mengembangkan model LLM lebih lanjut.

"Sebuah pertanyaan mungkin sensitif karena data disertakan dalam kueri, atau karena siapa yang mengajukan pertanyaan (dan kapan). Ingat juga agregasi informasi di beberapa kueri menggunakan info masuk yang sama," ungkap NCSC, seperti dikutip TribunJatim.com dari DailyMail.

Selain digunakan oleh pengembang, lebih berbahaya lagi kueri juga dapat diretas, dibocorkan, atau secara tidak sengaja dipublikasikan.

Meskipun browser web biasanya menyimpan riwayat penelusuran dan rentan terhadap situasi serupa, pengguna dapat menghapus penelusuran sebelumnya.

Dalam kasus penggunaan yang lebih jahat, NCSC juga menyatakan chatbot berbasis LLM akan mampu membantu peretas atau penipu membuat email phishing yang lebih meyakinkan dalam berbagai bahasa.

Selain itu, alat tersebut juga dapat membantu penyerang dalam menulis malware lebih canggih daripada yang pernah mereka coba sebelumnya.

Lainnya, penyerang yang kurang terampil juga dapat membuat malware berkemampuan tinggi lewat LLM.

Tentang kelemahan dalam LLM sebagai lawan dari kecerdasan umum buatan, pengembang NCSC, Holy Grail menyoroti sejumlah masalah, termasuk bot melakukan kesalahan dan berhalusinasi fakta yang salah, menunjukkan bias dan menjadi mudah tertipu, dan dibujuk untuk membuat konten beracun.

Halaman
123

Berita Terkini