Sering Gunakan AI Browser? Ini 5 Langkah Perlindungan dari Ancaman Injeksi Prompt
Rilis mendadak chatbot berbasis kecerdasan buatan, ChatGPT, menghebohkan dunia dan memicu gelombang penerapan AI dalam berbagai perangkat. Teknologi ini kini digunakan mulai dari kamera pengawas hingga alat produktivitas modern.
Konsep agentic AI semakin berkembang, memungkinkan model AI menjalankan tugas yang membutuhkan penalaran dan pengumpulan informasi. Namun, kemampuan ini juga membawa risiko baru ketika mulai diintegrasikan ke dalam browser.
Baca Juga: Kenalan dengan Tilly Norwood, Aktris AI Ciptaan Hollywood yang Ditolak Emily Blunt
Para pakar keamanan memperingatkan bahwa prompt injection attack atau serangan injeksi prompt menjadi ancaman serius bagi pengguna AI browser. Google bahkan menugaskan Red Team khusus untuk mengidentifikasi penyalahgunaan seperti data poisoning, adversarial prompts, backdoor, hingga prompt injection.
Serangan prompt injection terjadi ketika pelaku menyisipkan instruksi berbahaya ke dalam text prompt untuk memanipulasi respons AI. Tindakan ini dapat menghasilkan jawaban yang bias, salah, menyesatkan, atau bahkan berbahaya.
Peneliti Cato CTRL baru-baru ini mengungkap teknik HashJack yang menyembunyikan instruksi berbahaya melalui URL fragments. Jika pengguna membuka situs tersebut dan berinteraksi dengan AI browser, hidden prompts dapat muncul dalam bentuk jawaban palsu atau tautan phishing yang mencuri data pribadi.
Baca Juga: 2 Prompt Bikin Saya Ketemu Diri Sendiri di Masa Lalu Pakai Nano Banana Gemini AI
Cara Tetap Aman
Ilustrasi AI browser. [ftnews-copilot]
Walaupun pengurangan risiko prompt injection lebih berada di tangan para pengembang AI browser, berikut lima cara untuk menjaga dan melindungi privasi serta keamanan Anda bila menggunakan AI browser seperti dikutip ZDNet:
1. Berhati-hatilah saat mengungkapkan informasi sensitif atau pribadi
Baik menggunakan browser tradisional maupun AI browser, Anda harus selalu berhati-hati dalam membagikan informasi pribadi — termasuk data keuangan. Seorang programmer di X berkomentar bahwa kerentanan prompt injection pada agentic AI browsers dapat menyebabkan bencana finansial bagi pengguna.
2. Lakukan pembaruan dan pemasangan tambalan (patch)
Sama seperti perangkat lunak tradisional, AI browser dan sistem AI memerlukan pembaruan keamanan dan vulnerability patch. Jika Anda tidak memperbarui ketika tersedia, Anda bisa membuka celah bagi eksploit yang menyebabkan prompt injection attack. Hal ini juga berlaku bagi perangkat apa pun yang menggunakan AI, termasuk laptop dan ponsel Anda.
3. Jangan menganggap AI dapat dipercaya
Seperti yang ditunjukkan teknik HashJack, hanya karena AI chat atau asisten menjawab pertanyaan Anda, bukan berarti jawabannya akurat atau aman. AI bukan sumber pengetahuan sempurna yang aman, dan Anda harus berhati-hati mengklik tautan atau lampiran yang terlihat mencurigakan.
4. AI juga dapat melakukan phishing
Ilustrasi Artificial Intelligence [Ftmews-Meta Ai]
Jika Anda menggunakan AI untuk menangani email atau membuat dokumen atas nama Anda, dan AI tersebut terkompromi, phishing bisa juga terjadi melalui AI. Verifikasilah tautan, nomor telepon, atau detail kontak apa pun yang diberikan melalui asisten AI sebelum menggunakannya, agar Anda tidak terjebak penipuan.
5. Gunakan multi-factor authentication
Tetaplah waspada. AI berkembang, tetapi begitu pula risiko keamanan yang terkait dengannya. Gunakan seluruh alat keamanan dan privasi yang tersedia, termasuk multi-factor authentication (MFA). Dengan begitu, meskipun serangan prompt injection menyebabkan pencurian kredensial akun Anda, Anda masih dapat mencegah penjahat siber mengakses akun tersebut. Disarankan pula untuk menggunakan VPN.