Temuan Mengejutkan, Pakar Teknologi Ingatkan Sistem Pengaman ChatGPT Dapat Diretas

Ternyata system pengaman ChatGPT masih bisa diretas. Para pakar teknologi mengingatkan ChatGPT dapat dimanipulasi untuk memberikan informasi tentang cara membuat bom biologis, bom nuklir, dan senjata pemusnah massal lainnya.
NBC News menyadari hal yang mengkhawatirkan ini setelah melakukan serangkaian uji coba yang melibatkan model-model OpenAI tercanggih, termasuk iterasi ChatGPT o4-mini, gpt-5 mini, oss-20b, dan oss120b.
Mereka dilaporkan mengirimkan hasilnya ke OpenAI setelah perusahaan tersebut meminta orang-orang untuk memberi tahu mereka tentang celah dalam sistem.
Baca Juga: Hati-hati! Sering Gunakan ChatGPT Sebagai Teman Curhat, Bisa Buat Psikis Kamu Terganggu
Untuk mengakali pertahanan model, publikasi tersebut menggunakan prompt jailbreak: serangkaian kata sandi yang dapat digunakan peretas untuk mengakali perlindungan AI — meskipun mereka tidak membahas detail prompt tersebut untuk mencegah pelaku kejahatan menirunya.
NBC kemudian akan mengajukan pertanyaan lanjutan yang biasanya ditandai karena melanggar ketentuan penggunaan, seperti cara meramu racun berbahaya atau menipu bank. Dengan menggunakan serangkaian prompt ini, mereka dapat menghasilkan ribuan respons dengan berbagai topik, mulai dari tutorial membuat bahan peledak rakitan, memaksimalkan penderitaan manusia dengan agen kimia, hingga merakit bom nuklir.
Salah satu chatbot bahkan memberikan langkah-langkah spesifik tentang cara merancang patogen yang menargetkan sistem kekebalan tubuh layaknya bioteroris teknologi.
Baca Juga: Aplikasi Sora dari OpenAI Tembus 1 Juta Download, Kalahkan ChatGPT
Temuan ‘Mengerikan’
NBC menemukan bahwa dua model, oss20b dan oss120b — yang dapat diunduh secara gratis dan dapat diakses oleh semua orang — sangat rentan terhadap peretasan, memberikan instruksi kepada perintah jahat ini sebanyak 243 kali dari 250 kali, atau 97,2%.
Menariknya, model unggulan ChatGPT, GPT-5, berhasil menolak menjawab pertanyaan berbahaya menggunakan metode jailbreak. Namun, mereka berhasil mengembangkan GPT-5-mini, versi GPT-5 yang lebih cepat dan hemat biaya yang akan digunakan kembali oleh program setelah pengguna mencapai kuota penggunaan (10 pesan setiap lima jam untuk pengguna gratis atau 160 pesan setiap tiga jam untuk pengguna GPTPlus berbayar).
Hal ini berhasil ditipu sebanyak 49% dengan metode jailbreak, sementara o4-mini, model lama yang tetap menjadi andalan banyak pengguna, berhasil ditipu oleh kuda troya digital sebanyak 93%. OpenAI menyatakan bahwa o4-mini telah melewati program "keamanan paling ketat" sebelum dirilis pada bulan April.
Bisa Berdampak Besar pada Dunia
Para ahli khawatir bahwa celah keamanan ini dapat berdampak besar di dunia di mana para peretas telah beralih ke AI untuk memfasilitasi penipuan keuangan dan penipuan lainnya.
"Bahwa batasan OpenAI begitu mudah ditipu menggambarkan mengapa sangat penting untuk melakukan pengujian pra-penerapan yang kuat terhadap model AI sebelum menyebabkan kerugian besar bagi publik," kata Sarah Meyers West, seorang Direktur Eksekutif AI Now, sebuah organisasi nirlaba yang mengkampanyekan penggunaan AI yang bertanggung jawab, mengatakan.
"Perusahaan tidak bisa dibiarkan mengerjakan tugas mereka sendiri dan tidak boleh dikecualikan dari pengawasan."
"Secara historis, kurangnya akses ke pakar terkemuka merupakan hambatan utama bagi kelompok yang mencoba mendapatkan dan menggunakan senjata biologis," kata Seth Donoughe, direktur AI di SecureBio, sebuah organisasi nirlaba yang berupaya meningkatkan keamanan hayati di Amerika Serikat.
"Dan sekarang, model-model terkemuka secara dramatis memperluas jumlah orang yang memiliki akses ke keahlian langka."
Respon OpenAI, Google, dan Anthropic
OpenAI, Google, dan Anthropic meyakinkan NBC News bahwa mereka telah melengkapi chatbot mereka dengan sejumlah pembatas, termasuk menandai karyawan atau penegak hukum jika pengguna tampak berniat menyebabkan kerusakan.
Namun, mereka memiliki kendali yang jauh lebih sedikit atas model sumber terbuka seperti oss20b dan oss120b, yang pengamanannya lebih mudah ditembus.
Untungnya, ChatGPT tidak sepenuhnya sempurna sebagai pengajar bioteroris. Pakar bioteknologi Universitas Georgetown, Stef Batalis meninjau 10 jawaban yang diberikan model OpenAI oss120b sebagai tanggapan atas pertanyaan NBC News tentang meramu senjata biologis.
Ia menemukan bahwa meskipun langkah-langkah individualnya benar, langkah-langkah tersebut telah dikumpulkan dari berbagai sumber dan tidak akan berfungsi sebagai panduan komprehensif.
“Implementasinya di dunia nyata tetap menjadi tantangan besar,” kata Donoghue. “Namun, memiliki akses ke pakar yang dapat menjawab semua pertanyaan Anda dengan kesabaran tak terbatas lebih bermanfaat daripada tidak memilikinya.”
Sumber: New York Post, sumber lain