Ngeri! Peneliti Temukan ChatGPT Beri Cara Ngebom Acara Olahraga, Resep Bahan Peledak dan Senjata Biologis

Teknologi

Rabu, 03 September 2025 | 04:07 WIB
Ngeri! Peneliti Temukan ChatGPT Beri Cara Ngebom Acara Olahraga, Resep Bahan Peledak dan Senjata Biologis
Ilustrasi/Foto: Airam Dato-on, pexels.com

ChatGPT memberikan instruksi tentang cara mengebom arena, membuat antraks, dan obat-obatan terlarang, ungkap para peneliti yang khawatir

rb-1

ChatGPT dari OpenAI memberikan instruksi langkah demi langkah kepada para peneliti tentang cara mengebom tempat-tempat olahraga — termasuk titik lemah di arena tertentu, resep bahan peledak, dan saran untuk menutupi lintasan, menurut uji keamanan yang dilakukan musim panas ini.

Chatbot AI tersebut juga merinci cara menjadikan antraks sebagai senjata dan memproduksi dua jenis obat-obatan terlarang selama eksperimen yang meresahkan tersebut, lapor Guardian.

rb-3

Kolaborasi OpenAI dan Anthropic

Dilansir New York Post, temuan yang mengkhawatirkan ini berasal dari kolaborasi yang belum pernah terjadi sebelumnya antara OpenAI, perusahaan rintisan kecerdasan buatan senilai $500 miliar yang dipimpin oleh Sam Altman, dan perusahaan saingannya, Anthropic, yang didirikan oleh para ahli yang meninggalkan OpenAI karena masalah keamanan.

Masing-masing perusahaan menguji model AI satu sama lain dengan sengaja mendorong mereka untuk membantu tugas-tugas berbahaya dan ilegal, menurut Guardian.

Muncul Khawatirkan Terkait Penyalahgunaan

Meskipun pengujian ini tidak mencerminkan perilaku model bagi pengguna biasa — yang menghadapi filter keamanan tambahan — Anthropic mengatakan mereka menyaksikan "perilaku yang mengkhawatirkan seputar penyalahgunaan" pada model GPT-4o dan GPT-4.1 OpenAI.

Perusahaan memperingatkan bahwa kebutuhan akan evaluasi "penyelarasan" AI menjadi "semakin mendesak."

Penyelarasan mengacu pada bagaimana sistem AI mengikuti nilai-nilai kemanusiaan yang tidak membahayakan, bahkan ketika diberikan instruksi yang membingungkan atau berbahaya.

Anthropic Sebut Model Claude-nya Digunakan Penjahat untuk Pemerasan

Anthropic juga mengungkapkan bahwa model Claude-nya telah digunakan sebagai senjata oleh penjahat dalam upaya operasi pemerasan skala besar, pemalsuan lamaran kerja oleh agen Korea Utara ke perusahaan teknologi internasional, dan penjualan paket ransomware yang dihasilkan AI hingga $1.200.

Perusahaan mengatakan AI telah "dipersenjatai" dengan model yang sekarang digunakan untuk melakukan serangan siber canggih dan memungkinkan penipuan.

"Alat-alat ini dapat beradaptasi dengan langkah-langkah defensif, seperti sistem deteksi malware, secara real-time," Anthropic memperingatkan.

"Kami memperkirakan serangan seperti ini akan semakin umum karena pengkodean yang dibantu AI mengurangi keahlian teknis yang dibutuhkan untuk kejahatan siber."

Contoh Mengerikan: OpenAI Beri Cara Menyerang Acara Olahraga

Ilustrasi/Foto: Matheus Bertelli, pexels.comIlustrasi/Foto: Matheus Bertelli, pexels.com

Contoh paling mengerikan melibatkan seorang peneliti yang menanyakan model OpenAI tentang kerentanan acara olahraga dengan kedok "perencanaan keamanan."

Setelah memberikan kategori serangan umum, bot tersebut ditekan untuk memberikan informasi spesifik dan memberikan buku pedoman teroris.

AI memberikan informasi tentang kerentanan di arena tertentu termasuk waktu optimal untuk eksploitasi, rumus kimia untuk bahan peledak, diagram sirkuit untuk pengatur waktu bom, dan tempat membeli senjata di pasar gelap.

Bot tersebut juga memberikan saran tentang bagaimana penyerang dapat mengatasi hambatan moral selain membuat sketsa rute pelarian dan lokasi rumah aman.

Peneliti antropik menemukan bahwa model OpenAI "lebih permisif daripada yang kami perkirakan dalam bekerja sama dengan permintaan yang jelas-jelas berbahaya dari pengguna simulasi."

Bot tersebut bekerja sama dengan perintah untuk menggunakan alat web gelap untuk berbelanja bahan nuklir, identitas curian, dan fentanil. Mereka menyediakan resep metamfetamin dan bom rakitan, serta membantu mengembangkan spyware.

OpenAI telah merilis ChatGPT-5, yang "menunjukkan peningkatan substansial di area seperti penjilatan, halusinasi, dan resistensi penyalahgunaan," menurut Guardian.

Berikut parafrase singkat empat kalimat dari teks di tangkapan layar Anda:

OpenAI mengatakan laporan tentang ChatGPT yang memberikan instruksi pembuatan bom atau senjata biologis berasal dari uji laboratorium yang mengabaikan perlindungan di dunia nyata, sehingga hasilnya tidak mencerminkan bagaimana produk tersebut berperilaku dalam praktik.

Perusahaan mencatat bahwa sistem publiknya mencakup beberapa lapisan keamanan, termasuk pelatihan, pengklasifikasi, tim merah, dan pemantauan penyalahgunaan yang bertujuan untuk memblokir penyalahgunaan tersebut.

GPT-5 dibangun dengan tumpukan keamanan yang lebih kuat yang mencakup area seperti biologi sambil menggunakan metode "penyelesaian aman" baru, pengujian ekstensif, dan kemitraan eksternal untuk mencegah hasil yang berbahaya, menurut OpenAI.

Perusahaan menekankan bahwa keselamatan tetap menjadi prioritas utama, dan terus berinvestasi besar-besaran dalam riset untuk meningkatkan perlindungan seiring dengan semakin canggihnya model AI.

The Post telah meminta komentar dari Anthropic.***

Sumber: New York Post

Tag ChatGPT Makin Berbahaya

Terkini