Para Ahli Prediksi AI Superintelijen Dapat Bangun Pasukan Robot Musnahkan Umat Manusia
Teknologi

Dengan AI yang semakin canggih dan ada di mana-mana, para pakar teknologi khawatir umat manusia akan punah dari muka bumi oleh virus sintetis dan cara lain jika kita tidak menekan tombol pemusnah massal.
Ilmuwan komputer Eliezer Yudkowsky dan Nate Soares membuat prediksi apokaliptik ini dalam buku distopia terbaru mereka, "If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All."
"Jika perusahaan atau kelompok mana pun, di mana pun di planet ini, membangun kecerdasan super buatan menggunakan teknik yang mirip dengan yang ada saat ini, berdasarkan pemahaman AI yang mirip dengan yang ada saat ini, maka semua orang, di mana pun di Bumi, akan mati," para pakar AI yang bekerja di Machine Intelligence Research Institute (MIR) Berkeley memperingatkan dalam pengantar buku yang tidak terlalu halus ini.
Banyak pakar teknologi memandang AI sebagai sesuatu yang ofensif — yang membuatnya ada di mana-mana di setiap sektor, mulai dari akademis hingga kencan — sebagai evolusi alami dan anugerah bagi umat manusia. Layaknya di setiap film fiksi ilmiah, mulai dari "Ex-Machina" hingga "Terminator," AI bahkan dapat berevolusi hingga memperhitungkan bahwa manusia tidak lagi diperlukan, kata para ahli, dilansir New York Post.
Peringatan Yudkowsky: Umat Manusia Perlu Mundur
"Umat manusia perlu mundur," Yudkowsky memperingatkan, yang telah memperingatkan tentang risiko teknologi yang ditimbulkan oleh AI selama bertahun-tahun di situs web yang ia bantu ciptakan, LessWrong.com.
"Jika ada perusahaan atau kelompok, di mana pun di planet ini, membangun kecerdasan super buatan, maka semua orang, di mana pun di Bumi, akan mati."
Tim ahli menanggapi hal ini dengan serius, percaya bahwa "hanya satu dari mereka yang perlu bekerja agar umat manusia punah."
Robot akan Jalankan Pembangkit Listrik dan Pabrik
Para ahli khawatir bahwa pada akhirnya pembangkit listrik dan pabrik akan dijalankan oleh robot, alih-alih manusia — setelah itu mereka akan menganggap kita sekali pakai dan memunculkan naluri teknologi kita, lapor Vox.
Lebih parah lagi, otak manusia yang relatif kecil mungkin bahkan tidak dapat memahami sudut serangan pada waktunya.
Teknologi bunglon ini berpotensi menyembunyikan niat jahatnya hingga mungkin sudah terlambat untuk menghentikannya.
"Musuh superintelijen tidak akan mengungkapkan kemampuan penuhnya dan menyampaikan niatnya," demikian peringatan keduanya, lapor Daily Star.
Ilmuwan: Superintelijen Buatan harus Dicegah
Faktanya, menurut para ilmuwan, satu-satunya cara untuk menghentikan hari penghakiman adalah dengan mencegahnya sejak awal dengan mengebom pusat data mana pun yang menunjukkan tanda-tanda superintelijen buatan.
Meskipun tampak mengada-ada, keduanya memperkirakan peluang kiamat AI antara 95% dan 99,5%.***
Sumber: New York Post