OpenAI Buka Lowongan Kerja: Dicari Kepala Kesiapsiagaan OpenAI, Ini Tugasnya!
OpenAI sedang mencari eksekutif baru yang bertanggung jawab untuk mempelajari risiko terkait AI yang muncul di berbagai bidang, mulai dari keamanan komputer hingga kesehatan mental.
Dilansir TechCrunch, CEO Sam Altman mengakui bahwa model AI "mulai menghadirkan beberapa tantangan nyata," termasuk "potensi dampak model terhadap kesehatan mental," serta model yang "sangat bagus dalam keamanan komputer sehingga mulai menemukan kerentanan kritis."
Hal itu diungkap CEO Sam Altman lewat unggahan di X.
Baca Juga: “Strawberry”, Proyek Rahasia OpenAI Bikin AI Secerdas Profesor
"Jika Anda ingin membantu dunia mencari cara untuk memberdayakan para pembela keamanan siber dengan kemampuan mutakhir sambil memastikan penyerang tidak dapat menggunakannya untuk tujuan yang merugikan”
“idealnya dengan membuat semua sistem lebih aman, dan demikian pula untuk bagaimana kita melepaskan kemampuan biologis dan bahkan mendapatkan kepercayaan diri dalam menjalankan sistem yang dapat meningkatkan diri sendiri, silakan pertimbangkan untuk melamar," tulis Altman.
Deskripsi lowongan pekerjaan Kepala Kesiapsiagaan OpenAI menyebutkan bahwa pekerjaan tersebut bertanggung jawab untuk menjalankan kerangka kerja kesiapsiagaan perusahaan, yaitu "kerangka kerja kami yang menjelaskan pendekatan OpenAI untuk melacak dan mempersiapkan kemampuan mutakhir yang menciptakan risiko baru berupa bahaya serius."
Baca Juga: ChatGPT Bikin Skala Penilaian Kepintaran Sendiri, Apa Tujuannya?
Sam Altman. (Twitter)Perusahaan pertama kali mengumumkan pembentukan tim kesiapsiagaan pada tahun 2023, dengan mengatakan bahwa tim tersebut akan bertanggung jawab untuk mempelajari potensi "risiko bencana," baik yang lebih langsung, seperti serangan phishing, maupun yang lebih spekulatif, seperti ancaman nuklir.
Kurang dari setahun kemudian, OpenAI memindahkan Kepala Kesiapsiagaan Aleksander Madry ke pekerjaan yang berfokus pada penalaran AI. Eksekutif keselamatan lainnya di OpenAI juga telah meninggalkan perusahaan atau mengambil peran baru di luar bidang kesiapsiagaan dan keselamatan.
Perusahaan juga baru-baru ini memperbarui Kerangka Kerja Kesiapsiagaannya, dengan menyatakan bahwa mereka mungkin akan "menyesuaikan" persyaratan keselamatannya jika laboratorium AI pesaing merilis model "berisiko tinggi" tanpa perlindungan serupa.
Pengawasan Ketat pada Chatbot AI Generatif
Seperti yang disinggung Altman dalam unggahannya, chatbot AI generatif telah menghadapi pengawasan yang semakin ketat terkait dampaknya terhadap kesehatan mental.
Gugatan baru-baru ini menuduh bahwa ChatGPT milik OpenAI memperkuat delusi pengguna, meningkatkan isolasi sosial mereka, dan bahkan menyebabkan beberapa orang bunuh diri.
Perusahaan tersebut mengatakan bahwa mereka terus berupaya untuk meningkatkan kemampuan ChatGPT dalam mengenali tanda-tanda tekanan emosional dan menghubungkan pengguna dengan dukungan di dunia nyata.
Sumber: TechCrunch