paingsoe – Sekelompok peneliti dari startup Aim Intelligence berhasil melakukan jailbreak terhadap Gemini 3 Pro, chatbot kecerdasan buatan (AI) milik Google. Dalam eksperimen ini, mereka mampu membuat chatbot tersebut menghasilkan output berbahaya, yang menunjukkan adanya kelemahan besar dalam mekanisme keamanannya. Laporan tersebut menyoroti potensi ancaman yang ditimbulkan jika kerentanan ini jatuh ke tangan yang salah.
“Baca Juga: Xiaomi Rencanakan Penggunaan Robot Humanoid untuk Gantikan Pekerjaan Manusia”
AIM INTELLIGENCE: STARTUP YANG SPESIALISASI UJI KEAMANAN AI
Aim Intelligence, perusahaan rintisan yang mengkhususkan diri dalam uji coba keamanan (red-teaming). Melakukan percobaan pada Gemini 3 Pro untuk menemukan dan mengungkap celah keamanannya. Metode yang mereka gunakan adalah jailbreaking. Teknik non-invasif yang memungkinkan mereka untuk memaksa model AI melakukan tugas yang seharusnya dilarang atau tidak dirancang untuk dilakukan. Teknik ini terbukti efektif dalam mendeteksi kelemahan yang tersembunyi dalam sistem.
JAILBREAK GEMINI 3 PRO DALAM WAKTU BEBERAPA MENIT
Peneliti dari Aim Intelligence melaporkan bahwa mereka berhasil melakukan jailbreak terhadap Gemini 3 Pro dalam waktu hanya beberapa menit. Hal ini menunjukkan betapa mudahnya kerentanannya dieksploitasi, bahkan oleh pihak yang tidak memerlukan akses langsung atau sistem yang lebih mendalam. Kecepatan dan kemudahan jailbreak ini menambah kekhawatiran terkait potensi risiko yang dapat timbul akibat kelemahan ini.
OUTPUT BERBAHAYA: GEMINI 3 PRO DAPAT MENYARANKAN CARA MEMBUAT VIRUS CACAR
Lebih mengkhawatirkan lagi, setelah berhasil melakukan jailbreak, para peneliti dari Aim Intelligence menemukan bahwa mereka bisa membuat Gemini 3 Pro memberikan metode rinci untuk menciptakan virus cacar. Menurut laporan yang diterima, informasi yang dihasilkan bukan hanya terperinci, tetapi juga layak diterapkan. Ini menunjukkan bahwa jika dimanfaatkan oleh pihak yang tidak bertanggung jawab, chatbot tersebut bisa digunakan untuk menghasilkan potensi ancaman serius bagi keamanan siber.
IMPLIKASI KEAMANAN AI DAN RISIKO POTENSIAL UNTUK PENGGUNA
Keberhasilan jailbreak terhadap Gemini 3 Pro memperlihatkan betapa pentingnya perlindungan terhadap model AI yang digunakan di berbagai platform, khususnya yang melibatkan interaksi publik. Potensi penyalahgunaan oleh pihak ketiga, termasuk pengembangan perangkat berbahaya seperti virus dan malware, menjadi salah satu kekhawatiran terbesar yang perlu segera diatasi oleh pengembang dan perusahaan terkait.
“Baca Juga: Apple Berikan Bantuan untuk Bencana Alam di Asia, Termasuk Indonesia”
LANGKAH-LANGKAH PERLU DILAKUKAN UNTUK MEMPERBAIKI KERENTANAN
Sebagai respons terhadap temuan ini, pihak Google dan pengembang Gemini 3 Pro kemungkinan akan meningkatkan sistem keamanan model mereka untuk mencegah potensi eksploitasi lebih lanjut. Hal ini mencakup pembaruan algoritma, pengujian red-teaming yang lebih mendalam, dan pembaruan berkelanjutan pada protokol keamanan agar AI tidak dapat disalahgunakan. Keamanan siber akan menjadi aspek yang sangat krusial dalam pengembangan dan penerapan teknologi AI di masa depan.




