Irregular Raih Pendanaan Rp1,1 Triliun untuk Amankan AI Masa Depan
Teknologi
Keamanan Siber
18 Sep 2025
174 dibaca
2 menit

Rangkuman 15 Detik
Irregular berkomitmen untuk mengamankan interaksi manusia dengan AI dan AI dengan AI.
Pendanaan baru sebesar $80 juta menunjukkan kepercayaan investor pada potensi perusahaan di sektor keamanan AI.
Sistem evaluasi dan simulasi yang dikembangkan oleh Irregular bertujuan untuk mendeteksi risiko sebelum muncul di dunia nyata.
Perusahaan keamanan AI, Irregular, baru saja mengumumkan pendanaan baru sebesar 80 juta dolar AS yang dipimpin oleh Sequoia Capital dan Redpoint Ventures. Pendanaan ini memberikan valuasi perusahaan sekitar 450 juta dolar AS, dan di dalamnya juga ikut serta CEO dari perusahaan Wiz, Assaf Rappaport. Pendanaan ini bertujuan untuk memperkuat teknologi keamanan yang mereka kembangkan untuk AI.
Irregular, yang sebelumnya dikenal sebagai Pattern Labs, memiliki peran penting dalam evaluasi keamanan model AI seperti Claude 3.7 Sonnet dan model OpenAI o3 dan o4-mini. Mereka juga menciptakan framework bernama SOLVE yang digunakan untuk menilai kemampuan model dalam mendeteksi kerentanan. Framework ini dianggap penting dan sudah diadopsi secara luas di industri AI.
Tujuan utama Irregular adalah mengantisipasi dan mendeteksi risiko yang muncul secara tiba-tiba pada model AI baru sebelum risiko tersebut terlihat dalam penggunaan nyata. Perusahaan membangun sistem simulasi jaringan yang kompleks untuk melakukan pengujian intensif, di mana AI dapat bermain sebagai penyerang maupun pembela, untuk menemukan titik lemah pada model AI sebelum diluncurkan.
Fokus pada keamanan AI semakin penting karena kemampuan model AI yang semakin besar memberikan risiko baru, misalnya dalam menemukan kerentanan perangkat lunak yang bisa dieksploitasi. OpenAI sendiri meningkatkan protokol keamanannya untuk mencegah potensi spionase korporat. Irregular melihat perlunya pendekatan yang terus berkembang karena tantangan keamanan AI adalah isu yang terus berubah.
Para pendiri Irregular percaya bahwa keamanan model AI adalah usaha jangka panjang dengan banyak pekerjaan di depan. Dengan kemampuan model yang terus maju, maka sistem pengamanan juga harus semakin canggih dan adaptif sehingga risiko masa depan dapat dihadang sejak dini.
Analisis Ahli
Bruce Schneier
Pendekatan menggunakan simulasi jaringan dalam pengujian keamanan AI adalah langkah penting untuk memahami risiko yang sulit diprediksi akibat evolusi model AI yang cepat.Dan Geer
Mengamankan AI memerlukan tidak hanya pengujian statis, tapi juga pengujian dinamis yang menangkap interaksi kompleks – apa yang dilakukan oleh Irregular sudah berada di arah yang benar.