Pomodo
HomeTeknologiBisnisSainsFinansial

OpenAI Tunda Rilis Model AI Terbuka, Prioritaskan Uji Keamanan

Teknologi
Kecerdasan Buatan
News Publisher
12 Jul 2025
183 dibaca
2 menit
OpenAI Tunda Rilis Model AI Terbuka, Prioritaskan Uji Keamanan

AI summary

OpenAI menunda peluncuran model terbuka untuk memastikan keselamatan yang lebih baik.
Kimi K2 dari Moonshot AI menjadi pesaing baru yang menarik dalam ekosistem model AI terbuka.
Sam Altman menekankan pentingnya kualitas dan keselamatan dalam pengembangan model AI.
OpenAI mengumumkan penundaan rilis model AI terbuka yang sangat dinantikan. Meskipun rencana awalnya akan dirilis pekan depan, CEO Sam Altman menyatakan perusahaan butuh waktu tambahan untuk melakukan pengujian keamanan. Penundaan ini terjadi setelah penundaan sebelumnya pada awal musim panas.Model AI terbuka ini berbeda dengan model GPT-5 yang juga diharapkan segera rilis karena akan bisa diunduh dan dijalankan secara lokal oleh para pengembang. Ini menjadi langkah besar karena OpenAI menginginkan model yang aman dan berkualitas tinggi sebelum disebarluaskan ke publik.Penundaan ini juga berkaitan dengan risiko tinggi yang perlu ditinjau kembali. Altman menekankan bahwa bobot model yang sudah dirilis tidak bisa ditarik kembali, sehingga OpenAI harus berhati-hati agar tidak melepas model yang membawa potensi bahaya jika belum siap.Selain itu, dunia AI terbuka semakin sengit persaingannya setelah perusahaan seperti Moonshot AI meluncurkan model Kimi K2 yang mampu mengungguli GPT-4.1 dalam beberapa aspek. Ini menambah tekanan bagi OpenAI untuk menghadirkan model terbaik dengan kemampuan canggih.Aidan Clark, VP riset OpenAI yang memimpin proyek ini, mengatakan model yang mereka kembangkan sangat luar biasa dalam hal kemampuan. Namun, standar OpenAI untuk model open source sangat tinggi, sehingga mereka ingin memastikan model yang dirilis benar-benar mereka banggakan serta aman digunakan.

Experts Analysis

Stuart Russell
Menunda peluncuran demi keamanan adalah pendekatan yang bertanggung jawab, mengingat potensi dampak negatif dari model AI terbuka yang kurang terkontrol.
Kate Crawford
Pengujian keamanan dan etika pada model AI terbuka sangat krusial untuk mencegah penyalahgunaan dan konsekuensi sosial yang tidak diinginkan.
Editorial Note
Penundaan ini sangat logis mengingat risiko besar yang bisa muncul dari pelepasan model AI besar tanpa pengujian menyeluruh, terutama jika model tersebut bisa diakses bebas oleh publik. OpenAI memang harus menjaga reputasinya dan menghindari insiden keamanan yang bisa merusak kepercayaan komunitas developer dan publik luas.
Baca Berita Lebih Cepat,Lebih Cerdas
Rangkuman berita terkini yang dipersonalisasi untukmu — tanpa perlu baca panjang lebar.