Pomodo
HomeTeknologiBisnisSainsFinansial

OpenAI Tunda Rilis Model AI Terbuka, Prioritaskan Uji Keamanan

Teknologi
Kecerdasan Buatan
artificial-intelligence (8mo ago) artificial-intelligence (8mo ago)
12 Jul 2025
22 dibaca
2 menit
OpenAI Tunda Rilis Model AI Terbuka, Prioritaskan Uji Keamanan

Rangkuman 15 Detik

OpenAI menunda peluncuran model terbuka untuk memastikan keselamatan yang lebih baik.
Kimi K2 dari Moonshot AI menjadi pesaing baru yang menarik dalam ekosistem model AI terbuka.
Sam Altman menekankan pentingnya kualitas dan keselamatan dalam pengembangan model AI.
OpenAI mengumumkan penundaan rilis model AI terbuka yang sangat dinantikan. Meskipun rencana awalnya akan dirilis pekan depan, CEO Sam Altman menyatakan perusahaan butuh waktu tambahan untuk melakukan pengujian keamanan. Penundaan ini terjadi setelah penundaan sebelumnya pada awal musim panas. Model AI terbuka ini berbeda dengan model GPT-5 yang juga diharapkan segera rilis karena akan bisa diunduh dan dijalankan secara lokal oleh para pengembang. Ini menjadi langkah besar karena OpenAI menginginkan model yang aman dan berkualitas tinggi sebelum disebarluaskan ke publik. Penundaan ini juga berkaitan dengan risiko tinggi yang perlu ditinjau kembali. Altman menekankan bahwa bobot model yang sudah dirilis tidak bisa ditarik kembali, sehingga OpenAI harus berhati-hati agar tidak melepas model yang membawa potensi bahaya jika belum siap. Selain itu, dunia AI terbuka semakin sengit persaingannya setelah perusahaan seperti Moonshot AI meluncurkan model Kimi K2 yang mampu mengungguli GPT-4.1 dalam beberapa aspek. Ini menambah tekanan bagi OpenAI untuk menghadirkan model terbaik dengan kemampuan canggih. Aidan Clark, VP riset OpenAI yang memimpin proyek ini, mengatakan model yang mereka kembangkan sangat luar biasa dalam hal kemampuan. Namun, standar OpenAI untuk model open source sangat tinggi, sehingga mereka ingin memastikan model yang dirilis benar-benar mereka banggakan serta aman digunakan.

Analisis Ahli

Stuart Russell
Menunda peluncuran demi keamanan adalah pendekatan yang bertanggung jawab, mengingat potensi dampak negatif dari model AI terbuka yang kurang terkontrol.
Kate Crawford
Pengujian keamanan dan etika pada model AI terbuka sangat krusial untuk mencegah penyalahgunaan dan konsekuensi sosial yang tidak diinginkan.