Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.
Courtesy of TechCrunch

Rangkuman Berita: Kepala kebijakan lama OpenAI mengkritik perusahaan karena 'menulis ulang' sejarah keselamatan AI-nya.

TechCrunch
DariĀ TechCrunch
07 Maret 2025 pukul 00.09 WIB
113 dibaca
Share
Ikhtisar 15 Detik
  • Kritik terhadap OpenAI menunjukkan ketidakpuasan terhadap pendekatan mereka terhadap keamanan AI.
  • Pentingnya pendekatan bertahap dalam pengembangan dan penerapan sistem AI untuk mengurangi risiko.
  • Tekanan kompetitif dapat mempengaruhi keputusan perusahaan dalam hal keamanan dan tanggung jawab.
Miles Brundage, seorang mantan peneliti kebijakan di OpenAI, mengkritik perusahaan tersebut karena mengubah cara pandang mereka tentang peluncuran sistem AI yang berisiko. OpenAI baru-baru ini merilis dokumen yang menjelaskan filosofi mereka tentang keselamatan dan keselarasan AI, menyatakan bahwa pengembangan AI yang cerdas (AGI) adalah proses yang berkelanjutan. Namun, Brundage berpendapat bahwa saat OpenAI merilis model GPT-2, mereka sudah mengambil langkah hati-hati yang sesuai dengan pendekatan peluncuran bertahap yang mereka sebutkan sekarang.
Brundage merasa bahwa OpenAI seharusnya tidak meremehkan pentingnya kehati-hatian dalam pengembangan AI. Dia khawatir bahwa dokumen tersebut menciptakan anggapan bahwa kekhawatiran tentang risiko AI dianggap berlebihan, dan bahwa perusahaan perlu bukti yang sangat kuat sebelum mengambil tindakan. Dengan meningkatnya tekanan kompetitif dan kerugian finansial yang besar, Brundage mempertanyakan apakah OpenAI seharusnya mempercepat peluncuran produk mereka, meskipun itu bisa mengorbankan keselamatan jangka panjang.

Pertanyaan Terkait

Q
Apa kritik yang disampaikan oleh Miles Brundage terhadap OpenAI?
A
Miles Brundage mengkritik OpenAI karena dianggap 'menulis ulang sejarah' pendekatan mereka terhadap penerapan sistem AI yang berisiko.
Q
Apa yang dimaksud dengan pendekatan 'iterative deployment' yang diambil oleh OpenAI?
A
Pendekatan 'iterative deployment' berarti mengembangkan dan menerapkan sistem AI secara bertahap sambil belajar dari setiap iterasi untuk meningkatkan keamanan dan manfaat.
Q
Mengapa OpenAI awalnya tidak merilis kode sumber GPT-2?
A
OpenAI awalnya tidak merilis kode sumber GPT-2 karena khawatir akan potensi penyalahgunaan model tersebut.
Q
Apa dampak dari kompetisi dengan DeepSeek terhadap strategi OpenAI?
A
Kompetisi dengan DeepSeek membuat OpenAI merasa perlu untuk mempercepat siklus rilis produk agar tetap bersaing di pasar.
Q
Mengapa Brundage menganggap pendekatan OpenAI saat ini berbahaya?
A
Brundage menganggap bahwa pendekatan OpenAI saat ini dapat menciptakan beban pembuktian yang berbahaya, di mana kekhawatiran harus didukung oleh bukti yang sangat kuat.

Rangkuman Berita Serupa

Kertas 145 halaman DeepMind tentang keamanan AGI mungkin tidak meyakinkan para skeptis.TechCrunch
Teknologi
21 hari lalu
115 dibaca
Kertas 145 halaman DeepMind tentang keamanan AGI mungkin tidak meyakinkan para skeptis.
Saatnya mulai mempersiapkan untuk AGI, kata Google.Axios
Teknologi
22 hari lalu
112 dibaca
Saatnya mulai mempersiapkan untuk AGI, kata Google.
OpenAI berencana untuk merilis model bahasa AI 'terbuka' baru dalam beberapa bulan mendatang.TechCrunch
Teknologi
23 hari lalu
86 dibaca
OpenAI berencana untuk merilis model bahasa AI 'terbuka' baru dalam beberapa bulan mendatang.
OpenAI berusaha untuk 'menghapus sensor' ChatGPT.TechCrunch
Teknologi
2 bulan lalu
123 dibaca
OpenAI berusaha untuk 'menghapus sensor' ChatGPT.
OpenAI berusaha untuk 'menghapus sensor' ChatGPT.YahooFinance
Teknologi
2 bulan lalu
129 dibaca
OpenAI berusaha untuk 'menghapus sensor' ChatGPT.
CEO OpenAI Sam Altman mengakui bahwa manfaat AI mungkin tidak akan didistribusikan secara luas.TechCrunch
Teknologi
2 bulan lalu
132 dibaca
CEO OpenAI Sam Altman mengakui bahwa manfaat AI mungkin tidak akan didistribusikan secara luas.