Courtesy of TechCrunch
Ikhtisar 15 Detik
- Dario Amodei menekankan pentingnya interpretabilitas dalam pengembangan AI untuk memastikan keamanan.
- Anthropic berkomitmen untuk melakukan penelitian lebih lanjut dalam memahami cara kerja model AI.
- Regulasi yang mendukung penelitian interpretabilitas diharapkan dapat membantu mengurangi risiko yang terkait dengan AI yang kuat.
Amerika Serikat - Dario Amodei, CEO Anthropic, menyoroti kurangnya pemahaman peneliti tentang cara kerja model AI terkemuka. Untuk mengatasi hal ini, Amodei menetapkan tujuan ambisius bagi Anthropic untuk mendeteksi sebagian besar masalah model AI secara andal pada tahun 2027. Amodei mengakui tantangan yang dihadapi dan menekankan perlunya penelitian lebih lanjut untuk menguraikan sistem ini seiring dengan semakin kuatnya mereka.
Anthropic adalah salah satu perusahaan pionir dalam interpretabilitas mekanistik, sebuah bidang yang bertujuan untuk membuka kotak hitam model AI dan memahami mengapa mereka membuat keputusan tertentu. Meskipun ada peningkatan kinerja yang cepat dari model AI di industri teknologi, kita masih memiliki pemahaman yang relatif sedikit tentang bagaimana sistem ini mencapai keputusan mereka. Misalnya, OpenAI baru-baru ini meluncurkan model AI baru yang lebih baik dalam beberapa tugas tetapi lebih sering berhalusinasi, dan perusahaan tidak tahu mengapa hal ini terjadi.
Amodei menyatakan bahwa mencapai AGI tanpa memahami cara kerja model AI bisa berbahaya. Dalam jangka panjang, Anthropic ingin melakukan 'pemeriksaan otak' atau 'MRI' pada model AI canggih untuk mengidentifikasi berbagai masalah dalam model AI. Amodei juga mendorong perusahaan lain seperti OpenAI dan Google DeepMind untuk meningkatkan upaya penelitian mereka di bidang ini dan meminta pemerintah untuk memberlakukan regulasi ringan untuk mendorong penelitian interpretabilitas.
Pertanyaan Terkait
Q
Apa tujuan utama Dario Amodei dalam esainya?A
Tujuan utama Dario Amodei adalah untuk menekankan pentingnya memahami cara kerja model AI dan menetapkan target untuk mendeteksi masalah model AI pada tahun 2027.Q
Mengapa interpretabilitas penting dalam pengembangan AI?A
Interpretabilitas penting karena AI akan menjadi bagian sentral dari ekonomi dan keamanan nasional, dan kita perlu memahami bagaimana sistem ini membuat keputusan.Q
Apa yang dimaksud dengan 'AGI' menurut Amodei?A
AGI, atau kecerdasan umum buatan, menurut Amodei adalah kondisi di mana sistem AI memiliki kemampuan setara dengan 'sekelompok jenius' yang terpusat di satu tempat.Q
Apa langkah yang diusulkan Amodei untuk meningkatkan penelitian interpretabilitas?A
Amodei mengusulkan agar perusahaan seperti OpenAI dan Google DeepMind meningkatkan upaya penelitian di bidang interpretabilitas dan meminta pemerintah untuk menerapkan regulasi ringan.Q
Bagaimana Anthropic berencana untuk memahami lebih dalam tentang model AI?A
Anthropic berencana untuk melakukan 'pemeriksaan kesehatan' pada model AI untuk mengidentifikasi masalah dan memahami lebih baik bagaimana model tersebut bekerja.