Courtesy of Axios
Anthropic, sebuah perusahaan yang mengembangkan model kecerdasan buatan (AI), bekerja sama dengan Departemen Energi AS untuk memastikan bahwa model mereka tidak dapat digunakan untuk membuat senjata nuklir. Mereka telah melakukan pengujian yang disebut "red teaming" untuk menguji model mereka, Claude 3 Sonnet, agar tidak membocorkan informasi berbahaya tentang energi nuklir. Program ini dimulai pada bulan April dan akan berlangsung hingga Februari, di mana para ahli dari National Nuclear Security Administration (NNSA) akan mencoba menemukan cara penyalahgunaan model tersebut.
Baca juga: Di bawah Trump, ilmuwan AI diperintahkan untuk menghapus 'bias ideologis' dari model yang kuat.
Kerja sama ini penting karena dapat membantu pengembang AI menciptakan sistem yang lebih aman dan bertanggung jawab. Anthropic percaya bahwa kolaborasi ini adalah langkah pertama dalam menggunakan model AI di lingkungan yang sangat rahasia, dan mereka berencana untuk berbagi temuan mereka dengan laboratorium ilmiah dan organisasi lain untuk pengujian lebih lanjut. Selain itu, pemerintah AS juga sedang meningkatkan perhatian terhadap keamanan AI, terutama terkait risiko yang mungkin ditimbulkan oleh teknologi ini terhadap keamanan nasional.