OpenAI dan Anthropic saling menguji model terkait masalah halusinasi dan keamanan
Jinse Finance melaporkan bahwa OpenAI dan Anthropic baru-baru ini saling mengevaluasi model masing-masing untuk menemukan masalah yang mungkin terlewatkan dalam pengujian internal mereka. Kedua perusahaan tersebut menyatakan di blog mereka masing-masing pada hari Rabu bahwa pada musim panas tahun ini, mereka melakukan pengujian keamanan terhadap model AI yang tersedia secara publik milik satu sama lain, dan memeriksa apakah model tersebut memiliki kecenderungan untuk menghasilkan halusinasi, serta masalah yang disebut "misalignment", yaitu ketika model tidak berjalan sesuai dengan harapan pengembang. Evaluasi ini dilakukan sebelum OpenAI meluncurkan GPT-5 dan sebelum Anthropic merilis Opus 4.1 pada awal Agustus. Anthropic didirikan oleh mantan karyawan OpenAI.
Disclaimer: Konten pada artikel ini hanya merefleksikan opini penulis dan tidak mewakili platform ini dengan kapasitas apa pun. Artikel ini tidak dimaksudkan sebagai referensi untuk membuat keputusan investasi.
Kamu mungkin juga menyukai
Indeks Dolar AS naik tipis ke 98.233, Euro terhadap Dolar AS turun sedikit
Versi beta publik Jupiter Lend sekarang sudah online
Swarm Network menyelesaikan pendanaan sebesar 13 juta dolar AS, dengan partisipasi dari Sui Foundation dan lainnya
Berita trending
LainnyaHarga kripto
Lainnya








