OpenAI e Anthropic realizam testes cruzados sobre questões de alucinação e segurança dos modelos
Jinse Finance reportou que a OpenAI e a Anthropic recentemente avaliaram os modelos uma da outra, com o objetivo de identificar possíveis problemas que poderiam ter sido negligenciados em seus próprios testes. Ambas as empresas declararam em seus blogs na quarta-feira que, neste verão, realizaram testes de segurança nos modelos de IA publicamente disponíveis da outra parte, examinando se os modelos apresentavam tendências de alucinação e questões de "desalinhamento", ou seja, situações em que o modelo não opera conforme o esperado pelos desenvolvedores. Essas avaliações foram concluídas antes do lançamento do GPT-5 pela OpenAI e da publicação do Opus 4.1 pela Anthropic no início de agosto. A Anthropic foi fundada por ex-funcionários da OpenAI.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
O índice do dólar subiu ligeiramente para 98,233, enquanto o euro caiu levemente em relação ao dólar.
A versão beta pública do Jupiter Lend já está disponível
Populares
MaisPreços de criptomoedas
Mais








