OpenAI e Anthropic realizam testes cruzados sobre questões de alucinação e segurança dos modelos
Jinse Finance informou que a OpenAI e a Anthropic recentemente avaliaram os modelos uma da outra, com o objetivo de identificar possíveis questões que poderiam ter sido negligenciadas em seus próprios testes. As duas empresas anunciaram em seus respectivos blogs na quarta-feira que, neste verão, realizaram testes de segurança nos modelos de IA publicamente disponíveis da outra parte, examinando se os modelos apresentavam tendências de alucinação e problemas de “desalinhamento”, ou seja, situações em que o modelo não opera conforme o esperado pelos desenvolvedores. Essas avaliações foram concluídas antes do lançamento do GPT-5 pela OpenAI e do Opus 4.1 pela Anthropic no início de agosto. A Anthropic foi fundada por ex-funcionários da OpenAI.
Aviso Legal: o conteúdo deste artigo reflete exclusivamente a opinião do autor e não representa a plataforma. Este artigo não deve servir como referência para a tomada de decisões de investimento.
Talvez também goste
O índice do dólar subiu ligeiramente para 98,233, enquanto o euro caiu levemente em relação ao dólar.
A versão beta pública do Jupiter Lend já está disponível
Populares
MaisPreços de criptomoedas
Mais








