OpenAI y Anthropic comparan sus modelos en cuanto a alucinaciones y seguridad
Jinse Finance informó que OpenAI y Anthropic evaluaron recientemente los modelos de la otra parte con el objetivo de detectar posibles problemas que podrían haber pasado por alto en sus propias pruebas. Ambas compañías anunciaron el miércoles en sus respectivos blogs que, durante este verano, realizaron pruebas de seguridad en los modelos de inteligencia artificial de acceso público de la otra parte, examinando si los modelos presentaban tendencias a generar alucinaciones, así como problemas de “desalineación” (misalignment), es decir, cuando el modelo no funciona según lo esperado por los desarrolladores. Estas evaluaciones se completaron antes del lanzamiento de GPT-5 por parte de OpenAI y de la publicación de Opus 4.1 por Anthropic a principios de agosto. Anthropic fue fundada por exempleados de OpenAI.
Descargo de responsabilidad: El contenido de este artículo refleja únicamente la opinión del autor y no representa en modo alguno a la plataforma. Este artículo no se pretende servir de referencia para tomar decisiones de inversión.
También te puede gustar
El índice del dólar subió ligeramente a 98.233, mientras que el euro cayó levemente frente al dólar.
La versión beta pública de Jupiter Lend ya está disponible
En tendencia
MásPrecios de las criptos
Más








