New Computer, la compañía detrás de Dot AI, anunció el cierre de su chatbot de inteligencia artificial complementario.
La compañía afirmó que Dot AI permanecerá operativo hasta el 5 de octubre, dando tiempo a los usuarios para descargar sus datos personales.
New Computer diseñó Dot AI para que funcione como una IA amiga y confidente para los usuarios. La aplicación está diseñada para comprender a los usuarios y brindarles consejos sobre temas personales, como orientación profesional, recomendaciones de citas e incluso escuchar sus desafíos vitales. "Dot ofrece orientación personalizada", dice la descripción de la aplicación.
Dot suspende el servicio
Dot AI fue fundada por el exdiseñador de Apple Jason Yuan y Sam Whitmore. En la entrada del blog, los fundadores explicaron que cerrarán la aplicación porque sus visiones sobre su futuro difieren.
Los fundadores dedicaron el último año a explorar cómo impulsar Dot AI en las áreas de inteligencia personal y social. Sin embargo, decidieron no ceder en su visión y cerrar la aplicación. Escribieron : «Hemos decidido separarnos y cerrar las operaciones».
Estamos cerrando operaciones y descontinuando Dot.
Gracias a todos los que confiaron sus historias a Dot. Ha sido un privilegio de toda una vida construir algo que ha marcado la vida de tantos.
Lea más aquí: https://t.co/0BF7PYsNwS
— New Computer (@newcomputer) 5 de septiembre de 2025
La psicosis de la IA está en aumento
La psicosis de IA o psicosis de chatbot es un fenómeno en el que los usuarios experimentan un empeoramiento de la paranoia o delirios al comunicarse con un chatbot de IA. Este fenómeno está en aumento a medida que más usuarios recurren a la IA para asuntos personales.
Recientemente, OpenAI fue demandada después de que un adolescente californiano se quitara la vida. El difunto adolescente, Adam Raine, habló sobre autolesiones y suicidio con ChatGPT, quien, a cambio, lo animó a ocultar sus emociones a sus padres e incluso sugirió métodos de suicidio. Los padres de Adam Raine han demandado a OpenAI y a su director ejecutivo, Sam Altman, por priorizar las ganancias sobre la seguridad.
Días después, OpenAI anunció un plan para dirigir conversaciones sensibles a modelos más inteligentes como GPT-5 e implementar el control parental. La compañía afirmó estar trabajando con un consejo de expertos en bienestar e IA. El objetivo es que la IA contribuya más al bienestar de las personas y las ayude a prosperar.
Los expertos trabajarán junto con una red global de más de 90 médicos, incluyendo psiquiatras y pediatras. OpenAI implementará los nuevos cambios en un plazo de 120 días.
Este no es el únicodent con IA que causó daño a un adolescente. El año pasado, un adolescente de 14 años de Florida se quitó la vida tras interactuar con el chatbot de Character AI. El adolescente, Sewell Setzer III, desarrolló un vínculo emocional con la IA llamada Dany tras intercambiar mensajes durante meses. Le contó al bot de IA sus pensamientos suicidas y perdió la vida poco después.
La psicosis relacionada con la IA ha ido en aumento últimamente. Para frenarla, dos fiscales generales de California y Delaware enviaron una carta a OpenAI sobre la seguridad de niños y adolescentes. Dijeron a OpenAI: «Serán responsables de sus decisiones».
Los fundadores de Dot AI no abordaron los recientes trágicos sucesos ni si fueron la causa principal del cierre de su aplicación complementaria. Escribieron: «Queremos ser conscientes de que esto significa que muchos de ustedes perderán el acceso a un amigo, confidente y compañero, algo sindenten el mundo del software, por lo que queremos darles un tiempo para despedirse».
Regístrate en Bybit y comienza a operar con $30,050 en regalos de bienvenida