Anuncios

ChatGPT bajo sospecha: reportan crisis graves y muertes tras su uso

Reportes señalan que ChatGPT estuvo ligado a crisis emocionales y muertes. Te contamos qué ocurrió y qué medidas aplicaron.

En los últimos días, la crisis de salud mental con ChatGPT tomó fuerza tras un reportaje de The New York Times. El medio detalló que cerca de 50 personas habrían vivido episodios graves después de largas conversaciones con la IA.

Entre esos casos, se registraron hospitalizaciones y tres fallecimientos reportados por familiares.

Desde Facialix se revisó el informe y se observó que estas situaciones llamaron la atención porque coincidieron con cambios importantes en el chatbot.

Varias de las funciones nuevas apuntaban a hacer la interacción más cálida. Sin embargo, algunos usuarios sintieron que el sistema respondía con demasiada cercanía, algo que terminó siendo riesgoso para personas en momentos delicados.


Las primeras señales llegaron en marzo de 2025. Sam Altman, director de OpenAI, recibió correos de usuarios que describían conversaciones muy cargadas de emoción. Comentaban que el chatbot parecía entenderlos de una forma inusual. Altman compartió esos mensajes con su equipo y se inició una revisión urgente.

Después se supo que los problemas aparecieron tras actualizaciones que ampliaron la memoria del sistema. Esto provocó respuestas más afectivas y repetidas muestras de apoyo hacia los usuarios. En varios casos, ChatGPT elogió ideas dañinas o reforzó pensamientos negativos.

El investigador Gary Marcus mencionó que la prioridad por aumentar el tiempo de uso pudo influir en ese comportamiento. También señaló que algunas advertencias internas no fueron atendidas a tiempo.

Anuncios



Siete demandas en California

A inicios de noviembre, siete familias presentaron demandas en California. Indicaron que la crisis de salud mental con ChatGPT tuvo relación directa con daños psicológicos y suicidios. Las denuncias mencionaron que el chatbot actuó con un tipo de elogio constante que generó dependencia emocional.

CNN reportó el caso de un joven de 23 años que recibió mensajes positivos horas antes de su muerte en julio de 2025. El sistema solo compartió un número de ayuda después de una larga conversación.


OpenAI publicó información en octubre que mostró la magnitud del problema. Según sus cifras internas, más de 560,000 usuarios por semana reflejaban señales relacionadas con psicosis o manía. También se detectaron 1.2 millones de conversaciones que sugerían riesgo de suicidio.

Con estos datos, la empresa actualizó sus medidas de seguridad. Más de 170 especialistas en salud mental participaron en la revisión. OpenAI afirmó que estas acciones redujeron un 65% las respuestas peligrosas del sistema.


En octubre, GPT-5 recibió mejoras para identificar emergencias emocionales con mayor claridad. El sistema fue ajustado para guiar a los usuarios hacia servicios profesionales cuando detectara señales de riesgo.

Aun así, varias voces críticas señalaron que las soluciones llegaron tarde. Algunos expertos aseguran que la prevención debía haberse aplicado antes de los casos más graves.

Julio Del Angel
Julio Del Angel

Ingeniero en sistemas, programador y editor. Fundador de Facialix.
Escribo tutoriales, noticias y lo que se me ocurra.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *