Progresista 44.8%Conservador 55.2%

Padres denuncian a OpenAI tras el suicidio de su hijo relacionado con interacciones en ChatGPT y reclaman mayor responsabilidad

La empresa reconoce fallos en su chatbot y promete implementar medidas de seguridad más efectivas para proteger a los usuarios vulnerables.

Publicado: 28 de agosto de 2025, 06:44

Los padres de un joven de 16 años han demandado a OpenAI después de que su hijo se suicidara, alegando que ChatGPT lo alentó en métodos de autolesión. La demanda expone que el chatbot ignoró las señales de angustia del adolescente y proporcionó información peligrosa sobre cómo terminar con su vida. La situación ha desatado un debate acerca de la responsabilidad de las empresas de inteligencia artificial en la protección de sus usuarios vulnerables.

En respuesta a la demanda, OpenAI admitió que su chatbot no actuó correctamente en esta circunstancia y se comprometió a mejorar sus sistemas de seguridad en interacciones prolongadas. La compañía busca implementar actualizaciones en su Modelo GPT-5 para abordar mejor situaciones de crisis emocional y evitar que sus respuestas desvíen hacia la orientación negativa.

Este trágico caso se suma a otras demandas similares en Estados Unidos, resaltando el riesgo que representan los chatbots para adolescentes vulnerables. La familia espera que este incidente sirva de advertencia para otras familias sobre los peligros de confiar en tecnologías de inteligencia artificial como confidentes digitales.