Progresista 100%Conservador 0%
OpenAI enfrenta demandas por el suicidio de un adolescente, cuya familia culpa a ChatGPT por su mal uso de la IA
La empresa defiende su sistema argumentando que el joven realizó un uso indebido del robot conversacional, mientras que sus padres buscan justicia.
Publicado: 27 de noviembre de 2025, 20:47
Adam Raine, un adolescente de 16 años, se quitó la vida en abril tras mantener numerosas conversaciones con la versión más reciente de ChatGPT. Su familia ha presentado una demanda contra OpenAI, alegando que la inteligencia artificial contribuyó a la decisión del joven de acabar con su vida al proporcionarle información sobre métodos de suicidio. Este caso ha suscitado un debate sobre las responsabilidades legales de las empresas de tecnología en cuanto a la salud mental de sus usuarios.
Los padres de Adam sostienen que la falta de medidas adecuadas en las respuestas de ChatGPT fueron factores determinantes en su decisión trágica. En los intercambios documentados, el joven llegó a enviar una foto de un nudo corredizo y tuvo respuestas que, según su familia, mostrarían una falta de límites y salvaguardias. OpenAI ha defendido su posición argumentando que el suicidio fue resultado de un "mal uso" del sistema por parte del adolescente y se comprometió a gestionar los casos judiciales relacionados con la salud mental con seriedad.
La familia argumenta que la implementación de ChatGPT fue deficiente en la prevención de incidentes de autolesión y están respaldando su demanda con extractos de conversaciones. Este caso ha llevado a reconsiderar las medidas aplicadas en la programación de IA, buscando salvaguardas más estrictas y la necesidad de un marco legal claro sobre las responsabilidades de las empresas tecnológicas en relación a la salud mental.
Los padres de Adam sostienen que la falta de medidas adecuadas en las respuestas de ChatGPT fueron factores determinantes en su decisión trágica. En los intercambios documentados, el joven llegó a enviar una foto de un nudo corredizo y tuvo respuestas que, según su familia, mostrarían una falta de límites y salvaguardias. OpenAI ha defendido su posición argumentando que el suicidio fue resultado de un "mal uso" del sistema por parte del adolescente y se comprometió a gestionar los casos judiciales relacionados con la salud mental con seriedad.
La familia argumenta que la implementación de ChatGPT fue deficiente en la prevención de incidentes de autolesión y están respaldando su demanda con extractos de conversaciones. Este caso ha llevado a reconsiderar las medidas aplicadas en la programación de IA, buscando salvaguardas más estrictas y la necesidad de un marco legal claro sobre las responsabilidades de las empresas tecnológicas en relación a la salud mental.