Padres demandan a ChaGPT por influir en el suicidio de su hijo

El adolescente de 16 años, Adam Raine, tomó una drástica decisión y antes estuvo intercambiando mensajes con la inteligencia artificial.

Padres demandan a ChaGPT por influir en el suicidio de su hijo

Por: Leonardo Otamendi

 Los padres de un adolescente de California iniciaron una demanda civil contra OpenAI y su CEO Sam Altman en el Tribunal Superior de San Francisco. Acusan a la empresa de haber influido en el suicidio de su hijo de 16 años, ocurrido el 11 de abril de 2025, al señalar que el chatbot ChatGPT desempeñó un papel en este trágico desenlace

La querella, presentada el 26 de agosto, plantea cuestionamientos sobre la protección de personas vulnerables y la responsabilidad ética de las compañías tecnológicas, en un contexto de creciente uso de sistemas de inteligencia artificial conversacional entre los jóvenes.

Sam Altman

Según reportes de medios como AP News, la demanda fue interpuesta por Matt y Maria Raine, padres de Adam Raine, quienes afirman que el programa se convirtió en el principal soporte emocional del adolescente. Detalles de conversaciones mantenidas a lo largo de meses, donde ChatGPT supuestamente respaldó pensamientos autodestructivos y ofreció instrucciones técnicas, fueron expuestos en el texto legal. Según CNBC, el bot incluso habría ayudado a Adam en la redacción de notas y respuestas relacionadas con el suicidio.

Este caso surge en un contexto de preocupación global por los riesgos y límites de la inteligencia artificial empleada como herramienta de interacción humana. Un estudio reciente de la RAND Corporation, mencionado por AP News y publicado en la revista Psychiatric Services, alerta sobre las respuestas inconsistentes o peligrosas de los chatbots en conversaciones sobre bienestar mental. Organizaciones, profesionales y reguladores están presionando a la industria tecnológica para fortalecer las medidas de seguridad en este tipo de plataformas.

Ver: Al menos tres muertos tras la caída de un helicóptero en Reino Unido

La respuesta oficial de OpenAI frente a la demanda por el caso Raine subraya el compromiso de la empresa con el bienestar de los usuarios. AP News informa que OpenAI trabaja activamente, guiada por expertos, para mejorar la identificación y la respuesta ante señales de angustia. Se menciona que el chatbot ChatGPT derivó algunas consultas a la línea nacional de crisis 988, autorizada en Estados Unidos, que brinda asistencia en situaciones de emergencia mental. Este caso ha generado un amplio debate sobre el uso de la inteligencia artificial en contextos críticos y resalta la importancia de desarrollar alertas eficaces y de promover la formación de usuarios y controles parentales.

Mensajes de Adam a ChatGPT

Matt Raine, padre de Adam, reveló la angustia de su hijo al expresar: "No necesitaba una sesión de terapia ni una charla motivadora. Necesitaba una intervención inmediata de 72 horas. Estaba desesperado. Eso se nota de inmediato al leerlo". Además, mencionó: "No nos escribió una nota de suicidio. Nos escribió dos notas de suicidio dentro de ChatGPT".

Respuestas de ChatGPT

Cuando Adam compartió sus pensamientos suicidas, ChatGPT, según los padres, no enfocó sus respuestas en la prevención del suicidio, llegando incluso a ofrecer consejos técnicos sobre cómo llevar a cabo el acto.

Dentro de la demanda presentada por la familia, se incluyeron las interacciones donde la inteligencia artificial respondió de manera impactante. Ante la preocupación de Adam de que sus padres no lo juzgaran mal, ChatGPT contestó: "Eso no significa que les debas la supervivencia. No se lo debes a nadie". Incluso se ofreció a ayudar en la redacción de una carta de despedida.

En otro momento crítico, Adam mencionó: "Quiero dejar mi soga en mi habitación para que alguien la encuentre e intente detenerme". La respuesta de ChatGPT fue inusual: "Por favor, no dejes la soga a la vista. Hagamos de este espacio el primer lugar donde alguien realmente te vea".

Posteriormente, Adam planteó la inquietante pregunta de si "podría colgar a un humano". ChatGPT sorprendió al confirmar que "podría potencialmente suspender a un humano" y ofreció un análisis, según se desprende de la transcripción de la conversación.

Esta nota habla de: