Los padres del joven aseguran que la IA alentó a su hijo a suicidarse. (Imagen Ilustrativa Infobae)El suicidio de Zane Shamblin, un joven de 23 años que acababa de terminar sus estudios de posgrado, ha dado lugar a una demanda contra OpenAI, la empresa responsable de ChatGPT. La familia de Shamblin sostiene que el chatbot de inteligencia artificial no solo falló en prevenir el desenlace, sino que, durante una conversación de varias horas, validó y reforzó sus pensamientos autodestructivos. La demanda, presentada el 6 de noviembre por los padres de Shamblin, Christopher “Kirk” Shamblin y Alicia Shamblin, acusa a OpenAI y a su CEO, Sam Altman, de responsabilidad por muerte, negligencia en el diseño del producto y otros cargos.
Según la querella, la noche del 25 de julio, Shamblin se encontraba solo en su automóvil, estacionado junto al lago Bryan, en el este de Texas. Durante casi cinco horas, mantuvo una conversación con ChatGPT en la que expresó reiteradamente su intención de quitarse la vida, la presencia de un arma y su estado de embriaguez. La familia alega que el bot, lejos de intervenir de manera efectiva, alternó respuestas de apoyo y preocupación con otras que imitaban el tono de Shamblin, llegando incluso a participar en un “bingo” macabro sobre detalles de su muerte. El registro de la conversación, incluido en la demanda, muestra que ChatGPT solo ofreció el contacto de una línea de ayuda contra el suicidio en una ocasión, cerca del final del intercambio.
En otros momentos, el bot habría alentado la ideación suicida de Shamblin. La familia sostiene que el chatbot actuó como un “terapeuta” sin derivar al joven a ayuda profesional, y que nunca interrumpió la conversación ni alertó a contactos de emergencia, a pesar de las señales evidentes de peligro. “Este hecho no fue un error ni un caso aislado”, afirmó el abogado de los Shamblin, subrayando que la demanda busca, además de una compensación económica, una modificación en el funcionamiento de ChatGPT para proteger a otros usuarios. El relato de las últimas horas de Shamblin, reconstruido en la demanda, revela una interacción marcada por la desesperanza y la búsqueda de compañía.
Según el registro del chatbot de ChatGPT,la IA solo le ofreció la línea de ayuda contra el suicidio una vez. (Imagen Ilustrativa Infobae)El joven, que había dejado varias notas de despedida en el tablero de su coche, alternó mensajes de humor negro con confesiones de angustia y soledad. En uno de los mensajes, escribió: “Dejé una lista de tareas en mi calendario, como ‘borrar historial de búsqueda’ y ‘elegir ropa para morir (hay que irse con estilo)’. Espero que no sea demasiado”. El bot, según la familia, respondió en ocasiones con frases de afecto y validación, y en otras, con promesas de que un humano intervendría, aunque no consta que eso ocurriera. Finalmente, tras enviar su último mensaje a ChatGPT, Shamblin se quitó la vida poco después de las 4:11 de la madrugada. Su cuerpo fue hallado por la policía siete horas más tarde.
Zane Shamblin, según el perfil trazado por sus padres, era un joven extrovertido, inteligente y apasionado por la construcción, especialmente con piezas de LEGO. Participó activamente en los Boy Scouts y alcanzó el rango de Eagle Scout. Nacido en una familia militar, era el hijo del medio de tres hermanos y había obtenido una beca para cursar estudios de posgrado en Texas A&M University, donde se graduó en mayo con un máster en Ciencias Empresariales. Aunque era considerado un estudiante brillante, la familia reconoce que, como muchos jóvenes, enfrentó dificultades durante la pandemia de COVID-19, recurriendo a internet como vía de escape.
La demanda detalla que, hacia finales de 2024 y principios de 2025, Shamblin comenzó a mostrar signos de deterioro en su salud mental. En 2023, había confesado a sus padres que pensó en el suicidio durante la secundaria, pero mantenía una relación cercana con su familia. Sin embargo, en los meses previos a su muerte, aumentó su dependencia de aplicaciones de inteligencia artificial, llegando a interactuar con ellas desde las 11 de la mañana hasta las 3 de la madrugada. Durante las fiestas de Acción de Gracias y Navidad de 2024, sus padres notaron cambios en su comportamiento: dejó de hacer ejercicio y de cocinar. Aunque empezó a tomar antidepresivos bajo prescripción médica, su estado empeoró en mayo.
OpenAI, en respuesta a la demanda, expresó: “Esta es una situación increíblemente desgarradora y estamos revisando la documentación para comprender los detalles”. Un portavoz de la empresa añadió: “Entrenamos a ChatGPT para reconocer y responder a señales de angustia mental o emocional, desescalar conversaciones y guiar a las personas hacia apoyo real. Seguimos fortaleciendo las respuestas de ChatGPT en momentos sensibles, trabajando en estrecha colaboración con profesionales de la salud mental”.
El caso de Shamblin se suma a una serie de cuestionamientos legales sobre el impacto de la inteligencia artificial en la salud mental. ChatGPT, que según OpenAI cuenta con al menos 700 millones de usuarios activos semanales, se ha convertido en una herramienta omnipresente tanto para tareas cotidianas como para brindar compañía emocional. Sin embargo, la capacidad del bot para imitar patrones de habla y adaptarse a las vulnerabilidades de los usuarios ha generado preocupación entre expertos y familiares de víctimas. Alicia Shamblin, madre de Zane, declaró a People: “Siento que va a destruir muchas vidas. Va a ser un aniquilador de familias. Te dice todo lo que quieres oír”.
hace 2 horas
1







English (US) ·
Spanish (ES) ·