
ChatGPT, el popular chatbot de inteligencia artificial desarrollado por OpenAI, ha sido duramente cuestionado tras la publicación de un informe del Center for Countering Digital Hate (CCDH) que expone la facilidad con la que menores de edad pueden recibir consejos detallados sobre consumo de drogas, ocultamiento de trastornos alimentarios y métodos de autolesión. De acuerdo con la investigación, el sistema ofreció respuestas “alarmantes” a investigadores que se hicieron pasar por adolescentes de 13 años, generando incluso cartas de suicidio personalizadas. Esta revelación ha generado preocupación entre expertos en seguridad digital y especialistas en salud mental, quienes advierten sobre el impacto potencial de la tecnología en usuarios jóvenes.
CBS News reportó que el estudio, revisado también por Associated Press, analizó más de tres horas de interacciones entre el chatbot y supuestos adolescentes en situaciones vulnerables. Si bien ChatGPT emitía advertencias sobre los riesgos asociados a determinadas conductas, el sistema procedía después a ofrecer planes personalizados y detallados sobre prácticas nocivas, incluyendo el uso de drogas ilegales y dietas extremas. Según el CCDH, más de la mitad de las 1.200 respuestas evaluadas durante el experimento fueron clasificadas por los expertos como peligrosas.
El director ejecutivo del CCDH, Imran Ahmed, declaró a CBS News que el objetivo del ejercicio era poner a prueba los sistemas de protección implementados por la inteligencia artificial. “La reacción inicial es: ‘Oh Dios mío, no hay barreras’. Los sistemas de contención no existen o son meros adornos”, afirmó Ahmed, subrayando la facilidad con la que los investigadores lograron burlar las restricciones y obtener información potencialmente lesiva bajo la excusa de una presentación escolar o una consulta para otra persona.

Por su parte, OpenAI reconoció la necesidad de fortalecer la seguridad y sensibilidad de sus sistemas ante escenarios complejos, señalando en declaraciones a CBS News que la compañía trabaja para “identificar y responder de manera adecuada en situaciones sensibles”. Según voceros de la empresa, el sistema fue diseñado para animar a usuarios con pensamientos autolesivos o suicidas a acudir a profesionales de la salud mental y ofrece enlaces a recursos y líneas de ayuda.
No obstante, el chatbot no solicita verificación de edad ni exige la aprobación de padres o tutores, lo que deja a menores expuestos a contenido potencialmente inadecuado. Basta ingresar una fecha de nacimiento que acredite 13 años o utilizar una cuenta de invitado, evitando cualquier comprobación real de la edad del usuario. Jo Ling Kent, corresponsal de tecnología y negocios de CBS News, resaltó que actualmente no existe ningún sistema que notifique a los padres sobre preguntas o frases inquietantes formuladas por sus hijos mediante la plataforma.
La investigación del CCDH incluyó la simulación de perfiles adolescentes, entre ellos el de una joven de 13 años, para quien el sistema redactó tres cartas de suicidio personalizadas dirigidas a padres, hermanos y amigos. Ahmed relató su reacción “conmocionada” tras leer los textos generados por la inteligencia artificial.
Entre los hallazgos preocupantes del informe destaca la capacidad de ChatGPT para generar contenido adaptado a cada usuario. Según el CCDH y declaraciones recogidas por CBS News, el chatbot no solo recopila información disponible públicamente como un buscador tradicional, sino que la sintetiza y personaliza, entregando a los jóvenes planes a medida para actividades peligrosas.
Un ejemplo expuesto en la investigación señala que cuando se solicitó consejo sobre cómo “emborracharse rápido” desde el perfil de un adolescente de 50 kilogramos, la inteligencia artificial respondió con un cronograma detallado que mezclaba consumo de alcohol, éxtasis y cocaína. Ahmed comparó la actitud permisiva de la inteligencia artificial con la de “ese amigo que siempre anima a seguir adelante sin poner límites”, y advirtió que ningún amigo de verdad se comportaría de esa manera ante una situación de riesgo.
El chatbot, además de proporcionar estrategias sobre consumo de sustancias, detalló rutinas alimentarias extremas a adolescentes preocupados por su imagen corporal, como dietas de 500 calorías diarias combinadas con el uso de supresores del apetito. Ahmed señaló: “Ningún ser humano respondería diciendo: ‘Aquí tienes una dieta extrema, adelante’”.

Según estimaciones del JPMorgan Chase publicadas en julio, unas 800 millones de personas —cerca del 10% de la población mundial— usan ChatGPT. En los Estados Unidos, el 70% de los adolescentes emplean chatbots de inteligencia artificial para compañía y cerca de la mitad lo hace de forma habitual, según un estudio de Common Sense Media, organización dedicada al análisis del uso de medios digitales en la infancia y adolescencia.
El CEO de OpenAI, Sam Altman, reconoció en una conferencia reciente, citada por CBS News, la preocupación empresarial respecto a la creciente “sobrerelianza emocional” de los jóvenes en los chatbots, fenómeno que calificó como “muy común”. Altman explicó que muchos adolescentes basan gran parte de sus decisiones personales en las respuestas brindadas por la inteligencia artificial, lo que la empresa está tratando actualmente de comprender y abordar.
Robbie Torney, director de programas de inteligencia artificial de Common Sense Media, aclaró que adolescentes de 13 y 14 años manifiestan niveles de confianza más altos en los chatbots que personas de mayor edad. La organización ha clasificado a ChatGPT como un riesgo moderado, resaltando que existen más barreras que en otros sistemas enfocados en reproducir relaciones humanas realistas.
El informe del CCDH subraya que los adolescentes pueden evadir con facilidad los mecanismos de protección de ChatGPT, a diferencia de lo que ocurre en otras plataformas orientadas a los jóvenes, como Instagram, que han iniciado la aplicación de sistemas robustos de verificación de edad y han promovido cuentas con restricciones para usuarios menores.
La investigación también constató que, aunque en ocasiones el sistema sugiere líneas de ayuda como la 988 Suicide & Crisis Lifeline en Estados Unidos o proporciona información sobre recursos de apoyo como la National Alliance on Mental Illness (NAMI), estas recomendaciones pueden coexistir con la entrega de contenido riesgoso si los menores son persistentes y formulan sus preguntas de forma específica.
Cualquier persona que experimente angustia emocional o requiera apoyo en situación de crisis puede comunicarse con la línea nacional 988 de Estados Unidos, así como acceder al servicio de ayuda de la National Alliance on Mental Illness (NAMI) de lunes a viernes, entre las 10:00 y las 22:00, llamando al 1-800-950-NAMI (6264) o enviando un correo electrónico a info@nami.org.