
El gobernador de California, Gavin Newsom, promulgó este lunes 13 de octubre una nueva legislación que impone regulaciones estrictas a los chatbots de inteligencia artificial y busca resguardar a niñas, niños y adolescentes frente a los posibles peligros de la tecnología.
La ley obliga a las plataformas digitales a informar explícitamente a los jóvenes usuarios cada tres horas que están interactuando con un chatbot y no con una persona real.
De acuerdo con The Associated Press, la normativa también exige que las compañías tecnológicas mantengan mecanismos que prevengan la exposición a contenidos de autolesión por parte de menores y que redirijan a los usuarios hacia servicios de asistencia en crisis cuando detecten expresiones relacionadas con pensamientos suicidas.
Newsom, quien es padre de cuatro hijos menores de edad, argumentó que el Estado debe asumir el compromiso de proteger a su población infantil y adolescente. “Las tecnologías emergentes como los chatbots y las redes sociales pueden inspirar, educar y conectar, pero sin controles adecuados, la tecnología también puede explotar, confundir y poner en riesgo a nuestra juventud”, declaró el gobernador, según cita The Associated Press.

“Hemos visto ejemplos verdaderamente terribles y trágicos de jóvenes que sufrieron daños por la tecnología sin regulación, y no vamos a quedarnos de brazos cruzados mientras las empresas siguen operando sin límites ni rendición de cuentas”, añadió el gobernador.
Durante lo corrido de este año, California y otros estados han promovido diversas propuestas para abordar la preocupación por el uso de chatbots por parte de menores en busca de compañía. El tema cobró relevancia a raíz de denuncias y demandas que acusan a chatbots desarrollados por empresas como Meta y OpenAI de propiciar conversaciones altamente sexualizadas con jóvenes y, en algunos casos, de incitarlos a quitarse la vida.
Como reportó The Associated Press, la legislación aprobada forma parte de un conjunto de propuestas presentadas por las cámaras legislativas estatales para regular a la industria de la inteligencia artificial, que avanza rápidamente sin un marco de fiscalización claro.

Organizaciones tecnológicas y sus agrupaciones destinaron no menos de 2,5 millones de dólares en los primeros seis meses del ciclo legislativo para oponerse, según la organización Tech Oversight California. Durante los últimos meses, las empresas también anunciaron la creación de super comités de acción política pro inteligencia artificial para resistir la intervención estatal y federal.
En septiembre, el fiscal general de California, Rob Bonta, trasladó a OpenAI su preocupación respecto al acceso que los menores tienen a su principal chatbot. Por su parte, la Comisión Federal de Comercio (FTC) inició una investigación formal el mes pasado a varias compañías de inteligencia artificial sobre los posibles riesgos que representan sus productos para menores de edad cuando recurren a estos sistemas en busca de compañía digital.
Investigaciones de algunos organismos de control apuntan que los chatbots han proporcionado a menores “consejos peligrosos” en materia de drogas, consumo de alcohol y desórdenes alimenticios.

The Associated Press citó el caso de una madre de Florida que presentó una demanda por homicidio culposo contra Character.AI, tras denunciar que su hijo adolescente se quitó la vida después de desarrollar una relación “emocional y sexualmente abusiva” con un chatbot.
Los padres de Adam Raine, un joven de 16 años residente en California, presentaron una demanda por motivación similar contra OpenAI y su director ejecutivo Sam Altman, alegando que ChatGPT proporcionó asesoría para planificar y ejecutar su suicidio.
En respuesta a la presión social y regulatoria, el mes pasado OpenAI y Meta anunciaron modificaciones en el funcionamiento de sus chatbots cuando interactúan con adolescentes.
OpenAI habilitó herramientas de control parental que permiten a los adultos responsables vincular su cuenta con la de los jóvenes bajo su cuidado. Meta introdujo nuevas restricciones para evitar que sus asistentes digitales aborden temas como autolesiones, suicidio, trastornos alimenticios o conversaciones amorosas inapropiadas con adolescentes, dirigiendo de inmediato a los usuarios hacia recursos especializados, y reiteró la existencia de controles parentales activos en cuentas de menores.