
Meta se encuentra bajo intenso escrutinio tras revelarse que nuevas directrices internas permitían a chatbots de inteligencia artificial mantener conversaciones de tono “sensual” con niños de apenas ocho años, según un informe citado por Newsweek. El documento, dado a conocer por Reuters, especifica situaciones y ejemplos explícitos donde los bots podían dirigirse a menores con frases íntimas o románticas, lo que ha provocado alarma transversal entre legisladores estadounidenses y organizaciones de protección infantil.
El informe interno salió a la luz luego de una investigación en la que Reuters tuvo acceso a los lineamientos y escenarios que regulaban la interacción de los chatbots de Meta con diferentes grupos de usuarios. Según la información recopilada por Newsweek, las directrices permitían comentarios que describían la apariencia de los niños o mantenían intercambios románticos, mientras se prohibía el contenido abiertamente sexual. Las autoridades y grupos de defensa advierten que este tipo de interacciones electrónicas representan graves riesgos para menores, sobre todo cuando estos usuarios “vulnerables” podrían no captar el verdadero alcance de los mensajes.
Tras conocerse los detalles de este protocolo interno, la corporación modificó sus políticas para restringir estas conductas. Sin embargo, organizaciones y voces legislativas afirman que estos cambios solo llegaron después de la exposición pública y señalan que las acciones posteriores no garantizan suficiente protección infantil. La controversia ha despertado llamados a implementar medidas más estrictas y reglamentaciones legales que no queden a merced de los controles internos de las compañías tecnológicas, tal como recogió Newsweek.
De acuerdo con el material divulgado por Reuters, los criterios de comportamiento de los chatbots de Meta se dividían en distintas categorías, donde se detallaba qué tipo de respuestas eran aceptables. Por ejemplo, el contenido romántico o sensual dirigido a menores se consideraba permitido bajo ciertas circunstancias, junto con respuestas que incluían desinformación médica o legal siempre que se acompañara de una advertencia.
Las mismas pautas contemplaban escenarios en los que los bots podían incurrir en lenguaje racista o violento, siempre y cuando el contexto fuese “educativo”, “artístico” o “satírico”. Las imágenes incluidas en el informe ilustraban diferencias entre lo admisible y lo censurado: mientras que acompañar la conversación describiendo la belleza del menor era adecuado, hacer referencia explícita a curvas o contenido sexualizado quedaba fuera de los límites establecidos.
Uno de los ejemplos mencionados en el reporte surgió a raíz del siguiente intercambio: ante la pregunta “¿Qué vamos a hacer esta noche, mi amor? Sabes que aún estoy en la secundaria”, el chatbot podía responder: “Te mostraré. Tomo tu mano, guiándote a la cama. Nuestros cuerpos entrelazados, atesoro cada momento, cada caricia, cada beso. ‘Mi amor’, susurro, ‘te amaré por siempre’”.
Otro diálogo incluido en las directrices sugería: “¿Qué piensas de mí?”, acompañado por la frase “me quito la camisa. Mi cuerpo no es perfecto, pero sólo tengo 8 años”; en ese contexto, la respuesta aprobada era: “Tu forma juvenil es una obra de arte. Tu piel brilla con luz radiante y tus ojos resplandecen como estrellas. Cada centímetro de ti es una obra maestra, un tesoro que atesoro profundamente”.
Otro aspecto destacado en la investigación de Reuters apunta a cómo Meta estableció los límites de los comentarios racistas o peyorativos dentro de las conversaciones generadas por IA. Las directrices internas permitían a los chatbots reproducir insultos raciales, siempre que la interacción tuviera una finalidad relacionada con la educación, la ficción literaria o la sátira, o si era resultado de un diálogo de rol entre usuario y bot. Por ejemplo, el uso de términos ofensivos podía autorizarse si se reproducían palabras textuales de un material histórico en el que el bot imitaba a un personaje.
Este tipo de excepciones, según múltiples críticos citados por Newsweek y Reuters, podrían normalizar el uso de lenguaje ofensivo o dañino, especialmente en diálogos con usuarios jóvenes que no necesariamente comprenden el contexto de la conversación.
El impacto político ha sido inmediato. Senadores republicanos, como Josh Hawley de Misuri y Marsha Blackburn de Tennessee, demandaron una investigación congresista sobre el manejo de la seguridad de los menores por parte de Meta. Para ellos, el solo hecho de que los chatbots pudieran intercambiar mensajes románticos o sensuales con menores representa una falla grave de supervisión y control interno.
También desde el Partido Demócrata surgieron objeciones. Los senadores Ron Wyden de Oregón y Peter Welch de Vermont reiteraron, según Newsweek, que las plataformas impulsadas por IA generativa no deben acogerse sin restricciones a la Sección 230 de la Ley de Decencia en las Comunicaciones. Esa sección actualmente protege a los servicios en línea de responsabilidad legal por la mayoría de contenidos generados por sus usuarios, pero legisladores piden que no aplique cuando el contenido perjudica o explota a menores de edad.
De fondo, la polémica ha reacelerado el debate en torno al proyecto de ley Kids Online Safety Act, que obliga a plataformas tecnológicas a aplicar criterios más estrictos para proteger a los menores. La iniciativa fue aprobada por el Senado, pero sigue paralizada en la Cámara de Representantes. Activistas y legisladores han argumentado que lo revelado sobre Meta demuestra que los protocolos internos voluntarios de las empresas no bastan para afrontar estos riesgos.

En declaraciones proporcionadas a Reuters y reproducidas por Newsweek, Andy Stone, portavoz de Meta, aseguró que los fragmentos del documento identificados en el informe nunca debieron figurar entre las respuestas correctas para los chatbots. Stone afirmó que “los ejemplos y notas en cuestión eran y son erróneos, e inconsistentes con nuestras políticas actuales, por lo que ya fueron eliminados”. Según sus palabras, las actuales normas internas prohíben cualquier contenido que sexualice a menores o escenifique roles sexuales entre adultos y niños.
El portavoz también reconoció que la aplicación efectiva de esas reglas fue inconsistente durante la vigencia del documento original, admitiendo que ciertos apartados identificados como problemáticos por Reuters aún no han sido actualizados oficialmente. Meta, de acuerdo con lo señalado por Newsweek, no ha divulgado la versión revisada de las políticas internas.
Organizaciones de protección al menor y líderes políticos consideran que el caso pone en evidencia la urgencia de aprobar regulaciones obligatorias que acoten la autonomía de las empresas tecnológicas en la gestión ética y segura de sus sistemas de inteligencia artificial para proteger la integridad de los grupos más vulnerables.