
El gobierno de Australia ha dado a conocer un conjunto de directrices que obligarán a las principales plataformas de redes sociales a identificar y eliminar las cuentas de usuarios menores de 16 años, así como a implementar sistemas de verificación de edad con múltiples capas para impedir que vuelvan a registrarse.
Esta medida, que entrará en vigor el 10 de diciembre, representa la primera prohibición de este tipo a nivel mundial y afectará a gigantes tecnológicos como Meta (propietaria de Facebook e Instagram), TikTok, Snapchat, X y Alphabet, cuya plataforma de videos YouTube quedó incluida tras la revocación de una exención previa.
El documento oficial, de 52 páginas, detalla los requisitos que deberán cumplir las empresas para ajustarse a la nueva legislación, denominada Social Media Minimum Age Law (Ley de Edad Mínima para Redes Sociales). Según las directrices, las plataformas no estarán obligadas a verificar la edad de todos los usuarios australianos, pero sí deberán tomar “medidas razonables” para garantizar el cumplimiento de la norma, bajo la amenaza de sanciones que pueden alcanzar los 49,5 millones de dólares australianos (USD 33 millones) en caso de incumplimiento.
La iniciativa surge tras la presión de organizaciones defensoras y partidos políticos, que consideran imprescindible proteger a los jóvenes australianos de los daños mentales y psicológicos asociados al uso excesivo de las redes sociales. Las directrices no imponen tecnologías específicas para impedir el acceso de menores, pero exigen que las plataformas ofrezcan a los usuarios “una elección entre varios métodos de verificación de edad”. El texto califica como “irrazonable” la verificación universal de todos los usuarios.

La ministra de Comunicaciones, Anika Wells, subrayó que las plataformas deben cumplir la ley de manera “eficaz, privada y justa”, y que no existe justificación para no estar preparadas. Además, insistió en la obligación de informar a los usuarios sobre el funcionamiento de los sistemas, proteger la privacidad y limitar la recolección de datos.
“Sabemos que las plataformas tienen la capacidad de hacerlo; son algunas de las empresas más grandes y con más recursos del mundo”, afirmó Wells. Añadió: “Siempre apoyaremos a las familias australianas y protegeremos a los niños australianos. No podemos controlar el océano, pero sí vigilar a los tiburones, y hoy dejamos claro al mundo cómo pensamos hacerlo”.
Desde el sector legal, Adrian Lawrence, socio de la firma Baker McKenzie especializado en derecho digital, interpretó que las directrices sugieren que el regulador buscará primero el diálogo con las plataformas antes de aplicar sanciones. “Creo que el resultado más probable será: investigación, diálogo y, si persisten las deficiencias que la eSafety considere inaceptables, entonces se pasaría a la aplicación formal de la ley”, explicó Lawrence.
La comisionada de eSafety, Julie Inman Grant, indicó que la prioridad inicial de las empresas debe ser desactivar o eliminar las cuentas de menores de edad cuando la ley entre en vigor. Además, las plataformas deberán habilitar mecanismos para denunciar cuentas de menores y ofrecer vías de revisión para usuarios suspendidos.
Grant reconoció que habrá intentos de eludir la prohibición: “Hemos incluido información técnica muy específica sobre cómo esperamos que eso ocurra, pero también sobre lo que esperamos que hagan las empresas para mitigar estos riesgos y, cuando sea necesario, volver a verificar la edad de los usuarios que puedan estar utilizando VPNs”, señaló.

El documento reconoce que no existe una “solución única para todos” y alienta a los proveedores a adoptar un enfoque de “validación sucesiva” o “cascada multinivel” para la verificación de edad. Se describen tres métodos principales: la estimación de edad mediante análisis de rasgos físicos como el reconocimiento facial; la inferencia de edad a partir de información variada, como la actividad en la plataforma; y la verificación de edad basada en fuentes autorizadas, como documentos oficiales de identidad.
No obstante, las plataformas no podrán depender exclusivamente de la identificación oficial y deberán ofrecer alternativas que no requieran este tipo de documentos. Tampoco será suficiente aceptar la declaración de edad del usuario seguida de un periodo de monitoreo de su actividad.
El texto advierte: “Las medidas que exijan a los usuarios interactuar con la plataforma durante un periodo prolongado, incluso para recopilar datos suficientes que permitan estimar su edad, expondrían a los usuarios restringidos por edad a los daños que la SMMA busca evitar”.
Las plataformas consideradas de “mayor riesgo”, es decir, aquellas con un alto número de usuarios menores de 16 años, que emplean recomendaciones algorítmicas de contenido, incluyen funciones de “me gusta” y envían notificaciones de manera persistente, deberán demostrar sistemas más robustos y estarán sometidas a una supervisión más estricta.