La plataforma de videojuegos ha recibido múltiples denuncias de pedófilos que ponen en peligro a los niños usuarios. (Imagen Ilustrativa Infobae)Roblox, una de las plataformas de juegos en línea más populares entre niños y adolescentes a nivel mundial, anunció la implementación de un nuevo sistema de verificación de edad basado en inteligencia artificial y controles parentales reforzados. Esta decisión se produce en medio de una serie de demandas y acusaciones legales que señalan a la empresa por permitir la explotación de menores en su entorno digital. Las nuevas medidas comenzarán a aplicarse en diciembre de 2025 en Australia, Nueva Zelanda y Países Bajos, con una expansión global prevista para enero de 2026. El objetivo es responder a la creciente preocupación social y legal sobre la seguridad infantil en plataformas tecnológicas.
El sistema anunciado por Roblox exigirá a los usuarios someterse a una verificación de edad mediante tecnología de estimación facial impulsada por inteligencia artificial, complementada con la verificación de identidad y el consentimiento parental confirmado. La compañía sostiene que este método permitirá determinar la edad real de los usuarios con mayor precisión que los sistemas tradicionales, que solo dependen de la información proporcionada al crear una cuenta. Además, Roblox lanzará un centro de seguridad en línea para ayudar a las familias a comprender y configurar los controles parentales disponibles.
La plataforma segmentará a los usuarios en seis grupos etarios: menores de 9 años, de 9 a 12, de 13 a 15, de 16 a 17, de 18 a 20 y mayores de 21. Los menores solo podrán comunicarse con otros usuarios de su mismo grupo o de grupos cercanos en edad. Por ejemplo, un usuario de 12 años podrá chatear únicamente con menores de 16. Esta segmentación busca impedir que niños y adolescentes mantengan conversaciones con adultos desconocidos, una medida que, según la empresa, la convierte en la primera plataforma de juegos o comunicación en exigir controles de edad para las funciones de chat.
Roblox también aseguró que las imágenes y videos utilizados para la verificación no se almacenarán. Matt Kaufman, jefe de seguridad de Roblox, explicó que el objetivo es que los usuarios tengan más confianza en la identidad de las personas con las que interactúan en estos juegos, y consideró que la iniciativa representa una oportunidad para fortalecer la confianza en la plataforma.
Estas acciones se producen en un contexto de creciente presión legal. Según CBS News, decenas de familias, junto con los fiscales generales de Kentucky y Luisiana, han presentado demandas contra Roblox, Discord y otras empresas tecnológicas, acusándolas de no haber impedido que depredadores sexuales contactaran a menores. En Florida, el fiscal general James Uthmeier también investiga a Roblox por presunta falta de protección a los menores.
Matt Dolman, abogado en Florida, ha presentado 28 demandas contra la compañía, argumentando que las acusaciones principales giran en torno a la “depredación sistémica de menores”. Entre los casos recientes se encuentra el de una adolescente de 13 años en Nevada, cuya familia alega que Roblox gestionó su negocio de manera “imprudente y engañosa”, lo que permitió la explotación sexual de la menor. El documento judicial sostiene que un adulto, haciéndose pasar por niño, estableció una relación emocional con la víctima, obtuvo su número de teléfono y la coaccionó para que enviara imágenes y videos explícitos.
Se espera que las nuevas medidas de seguridad se implementen en todo el mundo a partir de enero de 2026. (Europa Press)La demanda argumenta que, de haber existido controles de verificación de edad e identidad, la menor no habría estado expuesta a este tipo de riesgos. Otros casos recientes incluyen a una niña de siete años en Filadelfia y a una de 12 en Texas, quienes también habrían sido víctimas de acoso y manipulación por parte de adultos en la plataforma.
Frente a estas acusaciones, un portavoz de Roblox declaró a The Guardian que la empresa se siente profundamente preocupada por cualquier incidente que ponga en peligro a un usuario y que la seguridad de la comunidad es prioritaria. El representante subrayó que las políticas de Roblox son intencionadamente más estrictas que las de muchas otras plataformas, limitando el chat para los usuarios más jóvenes, prohibiendo el intercambio de imágenes entre usuarios y aplicando filtros para bloquear el intercambio de información personal.
Además, la compañía afirmó haber lanzado 145 nuevas iniciativas de seguridad en el último año y reconoció que ningún sistema es perfecto, por lo que continúa trabajando para mejorar sus herramientas y restricciones, con el objetivo de que los padres puedan confiar en la seguridad de sus hijos en línea. Las reacciones de expertos y organizaciones especializadas han sido mixtas. Beeban Kidron, fundadora de la 5Rights Foundation, organización británica que defiende los derechos digitales de los niños, declaró que ha llegado el momento de que las empresas de videojuegos pongan la protección de los menores en el centro de sus servicios.
hace 2 horas
1







English (US) ·
Spanish (ES) ·