Meta automatiza el 90% de evaluaciones de riesgo con inteligencia artificial

hace 1 día 2
Meta automatiza la aprobación deMeta automatiza la aprobación de actualizaciones críticas en sus plataformas, reemplazando supervisión humana y generando inquietudes internas sobre la seguridad de los usuarios (Imagen Ilustrativa Infobae)

Meta ha iniciado un proceso para automatizar hasta el 90% de las evaluaciones de riesgo de privacidad e integridad que tradicionalmente realizaban equipos humanos, una decisión que permitirá que sistemas de inteligencia artificial aprueben actualizaciones críticas de algoritmos, nuevas funciones de seguridad y cambios en el intercambio de contenido, a través de Instagram, WhatsApp y Facebook, según reporta NPR.

Esta transformación radical en los procesos de revisión ha generado alarma entre empleados actuales y exempleados de la compañía, quienes temen que la automatización comprometa la capacidad de identificar riesgos potenciales para los usuarios.

Durante años, Meta sometía cada nueva función o actualización de sus plataformas a rigurosas revisiones humanas que evaluaban posibles violaciones de privacidad, daños a menores y la propagación de contenido tóxico o engañoso.

Según documentos internos obtenidos por NPR, este sistema de evaluación casi completamente humano será reemplazado por un proceso automatizado que proporcionará “decisiones instantáneas” después de que los equipos de producto completen un cuestionario sobre sus proyectos.

El nuevo sistema funciona mediante inteligencia artificial, que identifica áreas críticas y define las condiciones necesarias para abordarlas. Los equipos de desarrollo deben verificar que las han cumplido antes del lanzamiento, pero ya no necesitan la aprobación explícita de evaluadores especializados.

Esta transformación representa un cambio fundamental en la filosofía de Meta: de un enfoque preventivo basado en supervisión humana a uno reactivo impulsado por algoritmos.

Michel Protti, director de privacidad de producto de Meta, describió en una publicación interna de marzo que la compañía está “empoderando a los equipos de producto” con el objetivo de “evolucionar los procesos de gestión de riesgo de Meta”.

La automatización -según Protti- busca “simplificar la toma de decisiones” en el 90% de los casos.

Los documentos internos revisados por NPR revelan que Meta considera automatizar evaluaciones en áreas particularmente sensibles, incluyendo seguridad de inteligencia artificial, riesgo juvenil y una categoría conocida como “integridad” que abarca contenido violento y la propagación de información falsa. Esta expansión del sistema automatizado hacia territorios tradicionalmente considerados de alto riesgo ha intensificado las preocupaciones internas.

Meta planea automatizar evaluaciones enMeta planea automatizar evaluaciones en áreas sensibles como seguridad en IA, riesgo juvenil y contenido violento, lo que profundiza las preocupaciones internas sobre el manejo de temas críticos (REUTERS/Dado Ruvic/Illustration)

“En la medida en que este proceso significa funcionalmente que más cosas se lanzan más rápido, con menos escrutinio riguroso y oposición, significa que estás creando riesgos más altos”, declaró un exejecutivo de Meta que solicitó anonimato por temor a represalias de la compañía.

“Las externalidades negativas de los cambios de producto tienen menos probabilidades de ser prevenidas antes de que comiencen a causar problemas en el mundo”, añadió.

Zvika Krieger, quien fue director de innovación responsable en Meta hasta 2022, expresó preocupaciones específicas sobre la capacidad de los equipos de desarrollo para realizar estas evaluaciones. “La mayoría de los gerentes de producto e ingenieros no son expertos en privacidad y ese no es el enfoque de su trabajo. No es en lo que son evaluados principalmente y no es lo que están incentivados a priorizar”, explicó a NPR.

El exdirectivo señaló que los equipos de producto en Meta son evaluados en función de la rapidez con que lanzan productos, entre otras métricas, lo que podría crear conflictos de interés cuando estos mismos equipos deben evaluar los riesgos de sus propios desarrollos.

La implementación de estos cambios ocurre en un momento en que Meta opera bajo la supervisión de la Comisión Federal de Comercio (FTC) desde 2012, cuando la agencia alcanzó un acuerdo con la compañía sobre el manejo de información personal de usuarios. Como resultado, las revisiones de privacidad para productos han sido obligatorias, según empleados actuales y exempleados de Meta.

Documentos internos sugieren que los usuarios de la Unión Europea podrían estar parcialmente protegidos de estos cambios, ya que un anuncio interno indica que la toma de decisiones y la supervisión de productos y datos en la región seguirá a cargo de la sede europea de Meta, ubicada en Irlanda.

La UE cuenta con regulaciones que gobiernan las plataformas en línea, incluyendo la Ley de Servicios Digitales, que requiere que compañías como Meta supervisen más estrictamente sus plataformas y protejan a los usuarios de contenido dañino.

Meta defendió los cambios en una declaración oficial, afirmando que ha invertido miles de millones de dólares para apoyar la privacidad de los usuarios. La compañía sostiene que las modificaciones al proceso de comprobación de riesgos de productos están destinadas a agilizar la toma de decisiones, añadiendo que la “experiencia humana” aún se utiliza para “problemas novedosos y complejos”, y que solo las “decisiones de bajo riesgo” están siendo automatizadas.

La empresa también señaló que está auditando las decisiones que toman los sistemas automatizados para proyectos que no son evaluados por humanos, como una medida de control de calidad.

Meta afirma que solo automatizaMeta afirma que solo automatiza decisiones de bajo riesgo y que aún recurre a la experiencia humana para abordar problemas novedosos y complejos (Imagen Ilustrativa Infobae)

Además, Meta indicó que está utilizando inteligencia artificial de manera más amplia para ayudar a hacer cumplir sus políticas de moderación de contenido, reportando en su último informe trimestral de integridad que está “comenzando a ver modelos de lenguaje grande operando más allá del rendimiento humano para áreas de política selectas”.

Los cambios en el proceso de revisión de productos forman parte de una transformación más amplia en Meta que refleja un nuevo énfasis a favor de un discurso más libre y actualizaciones más rápidas de aplicaciones. Esta evolución representa el desmantelamiento de varias salvaguardas que la compañía había implementado a lo largo de los años para frenar el mal uso de sus plataformas.

Los empleados fueron notificados sobre la renovación del sistema poco después de que la compañía terminara su programa de verificación de hechos y relajara sus políticas de discurso de odio.

Otro factor que impulsa las modificaciones es una iniciativa más amplia de varios años para aprovechar la inteligencia artificial y ayudar a la compañía a moverse más rápido en medio de la creciente competencia de TikTok, OpenAI, Snap y otras empresas tecnológicas.

Katie Harbath, fundadora y CEO de la firma de políticas tecnológicas Anchor Change, quien pasó una década trabajando en políticas públicas en Facebook, reconoció que usar sistemas automatizados para señalar riesgos potenciales podría ayudar a reducir esfuerzos duplicados.

“Si quieres moverte rápidamente y tener alta calidad, vas a necesitar incorporar más IA, porque los humanos solo pueden hacer tanto en un período de tiempo”, explicó. Sin embargo, agregó que esos sistemas también necesitan tener controles y equilibrios de humanos.

Katie Harbath, exdirectiva de Facebook,Katie Harbath, exdirectiva de Facebook, señala que la automatización podría reducir esfuerzos duplicados al identificar riesgos potenciales (Imagen ilustrativa Infobae)

Un exempleado de Meta, quien habló bajo condición de anonimato por temor a represalias de la compañía, cuestionó si moverse más rápido en las evaluaciones de riesgo es una buena estrategia para Meta. “Esto casi parece contraproducente. Cada vez que lanzan un nuevo producto, hay tanto escrutinio sobre él, y ese escrutinio regularmente encuentra problemas que la compañía debería haber tomado más en serio”, señaló.

La implementación de la automatización se ha estado intensificando durante abril y mayo, según un empleado actual de Meta familiarizado con las evaluaciones de riesgo de productos que no estaba autorizado a hablar públicamente sobre operaciones internas. “Creo que es bastante irresponsable dada la intención de por qué existimos. Proporcionamos la perspectiva humana de cómo las cosas pueden salir mal", expresó.

Leer artículo completo