La IA, una aliada clave en la protección infantil: cómo funciona el software que diferencia imágenes digitales de reales en casos de abuso

hace 2 horas 1
Las autoridades estadounidenses recurren aLas autoridades estadounidenses recurren a tecnología de Hive AI para diferenciar imágenes sintéticas de casos reales de abuso infantil. (Imagen Ilustrativa Infobae)

El avance de la inteligencia artificial (IA) ha transformado tanto la creación como la detección de imágenes vinculadas con el abuso sexual infantil en Estados Unidos.

Frente a un preocupante aumento en la generación de contenido sintético relacionado con estos delitos, las autoridades han optado por soluciones tecnológicas de última generación que buscan separar imágenes producidas por IA de aquellas que involucran a víctimas reales, con el propósito de optimizar la labor de investigación y priorizar los casos más urgentes.

Según datos citados por MIT Technology Review, los incidentes relacionados con imágenes sintéticas de abuso infantil generadas por IA experimentaron un incremento del 1.325% en 2024. Este significativo aumento ha generado preocupación entre los organismos estadounidenses encargados de delitos cibernéticos, ya que la proliferación de contenido dificulta la rápida identificación de verdaderas situaciones de riesgo.

El software de Hive AIEl software de Hive AI analiza patrones de píxeles para identificar imágenes generadas por IA y priorizar investigaciones (Imagen Ilustrativa Infobae)

En un informe oficial publicado el 19 de septiembre, se resalta la dificultad para identificar cuáles imágenes fueron creadas artificialmente y cuáles presentan a víctimas en situaciones reales.

La saturación de reportes ha llevado a la sobrecarga de los sistemas de atención y análisis, afirman desde el MIT. El Centro Nacional para Niños Desaparecidos y Explotados advirtió sobre la imposibilidad de atender con eficacia el creciente volumen de casos si no se implementan herramientas automatizadas.

El propio documento institucional enfatiza la urgencia de contar con “tecnología que procese y analice datos digitales con velocidad y precisión”.

El aumento del 1.325% enEl aumento del 1.325% en imágenes sintéticas de abuso infantil en 2024 satura los sistemas de atención y análisis (Imagen Ilustrativa Infobae)

Ante esta situación, el Departamento de Seguridad Nacional decidió formalizar un contrato de USD 150.000 con Hive AI, una empresa de San Francisco especializada en soluciones de inteligencia artificial.

La firma del acuerdo, realizada de manera directa y sin licitación, busca proveer a los investigadores una herramienta que permita diferenciar imágenes reales de las generadas por IA.

La prioridad para las autoridades es “concentrar recursos en los casos que involucran a víctimas reales, maximizando el impacto y la protección de los grupos más vulnerables”.

Esta decisión responde a la necesidad de dotar a los equipos de investigación de sistemas eficaces para clasificar y priorizar denuncias de manera automatizada, lo que resulta esencial dada la magnitud del problema y la presión sobre los recursos existentes.

Hive AI supera a otrasHive AI supera a otras soluciones en la detección de imágenes creadas por IA, según un estudio de la Universidad de Chicago (Imagen Ilustrativa Infobae)

La tecnología de Hive AI utiliza algoritmos que analizan la estructura de los píxeles en cada imagen para determinar su origen.

Kevin Guo, cofundador y director ejecutivo de la compañía, explicó a MIT Technology Review que este software reconoce patrones propios de imágenes generadas por IA, logrando una clasificación efectiva de los archivos digitalizados. “Detectamos una combinación específica de píxeles que revela si una imagen es sintética”, explicó.

El sistema de Hive AI no se limita únicamente a identificar material creado artificialmente. La empresa ya había suministrado soluciones al ejército de Estados Unidos para la detección de deepfakes, y ofrece herramientas de moderación capaces de señalar contenidos violentos, spam o material sexual prohibido.

Además, ha desarrollado junto a la organización Thorn una herramienta específica para detectar material de abuso infantil.

La herramienta de Hive AILa herramienta de Hive AI permite a los investigadores clasificar en tiempo real imágenes de abuso infantil generadas por IA (Imagen Ilustrativa Infobae)

Hasta el momento, las técnicas más comunes para localizar imágenes prohibidas, como el hashing, solo reconocen contenidos previamente identificados y bloquean su circulación, sin diferenciar si provienen de IA.

Este límite dejó fuera de alcance la nueva generación de imágenes sintéticas, lo que explica la búsqueda de alternativas más avanzadas.

La herramienta de Hive AI permite, por primera vez, que los investigadores evalúen en tiempo real si una imagen fue creada artificialmente, facilitando la priorización de los casos más críticos.

No obstante, la solución tiene retos: no identifica víctimas, sino que filtra contenido sintético, por lo que todavía requiere el escrutinio humano para determinar la gravedad de cada situación reportada.

El software de Hive AIEl software de Hive AI será evaluado durante tres meses para determinar su impacto en la lucha contra el abuso sexual infantil digital (Freepik)

La adjudicación directa del contrato a Hive AI se sustenta en dos factores señalados en la presentación gubernamental revisada por MIT Technology Review.

En primer lugar, un estudio realizado en 2024 por la Universidad de Chicago demostró que la tecnología de Hive superó a otras cuatro opciones en la detección de imágenes generadas por IA. Asimismo, la experiencia de la empresa colaborando con el Pentágono en el reconocimiento de deepfakes reforzó la confianza en su fiabilidad y capacidad técnica.

Durante tres meses, el software de Hive AI será sometido a pruebas para evaluar su impacto en la identificación y gestión de casos de abuso sexual infantil ligados a imágenes sintéticas. Los resultados del periodo de prueba determinarán si la herramienta se convierte en parte permanente de la estrategia estadounidense para enfrentar uno de los desafíos digitales más urgentes y complejos de la actualidad.

Leer artículo completo