IA y ética global: una experta de la UNESCO explica el foco humanista de la revolución tecnológica

hace 14 horas 1
“Millones de decisiones se están“Millones de decisiones se están tomando en este momento con base en sistemas de inteligencia artificial” (Imagen Ilustrativa Infobae)

En una sala, sentados a la misma mesa, ingenieros y filósofos, psicólogos y economistas, antropólogos y tecnólogos, discutieron durante meses. No estaban ahí para resolver una ecuación. Estaban ahí para responder una pregunta más esencial: ¿qué nos hace humanos en una era donde las máquinas parecen decidirlo todo?

Y lo que encontraron fue un punto de encuentro. “Lo que los unió fue una visión humanista”.

Cuando asumió la conducción del área de ciencias sociales y humanas de la UNESCO, la mexicana Gabriela Ramos sabía que el desafío sería inmenso. “Había que transformar una preocupación técnica en una conversación humanista”, dice en diálogo con Infobae durante una visita a Buenos Aires. Lo hizo liderando el desarrollo de la primera Recomendación internacional sobre la ética de la Inteligencia Artificial, aprobada en 2021 por 193 países.

Pero lo importante no fue el número. Lo importante fue el enfoque: “La Recomendación no habla de algoritmos. Habla de personas. Habla de cómo asegurarnos que esta revolución tecnológica fortalezca la dignidad humana”.

“Entendimos que no estábamos legislando la tecnología, sino el impacto que esa tecnología tiene en nuestras vidas, en nuestra capacidad de actuar, en nuestro derecho a existir con dignidad”.

De ahí surgió una recomendación que no impone, pero que orienta. Que no impide innovar, pero exige responsabilidad.

Millones de decisiones se están tomando en este momento con base en sistemas de inteligencia artificial”, dice. “Desde un crédito bancario hasta el ingreso a una universidad. Desde una recomendación en un buscador hasta una oferta laboral. Por eso siempre debe haber un responsable humano”. Porque todo algoritmo fue escrito por alguien. Todo sistema aprende de datos que reflejan nuestras propias desigualdades y nuestros propios sesgos. Y si no somos conscientes de eso, los multiplicamos".

¿Cómo se pasa de la recomendación a la acción? ¿Cómo se asegura que los principios no queden en el papel?

“Creamos una herramienta llamada RAM (Readiness Assessment Methodology), que ya fue aplicada en 70 países”, explica. Es un diagnóstico integral que les permite a los gobiernos saber dónde están parados: si tienen conectividad suficiente, competencias digitales, leyes adecuadas, recursos humanos. Pero, sobre todo, si tienen una visión estratégica sobre qué quieren hacer con la IA.

Desde 2020, Gabriela Ramos haDesde 2020, Gabriela Ramos ha sido subdirectora general de Ciencias Sociales y Humanas en la UNESCO

“Lo más importante fue que cada país pudiera responderse por qué quiere adoptar estas tecnologías y para qué”, dice. Y la clave fue que la conversación fuera plural: gobiernos, empresas, ciudadanía, expertos. Todos en la misma mesa.

“El FOMO (fear of missing out) existe también en la política pública”, sonríe. “Cuando algunos países empezaron a aplicar el RAM y vieron que les ayudaba a tomar mejores decisiones, otros comenzaron a sumarse. Llegamos a tener diagnósticos en África, Asia, América Latina, Europa del Este. Incluso en países en conflicto”.

Porque la IA no es un lujo de los países ricos. También puede mejorar la educación en las zonas rurales. También puede optimizar sistemas de salud pública. También puede fortalecer a pequeñas empresas. Pero para eso, dice Ramos, hay que “hacerla accesible, contextualizada, justa y centrada en las necesidades reales”.

“Volvemos a las preguntas de siempre: ¿cuánto invertimos en educación? ¿Cómo fortalecemos nuestras capacidades locales? ¿Cómo hacemos que nuestros trabajadores estén preparados? ¿Cómo evitamos que haya un mundo que avanza a pasos agigantados y otro que se queda atrás?”. Porque la brecha digital es también una brecha social. Y si no la abordamos, no habrá regulación ni innovación que baste.

Desde entonces, Ramos lidera un Foro Global Ético sobre IA, donde ministros y expertos comparten avances, dilemas y aprendizajes. Crearon también un consejo de empresas, con actores como Microsoft y Telefónica, y una red de mujeres que trabaja para reducir las brechas de género en la IA.

Cuando se habla de regulación, suele pensarse en freno. Gabriela Ramos lo ve al revés. “La dicotomía entre regulación e innovación es falsa. Lo que mata la innovación es la mala regulación. Pero la buena regulación la potencia, le da sentido, la hace confiable”. Porque si la gente no confía, no usa. Si no usa, no invierte. Y si no invierte, la tecnología se convierte en una promesa vacía.

Por eso defiende regulaciones inteligentes, estándares éticos, incentivos fiscales para los desarrollos que resuelvan problemas sociales. “Una IA que mejora la productividad de las empresas, que permite que los gobiernos sean más eficientes, que libera tiempo para que las personas puedan enfocarse en tareas más creativas. Esa es la IA que queremos”.

La IA no es unLa IA no es un privilegio. Es una herramienta (Imagen Ilustrativa Infobae)

Una recomendación internacional no cambia el mundo por sí sola. Pero puede dar el primer paso para que algo cambie. Y si se hace bien, si se construye en consenso, si está escrita con palabras que los países entienden —y no sólo aceptan, sino que hacen suyas—, puede marcar el comienzo de una transformación.

“Cuando me pidieron hacerlo en dos años, me dijeron que era imposible”, recuerda. Y ese logro es hoy parte de su plataforma para la Dirección General de la UNESCO, una candidatura que representa la extensión natural de su filosofía: hacer que las instituciones sirvan, que den resultados concretos, visibles, humanos.

Porque para ella, lo institucional no está reñido con lo sensible. “¿De qué sirve una organización internacional si no puede ayudar a un país a que sus ciudadanos vivan mejor?”. “No traemos a los expertos para que nos digan qué hacer con nuestra vida”, dice Ramos. “Los traemos para construir juntos lo que queremos hacer con nuestra vida”.

Hay una escena reveladora. En un foro con países de África Oriental, representantes de Uganda, Sudán, Ruanda y Somalia comparten sus avances. Algunos están en guerra. Otros en plena transición. Ninguno era parte de los centros tecnológicos del mundo. Pero todos querían hablar de inteligencia artificial. Todos habían comenzado a aplicarla en salud, agricultura, servicios públicos.

“¿Y por qué no?”, se pregunta Ramos. “¿Quién dijo que la IA es solo para Silicon Valley?”.

En esa escena, se revela algo esencial: la IA no es un privilegio. Es una herramienta. Y como toda herramienta, puede excluir o incluir, puede segregar o democratizar. Todo depende de cómo, de quién, de para qué.

“Los desarrollos tecnológicos no deben tomarse como vienen”, advierte. “Si no te representan, no te sirven”. Por eso insiste: hay que desarrollar capacidades locales, adaptar las herramientas a cada realidad, generar conocimiento propio, formar equipos diversos. No para cerrarse al mundo, sino para formar parte de él desde una posición más justa.

En esa escena, se revelaEn esa escena, se revela algo esencial: la IA no es un privilegio. Es una herramienta. Y como toda herramienta, puede excluir o incluir, puede segregar o democratizar. Todo depende de cómo, de quién, de para qué. (Foto: Shutterstock)

Porque hablar de IA es hablar de todo. “No estamos discutiendo tecnologías. Estamos discutiendo la sociedad que queremos”. Y eso exige decisiones: dónde invertimos, a quién apoyamos, cómo reducimos desigualdades, cómo capacitamos a los trabajadores, cómo reorganizamos nuestras instituciones.

El camino no es sencillo. Pero hay señales. Empresas que empiezan a adoptar auditorías de algoritmos. Gobiernos que aplican cláusulas éticas en compras públicas. Desarrolladores que incorporan estándares de seguridad y transparencia.

Hay preguntas que no se responden en los laboratorios. Preguntas que se hacen los docentes frente a aulas desbordadas. Las empresas familiares frente a balances que no cierran. Los gobiernos cuando deben sostener servicios públicos con presupuestos mínimos.

¿Puede la inteligencia artificial ayudarlos?

Ramos cree que sí. Pero no si se piensa sólo como tecnología. “El problema no es la IA. Es cómo la adoptamos, con qué incentivos, con qué cultura organizacional”. Y lo repite con la claridad de quien lleva años trabajando en reformas estructurales: “No estamos hablando de bytes. Estamos hablando de productividad. De eficacia. De desarrollo”.

Y para eso —insiste— no basta con comprar software ni subirse a la ola. Hay que cambiar procesos, actualizar competencias, reorganizar flujos de trabajo. Las empresas que no lo hacen, se estancan. Los estados que no lo entienden, fracasan. “La adopción de IA no es una cuestión técnica. Es una cuestión cultural”, sentencia.

Los docentes —tantas veces sobrecargados,Los docentes —tantas veces sobrecargados, solos, desbordados— pueden encontrar en la IA una aliada (Imagen Ilustrativa Infobae)

Por eso propone apoyos selectivos, incentivos fiscales, capacitación intensiva, alianzas público-privadas que acompañen la transición. “No todos van a ser Sam Altman. Ni falta que hace”, ironiza. “Pero sí tenemos que asegurarnos de que las personas, las empresas y los gobiernos puedan usar estas herramientas sin miedo y con sentido”.

El trabajo cambia. No desaparece. Se transforma. Las tareas repetitivas, administrativas, pesadas, pueden ser automatizadas. Pero eso no significa que sobren personas. Significa que esas personas pueden dedicarse a lo que las hace humanas: pensar, crear, cuidar, decidir.

“¿Por qué no desarrollamos tecnologías que complementen nuestros mercados laborales, en lugar de sólo sustituirlos?”, se pregunta.

Y en las aulas, el impacto puede ser aún mayor.

Los docentes —tantas veces sobrecargados, solos, desbordados— pueden encontrar en la IA una aliada. Para planificar clases. Para conocer mejor a sus estudiantes. Para reducir cargas administrativas. Para personalizar el aprendizaje.

Pero también para repensar la educación: ¿qué debemos enseñar en un mundo donde todo está a un click? ¿Qué competencias importan? ¿Qué significa educar en tiempos de incertidumbre?

No todo el mundo va a explorar el espacio. Pero todos necesitamos herramientas concretas para vivir mejor. Y la IA puede darlas”, dice Gabriela Ramos. Pero —advierte— eso sólo será posible si hay políticas públicas activas, inversión en formación docente, infraestructura adecuada y decisión política.

La agencia, la capacidad de decidir, no puede perderse. No puede delegarse. Si lo humano queda fuera, la IA será una máquina más. Si lo humano queda al centro, es una revolución útil.

No se trata de controlar cada línea de código. Se trata de establecer estándares. Y si algo falla —advierte—, hay que poder rastrear el error. En Reino Unido, algunas empresas ya están obligadas a realizar auditorías de sus algoritmos. Es un buen comienzo.

(Imagen Ilustrativa Infobae)(Imagen Ilustrativa Infobae)

En medio del entusiasmo por las nuevas plataformas, Gabriela Ramos no pierde de vista lo esencial: formar desarrolladores con códigos éticos, evitar que los equipos sigan siendo homogéneos, fomentar tecnologías que no sólo busquen rentabilidad, sino también impacto social.

Y por eso sueña con un futuro institucional fuerte, donde las organizaciones multilaterales no se limiten a emitir declaraciones, sino que acompañen a los países en su transformación.

El mundo cambia rápido. La tecnología se expande. Pero la pregunta sigue siendo la misma: ¿Cómo queremos vivir?

Y es ahí donde la ética importa. No como freno. Como brújula. Porque al final del día —entre ministros y algoritmos, entre foros globales y aulas escolares—, todo se reduce a una decisión: si queremos que la inteligencia artificial sea una herramienta más, o si estamos listos para que sea una herramienta al servicio de lo humano.

Leer artículo completo