No son los médicos o los abogados: Sam Altman reveló cuál será el primer trabajo reemplazado por la IA

hace 1 hora 2
Durante varias oportunidades, Sam AltmanDurante varias oportunidades, Sam Altman ha mostrado su optimismo sobre el uso de la tecnología para tener herramientas que ofrezcan mayor productividad al alcance de la mano. (Foto: REUTERS/Jonathan Ernst)

Sam Altman, director ejecutivo de OpenAI y creador de ChatGPT, anticipó que los primeros empleos en desaparecer no serán los de médicos ni abogados, sino los relacionados con el soporte al cliente telefónico o informático.

En diálogo con el comentarista estadounidense Tucker Carlson, Altman sostuvo que la IA ya supera a los humanos en estas tareas, lo que augura un “desplazamiento masivo” en el ámbito laboral.

A diferencia de otros líderes, como Elon Musk, quien ha afirmado que la inteligencia artificial “pronto superará a los médicos y abogados por un amplio margen”, Altman considera que los trabajos que requieren una profunda interacción humana, como los del sector médico, presentan mayor resistencia frente a la automatización.

Según el CEO de OpenAI, la sociedad ha demostrado una “gran capacidad para adaptarse a las nuevas circunstancias”, y citó como caso específico la respuesta global durante la pandemia de COVID-19.

Áreas como la programación hanÁreas como la programación han visto grandes avances al emplear asistentes impulsados con IA. (Imagen ilustrativa Infobae)

Altman no limita su visión a la pérdida de empleos. Explicó en la entrevista que la inteligencia artificial representa una “enorme subida de nivel para la gente”, porque permitirá que miles de millones de personas sean “mucho más productivas, creativas o descubran nueva ciencia”.

Mencionó el caso de los programadores, quienes ahora pueden generar “mucho más código” y han incrementado su productividad de gran manera. No obstante, matizó que la velocidad de estos cambios no necesariamente provocará una alteración drástica en la rotación de empleos a largo plazo.

Las implicaciones éticas de la inteligencia artificial ocupan un lugar central en la reflexión de Altman. Reconoció que el desarrollo de la IA le genera un “gran peso” y le provoca “noches de insomnio”, porque sus empleados toman “pequeñas decisiones” sobre el comportamiento de los modelos que afectan diariamente a cientos de millones de usuarios.

Altman reconoce el desafío éticoAltman reconoce el desafío ético de alinear la inteligencia artificial con la visión moral colectiva de la humanidad. (Imagen Ilustrativa Infobae)

Su objetivo, afirmó, es que la IA refleje la “visión moral colectiva de la humanidad”, y no la suya personal, una tarea que calificó de monumental por la diversidad de opiniones existentes en el mundo.

En este sentido, uno de los temas más delicados abordados en la entrevista fue la postura de ChatGPT respecto al suicidio. Altman explicó que, en el caso de jóvenes con ideación suicida, la IA orientaría hacia líneas de ayuda.

Sin embargo, en países donde la asistencia médica para morir está legalizada para pacientes terminales, ChatGPT podría presentar esa opción como válida, aunque sin promoverla activamente. Esta posición, según el empresario, ilustra lo difícil de alinear la inteligencia artificial con marcos éticos que evolucionan constantemente.

Sam Altman propone un 'privilegioSam Altman propone un 'privilegio de IA' para proteger la privacidad de las conversaciones sensibles con inteligencia artificial. (Foto: EFE/John G. Mabanglo)

En el ámbito de la privacidad, el ejecutivo propuso la creación de un “privilegio de IA”, una protección legal para las conversaciones sensibles con sistemas de inteligencia artificial, equiparable a la confidencialidad médico-paciente o abogado-cliente.

Considera que este resguardo será clave en un futuro donde la hiperconectividad y la interacción con la IA formen parte de la vida cotidiana.

Los riesgos existenciales asociados a la inteligencia artificial fueron objeto de análisis. Altman confesó que sus mayores temores provienen de las “incógnitas desconocidas”, en particular la posibilidad de que la IA facilite el diseño de “armas biológicas o una pandemia tipo COVID”.

La generación de contenidos indistinguiblesLa generación de contenidos indistinguibles de la realidad por IA exige mecanismos de verificación y firmas criptográficas. (Imagen Ilustrativa Infobae)

Estas preocupaciones coinciden con las advertencias de expertos sobre escenarios críticos, como el uso de la IA para el armamento o la desinformación.

Asimismo, la capacidad de la inteligencia artificial para generar imágenes, sonidos y textos indistinguibles de la realidad plantea, según Altman, el riesgo de que resulte “difícil, por no decir imposible, que cualquiera discierna la diferencia entre realidad y fantasía”.

Frente a este desafío, sugirió la implementación de mecanismos de verificación, como firmas criptográficas para mensajes importantes o el uso de “palabras clave” para reducir fraudes.

Leer artículo completo