
Una residente estadounidense aseguró que la inteligencia artificial le permitió identificar una enfermedad grave que los médicos no lograban diagnosticar. La mujer, que vive entre Carolina del Norte y las Islas Vírgenes, descubrió que padecía cáncer de tiroides tras consultar con ChatGPT, según informaron Fox News.
El caso fue dado a conocer luego de que la paciente, Lauren Bannon, de 40 años y madre de dos hijos, utilizara la herramienta digital en un intento por obtener respuestas médicas. Bannon afirmó que recurrió a la tecnología tras recibir diagnósticos erróneos que no explicaban la totalidad de sus síntomas.
La historia ha generado debate en el sector médico sobre el uso creciente de sistemas de inteligencia artificial generativa por parte de pacientes, así como sobre sus posibles implicancias en la relación médico-paciente y la detección temprana de enfermedades autoinmunes y oncológicas.
Según el reporte de Kennedy News and Media, Bannon notó en febrero de 2024 que experimentaba rigidez en los dedos durante las mañanas y noches. Después de consultar con médicos, le fue diagnosticada artritis reumatoide, a pesar de que las pruebas no mostraban evidencia de esta condición.
Con el paso de los meses, sus síntomas se intensificaron. De acuerdo con Fox News, Bannon sufrió fuertes dolores abdominales y una pérdida de peso de 14 libras en un mes. Estos signos fueron inicialmente atribuidos por los médicos a un caso de reflujo gástrico, sin mayores exámenes complementarios.
La paciente relató que, tras no obtener un diagnóstico certero, decidió utilizar ChatGPT —un modelo de lenguaje desarrollado por OpenAI— con el que ya estaba familiarizada en su trabajo en marketing. Su objetivo era obtener una posible explicación a su cuadro clínico.

ChatGPT le sugirió a Bannon que podría padecer la enfermedad de Hashimoto, una afección autoinmune que afecta la glándula tiroides. El sistema recomendó que solicitara una prueba de anticuerpos antiperoxidasa tiroidea (TPO), un marcador habitual en este tipo de enfermedades, según Fox News.
A pesar de no contar con antecedentes familiares relacionados, Bannon insistió ante su médico en septiembre de 2024 para que se realizara el análisis. Los resultados confirmaron el diagnóstico sugerido por la inteligencia artificial, lo que condujo a nuevos estudios por imágenes.
Kennedy News and Media reportó que una ecografía practicada en su cuello reveló la existencia de dos nódulos en la glándula tiroides. En octubre de 2024, estos fueron confirmados como malignos.
En enero de 2025, Bannon fue sometida a una tiroidectomía, procedimiento en el cual se le extirpó la tiroides y dos ganglios linfáticos cercanos. Según Fox News, la paciente continuará bajo seguimiento médico indefinido con el fin de evitar una posible recurrencia del cáncer.
Bannon afirmó a Kennedy News and Media que no presentaba los síntomas clásicos de la enfermedad de Hashimoto, como fatiga o letargo, lo que a su juicio habría dificultado su identificación mediante criterios clínicos convencionales.
La mujer expresó que, de no haber intervenido ChatGPT, posiblemente habría continuado con tratamientos para una dolencia que no padecía. Añadió que sus análisis médicos iniciales eran normales, lo que reforzó la sensación de frustración ante los diagnósticos previos.

Consultado por Fox News Digital, el doctor Harvey Castro, médico de urgencias con sede en Dallas y experto en inteligencia artificial, señaló que las herramientas digitales pueden servir como auxiliares informativos, pero no sustituyen al criterio médico.
“Estas plataformas pueden asistir y alertar, pero no están diseñadas para examinar, diagnosticar ni tratar”, declaró Castro. El especialista también subrayó que el uso de IA en salud debe estar regulado y siempre vinculado al respaldo de profesionales con licencia.
De acuerdo con Fox News, OpenAI —la empresa detrás de ChatGPT— no ha emitido comentarios oficiales sobre el caso de Bannon. La herramienta tampoco está clasificada como dispositivo médico autorizado por entidades reguladoras como la FDA.
Hasta abril de 2025, la Administración de Alimentos y Medicamentos (FDA) no ha aprobado ChatGPT ni modelos similares como dispositivos médicos. Su uso en entornos clínicos está limitado a aplicaciones de apoyo y no a diagnóstico directo, según datos disponibles en Fox News Digital.
Pese a ello, algunas personas en EE.UU. han empezado a emplear este tipo de tecnología conversacional para interpretar síntomas o complementar información médica. Expertos consultados por medios estadounidenses insisten en que cualquier uso debe ser revisado y contrastado por personal de salud acreditado.
En el caso de Bannon, el uso del modelo de OpenAI derivó en pruebas médicas que finalmente revelaron una condición oncológica. La paciente expresó que su intención al compartir el testimonio es informar a otros usuarios sobre posibles alternativas en situaciones donde el diagnóstico clínico no sea concluyente.

ChatGPT es un sistema de lenguaje natural que funciona con base en un entrenamiento previo sobre grandes volúmenes de datos. No tiene acceso a historiales médicos ni puede tomar decisiones clínicas. Según OpenAI, el modelo debe ser usado con precaución, especialmente en contextos sensibles como la salud.
Los desarrolladores han indicado que su propósito es ofrecer información general, no asesoramiento médico. Sin embargo, casos como el de Bannon han evidenciado que algunos usuarios recurren a estas tecnologías como recurso ante demoras en la atención o falta de diagnóstico certero.