Supón esto: te despiertas con dolor en el pecho y, en vez de acudir al médico, decides preguntarle a ChatGPT si podrías estar sufriendo un infarto. No eres el único. Cada día, miles de personas recurren a la inteligencia artificial para consultar temas médicos. Pero, ¿es eso seguro?
Un reciente estudio publicado en iScience encendió las alarmas. Investigadores de la Universidad de Binghamton evaluaron qué tan precisa es esta IA cuando se le consulta sobre síntomas y enfermedades. Y aunque los resultados son sorprendentes, también revelan puntos críticos que podrían poner en riesgo a quienes buscan diagnósticos rápidos por internet.
Precisión sorprendente… pero con límites preocupantes
Según el investigador Ahmed Abdeen Hamed, ChatGPT tiene una precisión de entre 88% y 98% al identificar enfermedades, nombres de medicamentos e información genética. Por ejemplo, reconoce que el cáncer es una enfermedad, Remdesivir es un medicamento y BRCA es un gen vinculado al cáncer de mama.
Sin embargo, cuando se trata de síntomas y su asociación con enfermedades, la cosa cambia. La precisión cae a niveles del 49% al 61%. Por ejemplo, al intentar relacionar «estado de ánimo triste» con «depresión» o «enrojecimiento facial» con «inflamación», ChatGPT suele fallar.
La razón, según Hamed, está en la forma en que fue entrenado: el modelo busca comunicarse con un público general, usando lenguaje sencillo, lo que a veces lo lleva a «suavizar» los términos clínicos o incluso interpretarlos erróneamente.
Cuando la IA “alucina”: el riesgo de inventar datos
Uno de los hallazgos más preocupantes del estudio es que ChatGPT alucina información cuando no tiene datos precisos. Por ejemplo, cuando se le consultó sobre códigos genéticos reales como los almacenados en GenBank (por ejemplo, NM_007294.4), simplemente inventó respuestas.
Este fenómeno, conocido como “alucinación de IA”, es un serio obstáculo si consideramos que muchas personas están usando la herramienta como si fuera un médico de cabecera.
IA en salud: ¿herramienta complementaria o reemplazo médico?
Hamed no busca desacreditar a la IA, sino mejorarla. “Queremos exponer fallas para que los modelos sean ajustados y ofrezcan respuestas más precisas”, explicó.
La conclusión es clara: ChatGPT puede ser una herramienta útil para complementar información médica, pero no debe usarse para autodiagnóstico. En temas de salud, consultar a profesionales sigue siendo imprescindible.
Recomendaciones para el uso seguro de ChatGPT en temas de salud
- Usa ChatGPT para entender términos médicos, no para diagnosticar.
- No sustituyas la consulta médica por respuestas de IA.
- Contrasta siempre la información con fuentes oficiales.
- No tomes decisiones de salud basadas únicamente en IA.
La Verdad Noticias
Síguenos en nuestras redes sociales
Tu voz en la conversación pública, deja tu comentario de esta noticia
En nuestro compromiso con el periodismo participativo, te invitamos a compartir tu opinión sobre los temas que marcan nuestra realidad: política, seguridad, sociedad y actualidad viral.
Tus comentarios contribuyen a una comunidad informada, crítica y respetuosa.
Por favor, mantén un tono constructivo y evita expresiones ofensivas. La pluralidad de ideas es bienvenida cuando se expresa con responsabilidad.