Inteligencia Artificial (IA)
Riesgos de la IA en salud: cómo la inteligencia artificial puede comprometer tus datos clínicos
Paloma Firgaira
2026-01-18
5 min read
Consultar a una inteligencia artificial sobre síntomas o resultados médicos se ha convertido en una práctica habitual para millones de personas. La promesa de obtener respuestas rápidas y comprensibles resulta atractiva, pero esconde riesgos importantes. Compartir datos clínicos con estas plataformas puede derivar en errores médicos y en una pérdida de privacidad más profunda de lo que muchos imaginan.
Hoy, la consulta médica suele comenzar mucho antes de pisar una clínica. Cada vez más usuarios introducen síntomas, suben análisis o buscan segundas opiniones en sistemas de IA antes de contactar a un profesional. La inmediatez y la sensación de control que ofrecen estas herramientas resultan adictivas.
Sin embargo, surge una pregunta clave: ¿qué sucede con toda esa información sensible que entregamos? ¿Quién la almacena, la procesa y con qué objetivos? El auge de soluciones como ChatGPT Salud ha reavivado el debate sobre la intersección entre tecnología, salud y privacidad.
Mientras las grandes tecnológicas prometen eficiencia y claridad, expertos en medicina, derecho y ciberseguridad advierten sobre los riesgos de confiar datos clínicos a sistemas que no siempre están preparados para gestionarlos de forma segura.
Actualmente, más de 230 millones de personas utilizan ChatGPT semanalmente, y un número creciente lo hace para consultas de salud. OpenAI ha lanzado ChatGPT Salud, que permite subir informes médicos, resultados de análisis o datos de apps de bienestar, con el objetivo de ayudar a “comprender mejor” la información clínica, no de diagnosticar.
El problema es que la línea entre ayuda e interpretación médica es difusa. Los modelos de lenguaje no razonan como un médico ni verifican la veracidad de sus respuestas; simplemente generan textos plausibles. Diversos estudios señalan que estos sistemas pueden fallar en recomendaciones médicas relevantes en hasta uno de cada cinco casos. En el ámbito sanitario, este margen de error puede tener consecuencias graves: decisiones incorrectas, retrasos en la atención o tratamientos inadecuados.
Más allá de la calidad de las respuestas, la principal preocupación es la protección de los datos. La información médica es especialmente sensible y, en Europa, está fuertemente protegida por la ley. Compartirla fuera de los sistemas sanitarios elimina las salvaguardas presentes en hospitales y centros de salud, como el control de accesos y la trazabilidad.
Especialistas en protección de datos advierten que, al introducir el historial clínico en plataformas privadas, el usuario pierde el control real sobre esa información. Aunque las empresas aseguren que los datos no se usan para entrenar modelos o que están cifrados, el riesgo de filtraciones es real, como ya ha ocurrido con bases de datos sanitarias tras ciberataques.
A esto se suma la preocupación por el uso comercial de los datos. Algunos expertos alertan de que esta información puede ser valiosa para aseguradoras o terceros interesados en perfilar riesgos, ajustar precios o tomar decisiones automatizadas. Muchas veces, el usuario desconoce el alcance de lo que está cediendo.
La IA generativa no solo puede equivocarse, sino hacerlo con gran convicción. Sus respuestas suelen ser seguras y bien redactadas, lo que puede inducir a una confianza excesiva. En salud, esa confianza puede ser peligrosa, especialmente ante síntomas complejos, enfermedades raras o problemas de salud mental.
Investigaciones recientes del MIT han demostrado que algunos modelos entrenados con historiales médicos pueden “memorizar” datos de pacientes, incluso si han sido anonimizados, lo que podría llevar a filtraciones de información privada. Los pacientes con enfermedades poco frecuentes son especialmente vulnerables, ya que es más sencillo identificarlos.
La mayoría de expertos coincide en que la IA puede ser una aliada en la sanidad, pero bajo límites claros: como apoyo a los profesionales, no como sustituto ni confidente clínico. Herramientas que ayuden a reducir la burocracia, interpretar resultados o priorizar casos pueden mejorar la atención, pero el problema surge cuando se normaliza delegar decisiones médicas y datos personales en plataformas ajenas al sistema sanitario.
La tecnología avanza rápido y la tentación de usarla para todo es grande. Sin embargo, cuando se trata de nuestra salud, conviene reflexionar si la comodidad inmediata justifica los riesgos a largo plazo.
Fuente: que.es