Aumento de consultas sobre enfermedades en ChatGPT: expertos advierten sobre la fiabilidad de la IA
    Inteligencia Artificial (IA)

    Aumento de consultas sobre enfermedades en ChatGPT: expertos advierten sobre la fiabilidad de la IA

    Gianro Compagno
    2026-02-04
    5 min read
    OpenAI presentó el pasado 7 de enero ChatGPT Salud, una versión especializada de su conocido chatbot enfocada en temas sanitarios, desde consultas sobre dietas y alérgenos hasta síntomas y enfermedades. Según la propia compañía, la salud es uno de los temas más recurrentes en ChatGPT, con 230 millones de consultas semanales. Sin embargo, la llegada de esta herramienta ha generado inquietud en el sector sanitario. Aunque la IA puede resultar útil para pacientes que buscan información o asesoramiento, su uso conlleva riesgos importantes. Diversos estudios han evaluado la precisión de los diagnósticos médicos realizados por inteligencia artificial, arrojando resultados muy variables: en algunos casos, la tasa de acierto apenas alcanza el 50%, mientras que en otros llega al 80%. En manos de profesionales, la precisión ronda el 75%, pero disminuye drásticamente cuando la utiliza un usuario sin formación médica, que puede no detectar errores graves. Juan José Beúnza, médico internista y director del Grupo de Machine Learning Health en la Universidad Europea de Madrid, advierte: “Si no tienes conocimientos sobre lo que consultas, no puedes ejercer un juicio crítico ni identificar las alucinaciones de la IA. A veces son errores leves, pero en otras ocasiones pueden llevar a diagnósticos erróneos o a pasar por alto problemas graves”. Por ahora, ChatGPT Salud no está disponible en Europa. El modelo está diseñado para integrarse con servicios como Apple Health, Google Fit o MyFitnessPal, utilizando datos personales para contextualizar las respuestas sobre salud, dieta o actividad física. Incluso puede analizar conversaciones previas del usuario para ofrecer respuestas más personalizadas. OpenAI busca así que las interacciones sean más relevantes, considerando factores como mudanzas o cambios de estilo de vida. Beúnza reconoce que esta integración podría mejorar la calidad de las respuestas, pero alerta sobre los riesgos de compartir información médica con una IA: “No hay garantías de que la herramienta cumpla con los estándares mínimos de seguridad para almacenar datos clínicos. Cada usuario es libre de compartir lo que quiera, pero deberían preguntarse si realmente desean exponer su intimidad a un algoritmo”. La gestión de datos por parte de plataformas como ChatGPT, Gemini o Copilot ha sido motivo de preocupación para los expertos en ciberseguridad. En Italia, ChatGPT fue sancionada en 2024 con una multa de 15 millones de euros por el uso indebido de información obtenida en conversaciones. “Con estos antecedentes, no hay motivos para confiar plenamente ni en la operatividad de la herramienta ni en la fiabilidad de la empresa respecto al uso de nuestros datos”, añade Beúnza. Aunque OpenAI aclara que ChatGPT Salud está diseñado para complementar, no sustituir, la atención médica, la realidad es que las consultas diagnósticas son frecuentes. Sandra N., de 37 años, relata: “A veces me sale un granito raro o un sarpullido y, en vez de agobiarme, se lo consulto a ChatGPT para tranquilizarme”. Aunque es consciente de que la IA no puede ofrecer un diagnóstico certero, prefiere obtener una posible explicación antes que esperar una cita médica. Algunos usuarios emplean ChatGPT para preparar preguntas antes de acudir al médico, un uso menos problemático. Sin embargo, la lentitud del sistema sanitario español lleva a muchos a buscar respuestas rápidas en la IA. Juan Pablo, de 38 años, cuenta: “Me desperté con dolor al orinar y la cita médica era para dentro de 12 días. Consulté a ChatGPT y fui a la farmacia con esa información. No era lo ideal, pero no tenía otra opción”. La búsqueda de tranquilidad es comprensible, especialmente cuando el acceso a la atención médica es limitado. Pero Beúnza advierte: “Estamos intentando arreglar un sistema imperfecto con una herramienta imperfecta. OpenAI es consciente de este problema y lo aprovecha, pero su objetivo es crear negocio, no resolver la incertidumbre de los pacientes”. El verdadero problema radica en el uso de ChatGPT Salud para diagnósticos. Si bien puede ser útil para consultar información nutricional o interpretar análisis, su función diagnóstica es la más problemática. Limitar las respuestas de la IA podría parecer una solución, pero los modelos están diseñados para satisfacer al usuario, no necesariamente para decir la verdad. Restringir sus funciones iría en contra del objetivo de aumentar la base de usuarios. Por ahora, la implantación de ChatGPT Salud en España y Europa se enfrenta a importantes obstáculos legales. El Reglamento General de Protección de Datos de la UE impone estrictos controles sobre el uso y transferencia de datos sanitarios, para los que la aplicación aún no está preparada. Fuente: lavanguardia.com
    Gianro Compagno

    Gianro Compagno

    CTO

    Gianro aporta una gran experiencia en gestión de proyectos tecnológicos en entornos multinacionales. Su experiencia técnica combinada con un MBA y una maestría en Psicología Investigativa crea un enfoque único para las soluciones tecnológicas. Como Experto en IA y Automatización, aplica conocimientos psicológicos para diseñar sistemas más intuitivos y centrados en el ser humano. Su enfoque orientado al detalle y mentalidad positiva aseguran que nuestras soluciones no solo sean innovadoras y confiables, sino que también se alineen con cómo las personas piensan y trabajan naturalmente.

    🍪 Experiencia Mejorada

    Utilizamos cookies para brindarte la mejor experiencia y analíticas para mejorar nuestros servicios. Puedes continuar con nuestra configuración recomendada o .

    Consulta nuestra Política de Cookies y Política de Privacidad.