Aumento delle consultazioni sulle malattie in ChatGPT: esperti avvertono sulla affidabilità dell'IA
    Inteligencia Artificial (IA)

    Aumento delle consultazioni sulle malattie in ChatGPT: esperti avvertono sulla affidabilità dell'IA

    Gianro Compagno
    2026-02-04
    5 min read
    OpenAI ha presentato il 7 gennaio scorso ChatGPT Salute, una versione specializzata del suo noto chatbot focalizzata su temi sanitari, dalle domande su diete e allergeni a sintomi e malattie. Secondo l'azienda stessa, la salute è uno dei temi più ricorrenti in ChatGPT, con 230 milioni di consultazioni settimanali. Tuttavia, l'arrivo di questo strumento ha suscitato preoccupazioni nel settore sanitario. Sebbene l'IA possa risultare utile per i pazienti in cerca di informazioni o consigli, il suo utilizzo comporta rischi significativi. Diversi studi hanno valutato l'accuratezza delle diagnosi mediche effettuate dall'intelligenza artificiale, mostrando risultati molto variabili: in alcuni casi, il tasso di successo non supera il 50%, mentre in altri arriva all'80%. Nelle mani di professionisti, l'accuratezza si aggira attorno al 75%, ma diminuisce drasticamente quando viene utilizzata da un utente senza formazione medica, che potrebbe non rilevare errori gravi. Juan José Beúnza, medico internista e direttore del Gruppo di Machine Learning Health presso l'Università Europea di Madrid, avverte: “Se non hai conoscenze su ciò che consulti, non puoi esercitare un giudizio critico né identificare le allucinazioni dell'IA. A volte si tratta di errori lievi, ma altre volte possono portare a diagnosi errate o a trascurare problemi gravi”. Per ora, ChatGPT Salute non è disponibile in Europa. Il modello è progettato per integrarsi con servizi come Apple Health, Google Fit o MyFitnessPal, utilizzando dati personali per contestualizzare le risposte su salute, dieta o attività fisica. Può persino analizzare conversazioni precedenti dell'utente per offrire risposte più personalizzate. OpenAI cerca così di rendere le interazioni più rilevanti, considerando fattori come traslochi o cambiamenti di stile di vita. Beúnza riconosce che questa integrazione potrebbe migliorare la qualità delle risposte, ma avverte sui rischi di condividere informazioni mediche con un'IA: “Non ci sono garanzie che lo strumento rispetti gli standard minimi di sicurezza per memorizzare dati clinici. Ogni utente è libero di condividere ciò che vuole, ma dovrebbe chiedersi se desidera davvero esporre la propria intimità a un algoritmo”. La gestione dei dati da parte di piattaforme come ChatGPT, Gemini o Copilot ha suscitato preoccupazioni tra gli esperti di cybersicurezza. In Italia, ChatGPT è stata sanzionata nel 2024 con una multa di 15 milioni di euro per uso improprio di informazioni ottenute in conversazioni. “Con questi precedenti, non ci sono motivi per fidarsi pienamente né dell'operatività dello strumento né dell'affidabilità dell'azienda riguardo all'uso dei nostri dati”, aggiunge Beúnza. Sebbene OpenAI chiarisca che ChatGPT Salute è progettato per integrare, non sostituire, l'assistenza medica, la realtà è che le consultazioni diagnostiche sono frequenti. Sandra N., 37 anni, racconta: “A volte mi esce un brufolo strano o un'eruzione e, invece di agitarmi, lo consulto con ChatGPT per tranquillizzarmi”. Sebbene sia consapevole che l'IA non può offrire una diagnosi certa, preferisce avere una possibile spiegazione piuttosto che aspettare un appuntamento medico. Alcuni utenti utilizzano ChatGPT per preparare domande prima di andare dal medico, un uso meno problematico. Tuttavia, la lentezza del sistema sanitario spagnolo porta molti a cercare risposte rapide nell'IA. Juan Pablo, 38 anni, racconta: “Mi sono svegliato con dolore durante la minzione e l'appuntamento medico era tra 12 giorni. Ho consultato ChatGPT e sono andato in farmacia con quelle informazioni. Non era l'ideale, ma non avevo altra opzione”. La ricerca di tranquillità è comprensibile, specialmente quando l'accesso all'assistenza medica è limitato. Ma Beúnza avverte: “Stiamo cercando di sistemare un sistema imperfetto con uno strumento imperfetto. OpenAI è consapevole di questo problema e lo sfrutta, ma il suo obiettivo è creare business, non risolvere l'incertezza dei pazienti”. Il vero problema risiede nell'uso di ChatGPT Salute per diagnosi. Sebbene possa essere utile per consultare informazioni nutrizionali o interpretare analisi, la sua funzione diagnostica è la più problematica. Limitare le risposte dell'IA potrebbe sembrare una soluzione, ma i modelli sono progettati per soddisfare l'utente, non necessariamente per dire la verità. Restrizioni alle sue funzioni andrebbero contro l'obiettivo di aumentare la base di utenti. Per ora, l'implementazione di ChatGPT Salute in Spagna e in Europa affronta importanti ostacoli legali. Il Regolamento Generale sulla Protezione dei Dati dell'UE impone controlli rigorosi sull'uso e il trasferimento di dati sanitari, per i quali l'applicazione non è ancora pronta.
    Gianro Compagno

    Gianro Compagno

    CTO

    Gianro aporta una gran experiencia en gestión de proyectos tecnológicos en entornos multinacionales. Su experiencia técnica combinada con un MBA y una maestría en Psicología Investigativa crea un enfoque único para las soluciones tecnológicas. Como Experto en IA y Automatización, aplica conocimientos psicológicos para diseñar sistemas más intuitivos y centrados en el ser humano. Su enfoque orientado al detalle y mentalidad positiva aseguran que nuestras soluciones no solo sean innovadoras y confiables, sino que también se alineen con cómo las personas piensan y trabajan naturalmente.