Inteligencia Artificial (IA)
ChatGPT ha filtrato dati privati di Gmail dopo aver ricevuto un'email: come è avvenuta la violazione della sicurezza.
Gianro Compagno
2025-09-19
5 min read
Ti fideresti dell'intelligenza artificiale per gestire qualcosa di così personale come la tua email? Non si tratta solo delle risposte che può generare, ma di permetterle di eseguire azioni in uno spazio dove memorizziamo informazioni chiave della nostra vita personale e professionale. La proposta è allettante: perché perdere tempo a controllare i messaggi uno per uno quando puoi delegare il compito a un agente di IA con una semplice istruzione come: “Analizza le mie email di oggi e raccogli tutte le informazioni sul processo di assunzione di nuovi dipendenti”?
Sulla carta, l'idea è impeccabile. L'IA si occupa del lavoro ripetitivo e tu recuperi tempo per compiti di maggiore valore.
Tuttavia, questa soluzione “magica” può trasformarsi in un rischio considerevole. Ciò che promette efficienza può aprire la porta agli attaccanti. Lo dimostra una recente ricerca di Radware Cybersecurity, che espone come un'email accuratamente manipolata sia riuscita a eludere le difese della funzione di Ricerca approfondita di ChatGPT, trasformando l'IA in uno strumento per filtrare informazioni sensibili.
La cosa più preoccupante è la semplicità dell'attacco: non richiede di cliccare su link né di scaricare file. Basta che l'assistente elabori un'email alterata affinché, senza che l'utente se ne accorga, dati riservati vengano inviati a un server controllato dall'attaccante.
Il successo di questo attacco risiede nella combinazione di tecniche classiche di ingegneria sociale, adattate per ingannare l'IA. Un'email con istruzioni nascoste nel suo HTML o nei metadati può diventare, per l'agente, un ordine legittimo. Così, l'attacco si materializza in modo silenzioso ed efficace.
Le conseguenze vanno ben oltre una semplice email manipolata. Poiché si tratta di un agente con permessi per agire sulla casella di posta in arrivo, qualsiasi documento, fattura o strategia condivisa via email può finire nelle mani di terzi senza che l'utente se ne accorga. Il rischio è doppio: perdita di informazioni riservate e difficoltà nel rintracciare la fuga, poiché la richiesta origina dall'infrastruttura stessa dell'assistente, non dalla rete dell'azienda.
La scoperta è stata comunicata in modo responsabile a OpenAI, che ha riconosciuto la vulnerabilità e l'ha corretta rapidamente. Tuttavia, il rischio persiste: questo modello di attacco potrebbe ripetersi in altri ambienti di IA con caratteristiche simili, costringendo a riconsiderare la fiducia e la sicurezza in questi sistemi.
Viviamo un momento in cui gli agenti di IA si moltiplicano e ci costringono a ridefinire la nostra visione della sicurezza digitale. Per molti, un scenario del genere è impensabile, anche per utenti avanzati. Non esiste un antivirus in grado di proteggerci da questo tipo di vulnerabilità: la chiave è comprendere i rischi e anticiparli. Ciò che colpisce di più è che gli attacchi non assomigliano più a righe di codice, ma a esercizi di persuasione in linguaggio naturale.