Inteligencia Artificial (IA)
Difese efficaci contro le frodi digitali: come proteggerti online
Paloma Firgaira
2026-02-23
5 min read
L'espansione delle immagini false generate dall'intelligenza artificiale ha spinto lo sviluppo di nuovi strumenti progettati per combattere la disinformazione digitale.
Attualmente, la rete è saturata di fotografie, video e meme manipolati, molti dei quali sono quasi indistinguibili dalla realtà, alimentando un'ondata crescente di disinformazione. Per affrontare questo fenomeno, sono emerse diverse applicazioni e piattaforme in grado di identificare, con notevole precisione, immagini create o alterate tramite IA.
Secondo vari rapporti, le frodi legate ai contenuti generati dall'intelligenza artificiale hanno causato perdite superiori a 1.500 milioni di dollari lo scorso anno. Le truffe spaziano da fatture e documenti falsificati per giustificare spese aziendali, immagini di danni inesistenti a beni, fino alla diffusione di eventi fittizi sui social media e nei mezzi di comunicazione, e persino alla clonazione di voci per autorizzare trasferimenti bancari.
Di fronte a questo scenario, strumenti come IMGDetector.ai, RealReveal, Tenorshare Deepfake Detection, AI or Not e Vericta hanno guadagnato importanza. Molti di essi, disponibili gratuitamente, consentono di rilevare immagini sintetiche, analizzare incoerenze visive e tracciare le impronte digitali lasciate dai sistemi di generazione di immagini false.
Le immagini hanno ancora lo stesso valore di prima? Per Georgina Viaplana, cofondatrice e direttrice di Vericta, la risposta è affermativa, anche se avverte che la facilità con cui si accettano immagini senza metterle in discussione è cambiata. “Proprio perché un'immagine ha tanto potere, è attraente manipolarla”, sottolinea. La sua azienda ha sviluppato una tecnologia in grado di verificare in pochi secondi se un'immagine o un video è autentico o generato da IA.
Viaplana sottolinea che la fiducia nell'autenticità dei contenuti digitali è oggi una necessità strutturale per le aziende, specialmente quando un'immagine può comportare costi diretti. Esempi di ciò si trovano nel settore assicurativo, dove le richieste vengono risolte a partire da immagini che possono essere manipolate, nel commercio elettronico o nel settore immobiliare.
Etichettare le immagini generate da IA potrebbe essere una soluzione, anche se Viaplana avverte che le filigrane e i metadati possono essere alterati, e non tutti i modelli seguono gli stessi standard.
Hervé Lambert, responsabile delle Operazioni Globali di Consumo in Panda Security, concorda sul fatto che questi strumenti siano utili e continueranno a evolversi, anche se riconosce che la lotta tra generatori e rilevatori di IA è costante. Sottolinea il loro valore in ambiti professionali come i mezzi di comunicazione, la giustizia o le forze di sicurezza, ma dubita del loro impatto tra il pubblico generale, specialmente in paesi con bassa cultura di cybersicurezza. “La maggior parte non verifica nemmeno una notizia, tanto meno un'immagine che rafforza le proprie credenze”, afferma Lambert, che ricorda che se il 73% degli spagnoli crede che i propri telefoni non necessitino di protezione, è poco probabile che verifichino l'autenticità di un'immagine.
Lambert considera auspicabile che tutte le immagini create con IA siano etichettate, anche se riconosce che la mancanza di confini su internet rende difficile l'applicazione universale di questa misura.