ISMS Forum e il suo Gruppo di Intelligenza Artificiale (GIA) hanno celebrato la terza edizione dell'AI & Cyber Security Forum, consolidandosi come un evento chiave per i professionisti della cybersicurezza e della conformità normativa interessati all'intelligenza artificiale. Con la partecipazione di 500 esperti, il forum ha affrontato in modo pratico le sfide dell'integrazione dell'IA nelle politiche aziendali.
Carlos Sáiz, vicepresidente di ISMS Forum e direttore del Data Privacy Institute, ha sottolineato la rilevanza delle iniziative presentate dal GIA, come il Decalogo di Sicurezza nell'IA Agente, l'Inventario di Servizi e Sistemi di IA e la Mappa dei Rischi del MIT. Questi documenti offrono a CISOs e responsabili della sicurezza strumenti per adattare le loro politiche di fronte alla rapida evoluzione dell'IA.
Tra le relazioni più rilevanti, Fernando Rubio (Microsoft) e Daniel Largacha (MAPFRE) hanno dibattuto sulla resilienza attiva e sulla necessità di evolvere i modelli di difesa per anticipare le minacce e rafforzare la capacità di risposta delle organizzazioni. Hanno concordato sull'importanza di bilanciare recupero, ricerca e controllo del rischio, integrando sicurezza e continuità aziendale.
In un tavolo su accountability e IA, esperti di Telefónica, MAPFRE e Securiti AI hanno analizzato la responsabilità e la rendicontazione secondo il nuovo Regolamento sull'IA (RIA), evidenziando l'utilità dell'esperienza pregressa con il RGPD e le differenze nei modelli di governance tra le organizzazioni.
L'evento si è strutturato in due itinerari. Il primo, focalizzato sulla relazione tra IA e sicurezza, ha visto l'intervento di Alejandro Las Heras, dell'Agenzia di Cybersicurezza della Comunità di Madrid, che ha esposto iniziative per promuovere la cybersicurezza aziendale. Il secondo, dedicato a governance e compliance, ha avuto come ospite Manuel Ruiz, del Comune di Madrid, che ha spiegato la trasformazione digitale e l'applicazione dell'IA nella gestione pubblica.
Durante il forum è stata presentata la Mappa dei Rischi del MIT, elaborata con la collaborazione di esperti di Barceló Hotel Group, Iberdrola e SpaceMinds. Questo rapporto, basato sull'analisi di 65 tassonomie e oltre 1.600 rischi, aiuta le organizzazioni a identificare e gestire i rischi associati all'IA, allineandosi con il RIA, il RGPD e normative come NIS2 e ENS. La mappa introduce una doppia tassonomia, causale e di domini, facilitando la priorizzazione dei controlli e l'integrazione dell'IA nelle matrici di rischio aziendali.
L'Inventario di Servizi e Sistemi di IA, presentato da responsabili di Tendam e Cesce, è diventato un riferimento per conformarsi al RIA, consentendo di identificare rischi, migliorare la tracciabilità e rafforzare la sicurezza nell'uso dell'IA, supportandosi su quadri internazionali come NIST e ISO.
Il Decalogo di Sicurezza nell'IA Agente, presentato da Angel Pérez ed Eduardo de Prado, affronta le nuove sfide di sicurezza di fronte all'emergere di agenti di IA autonomi. Basato su riferimenti come OWASP e MITRE ATLAS, propone dieci principi per mitigare minacce emergenti, come iniezioni di prompt o fughe di credenziali.
In un altro tavolo, esperti di Codere, Ecix e L'Oréal hanno analizzato le nuove linee guida dell'Agenzia Spagnola di Supervisione dell'Intelligenza Artificiale (AESIA), evidenziando la loro utilità per adattare modelli di governance e controllo, e l'importanza di coinvolgere tutta l'organizzazione nella gestione dei rischi come bias, impatto sui diritti e trasparenza.
Il forum si è concluso con l'intervento di Lucas Varela, che ha analizzato come l'IA stia trasformando il ransomware, consentendo attacchi più automatizzati e sofisticati. Ha sottolineato l'importanza di rafforzare controlli come l'autenticazione multifattoriale e la necessità di adattare continuamente le strategie di difesa.
Con questa edizione, l'AI & Cyber Security Forum si riafferma come uno spazio di riferimento in Spagna per il dibattito sulle sfide dell'intelligenza artificiale in sicurezza, governance e gestione del rischio, promuovendo lo sviluppo di strumenti pratici per un'adozione sicura e responsabile dell'IA nelle organizzazioni.