Inteligencia Artificial (IA)
Regolamentazione della Marcatura e Etichettatura dei Contenuti Sintetici nella Nuova Normativa sull'IA
Paloma Firgaira
2026-03-06
5 min read
Indice dei contenuti
- La crisi dell'autenticità digitale
- Articolo 50 del RIA: struttura e obiettivi
- Marcatura tecnica: obblighi per i fornitori (art. 50.2 RIA)
- Etichettatura visibile: obblighi per i responsabili del dispiegamento (art. 50.4 RIA)
- Testi informativi e questioni di interesse pubblico
- Codice di Condotta per la Trasparenza e modelli di IA di uso generale
- Sfide tecniche e giuridiche
- Conclusioni
La crisi dell'autenticità digitale
L'emergere dell'intelligenza artificiale (IA) nella generazione e manipolazione di contenuti ha trasformato radicalmente la fiducia nelle informazioni digitali. La presunzione di autenticità, già indebolita prima dell'IA generativa, ha perso validità di fronte alla facilità con cui si possono creare immagini, video, audio e testi indistinguibili da quelli reali. Questa situazione influisce sulla comunicazione pubblica, sui mercati e sui processi democratici.
Il Regolamento (UE) 2024/1689 sull'Intelligenza Artificiale (RIA), approvato il 13 giugno 2024, risponde a questa sfida imponendo obblighi di trasparenza: sebbene non sia vietata la creazione di contenuti sintetici, è richiesto che la loro origine artificiale sia identificabile per gli utenti.
Articolo 50 del RIA: struttura e obiettivi
L'articolo 50 del RIA stabilisce un quadro orizzontale di trasparenza, applicabile a tutti i sistemi di IA generativa, indipendentemente dal loro livello di rischio. Distingue quattro obblighi principali: (i) trasparenza nei sistemi conversazionali; (ii) marcatura tecnica leggibile da macchina per i fornitori; (iii) informazione all'utente nei sistemi di riconoscimento delle emozioni o biometria; e (iv) etichettatura visibile per deepfake e testi generati o manipolati artificialmente.
Questa architettura normativa mira a consentire agli utenti di identificare quando interagiscono con IA o consumano contenuti generati da essa, riducendo il rischio di inganno e proteggendo l'integrità del dibattito pubblico.
Marcatura tecnica: obblighi per i fornitori (art. 50.2 RIA)
L'articolo 50.2 obbliga i fornitori di IA generativa a marcare tecnicamente i contenuti sintetici (immagini, video, audio, testi) in modo che siano rilevabili da sistemi automatici. Non viene imposta una tecnologia specifica, ma la marcatura deve essere robusta e resistente a manipolazioni comuni. La responsabilità di dimostrare l'efficacia tecnica ricade sul fornitore.
Secondo il Codice di Condotta per la Trasparenza, la marcatura può essere effettuata tramite: (i) filigrane digitali invisibili; (ii) metadati strutturati che informano sull'origine e le modifiche del file; e (iii) tecniche di fingerprinting che collegano il contenuto al sistema generatore. Si raccomanda di combinare diverse tecniche per rafforzare la rilevabilità, senza richiedere soluzioni chiuse, e si richiede una robustezza ragionevole contro manipolazioni prevedibili.
Etichettatura visibile: obblighi per i responsabili del dispiegamento (art. 50.4 RIA)
L'articolo 50.4 richiede a coloro che dispiegano sistemi di IA che generano o manipolano immagini, audio o video che simulano fatti, persone o oggetti reali (deepfake), di etichettare il contenuto in modo visibile e comprensibile per il pubblico. A differenza della marcatura tecnica, l'etichettatura ha uno scopo comunicativo: avvisare l'utente sulla natura artificiale del contenuto.
Questa obbligazione deve essere applicata in modo proporzionato, considerando il mezzo e le aspettative del pubblico. Se il contenuto è artistico, creativo o satirico e identificato chiaramente come tale, l'obbligo si adatta per non limitare la libertà di espressione, ma proteggendo i diritti delle persone coinvolte.
Testi informativi e questioni di interesse pubblico
L'etichettatura visibile si applica anche a testi generati o manipolati da IA che informano su questioni di interesse pubblico, come notizie o comunicati istituzionali. Deve essere indicato chiaramente il loro origine artificiale, a meno che il contenuto non sia stato sottoposto a controllo editoriale e una persona fisica o giuridica assuma la responsabilità, sempre che non si tratti di deepfake suscettibili di indurre in errore. Le autorità competenti sono esenti quando agiscono nel contesto di indagini o perseguimenti di reati.
Codice di Condotta per la Trasparenza e modelli di IA di uso generale
L'adesione al Codice di Condotta per la Trasparenza non garantisce automaticamente il rispetto del RIA, ma può servire come prova davanti alle autorità. Il Codice propone una strategia multilivello basata su metadati firmati, marcature tecniche e etichettatura visibile, per garantire la tracciabilità del contenuto sintetico.
Per quanto riguarda i modelli di IA di uso generale (GPAI), il Codice riconosce che molti sistemi soggetti all'articolo 50 si basano su modelli sviluppati ai sensi degli articoli 53 e 55 del RIA, che richiedono documentazione tecnica, trasparenza sui dati di addestramento e, per modelli di rischio sistemico, misure aggiuntive di valutazione e mitigazione. Sebbene questi articoli non impongano direttamente la marcatura, fanno parte del quadro normativo che condiziona la generazione di contenuti.
Sfide tecniche e giuridiche
Il rispetto dell'articolo 50 presenta sfide rilevanti:
- Robustezza della marcatura: Tecniche come filigrane o metadati possono essere alterate da compressione, cambiamenti di formato o editing, rendendo difficile distinguere tra modifiche legittime e la rimozione deliberata di marcature.
- Interoperabilità: L'assenza di uno standard tecnico europeo genera incertezze sulla compatibilità tra sistemi e sulla verifica incrociata delle marcature.
- Difficoltà nel testo: A differenza di immagini o video, il testo non consente di incorporare segnali impercettibili resistenti a modifiche, e i sistemi di rilevamento attuali non sono completamente affidabili.
- Portata del contenuto manipolato: L'articolo 50.4 non definisce con precisione quale grado di intervento attivi l'obbligo di etichettatura, quindi è necessario interpretare l'impatto sulla percezione dell'utente e il potenziale di indurre in errore.
Sarà necessario che le autorità sviluppino criteri chiari per garantire sicurezza giuridica e proporzionalità nell'applicazione di questi obblighi.
Conclusioni
L'articolo 50 del RIA stabilisce un regime di trasparenza essenziale per il contenuto generato o manipolato da IA, rafforzando la fiducia nell'ambiente digitale. Differenzia chiaramente gli obblighi del fornitore (marcatura tecnica) e del responsabile del dispiegamento (etichettatura visibile), delimitando le responsabilità lungo la catena del valore.
La supervisione si concentrerà sulla robustezza tecnica della marcatura, sulla chiarezza dell'etichettatura e sulla documentazione che consenta di rintracciare il contenuto. La trasparenza cessa di essere opzionale e diventa un requisito legale, fondamentale per la valutazione di conformità e la mitigazione delle responsabilità.
Fonte: elderecho.com