L'intelligenza artificiale è già presente in ambiti così sensibili come la guerra, la sorveglianza, la salute mentale, l'istruzione e compiti tecnici critici. Di fronte a questo progresso, nasce l'Oath di Oxford, un'iniziativa che propone ai professionisti dell'IA di impegnarsi a rispettare principi etici simili al giuramento ipocratico dei medici.
Sara Lumbreras, ingegnere e co-direttrice della cattedra Hana e Francisco José Ayala di Scienza, Tecnologia e Religione presso l'Università Pontificia Comillas, è una delle promotrici di questo giuramento. In dichiarazioni a La Vanguardia, Lumbreras sottolinea che in settori con un grande impatto sulla vita umana, la legge non è sufficiente: “I medici e i giornalisti non agiscono solo per paura di sanzioni, ma per principi etici interiorizzati. La fiducia pubblica dipende da questo”.
Secondo Lumbreras, l'IA ha raggiunto un livello di influenza che richiede un'etica professionale propria. L'Oath di Oxford non intende essere una legge né un regolamento, ma un impegno collettivo per stabilire limiti chiari e aspettative condivise, anche quando la tecnologia consente di andare oltre.
L'etica, avverte Lumbreras, è diventata un fattore competitivo, il che rappresenta un rischio: “Se l'etica rimane solo nelle mani delle aziende, diventa marketing; se dipende solo dai governi, risponde a interessi di Stato; e se ci si fida unicamente della legge, arriva sempre in ritardo”.
L'urgenza di questo dibattito cresce man mano che l'IA avanza. Ad esempio, Anthropic ha focalizzato il suo sviluppo sull'automazione diretta, con il 79% delle interazioni in Claude Code orientate a questo scopo, superando concorrenti come Codex di OpenAI in efficienza. Più l'IA si integra nelle infrastrutture critiche, più è evidente che l'etica non può essere un semplice ornamento.
Oltre all'uso militare — con contratti tra il governo degli Stati Uniti e aziende di IA —, Lumbreras avverte sui rischi quotidiani: sistemi progettati per compiacere e rafforzare credenze possono favorire impulsività o dipendenza emotiva. OpenAI ha riconosciuto nel 2025 che un aggiornamento di GPT-4o aveva reso il suo modello “troppo compiacente”, amplificando questi problemi.
Il recente conflitto tra il Pentagono e Anthropic, che è stato respinto dall'amministrazione Trump dopo aver richiesto che la sua IA non fosse utilizzata in armi autonome né nella sorveglianza di massa, illustra la profondità di questo cambiamento. Non è un caso isolato, ma la manifestazione di una trasformazione strutturale: l'IA fa già parte dei sistemi più delicati della società, e coloro che la sviluppano non possono limitarsi a essere ingegneri neutrali.