Oxford propone che gli ingegneri firmino un impegno etico per lo sviluppo dell'IA.
    Inteligencia Artificial (IA)

    Oxford propone che gli ingegneri firmino un impegno etico per lo sviluppo dell'IA.

    Paloma Firgaira
    2026-03-15
    5 min read
    L'intelligenza artificiale è già presente in ambiti così sensibili come la guerra, la sorveglianza, la salute mentale, l'istruzione e compiti tecnici critici. Di fronte a questo progresso, nasce l'Oath di Oxford, un'iniziativa che propone ai professionisti dell'IA di impegnarsi a rispettare principi etici simili al giuramento ipocratico dei medici. Sara Lumbreras, ingegnere e co-direttrice della cattedra Hana e Francisco José Ayala di Scienza, Tecnologia e Religione presso l'Università Pontificia Comillas, è una delle promotrici di questo giuramento. In dichiarazioni a La Vanguardia, Lumbreras sottolinea che in settori con un grande impatto sulla vita umana, la legge non è sufficiente: “I medici e i giornalisti non agiscono solo per paura di sanzioni, ma per principi etici interiorizzati. La fiducia pubblica dipende da questo”. Secondo Lumbreras, l'IA ha raggiunto un livello di influenza che richiede un'etica professionale propria. L'Oath di Oxford non intende essere una legge né un regolamento, ma un impegno collettivo per stabilire limiti chiari e aspettative condivise, anche quando la tecnologia consente di andare oltre. L'etica, avverte Lumbreras, è diventata un fattore competitivo, il che rappresenta un rischio: “Se l'etica rimane solo nelle mani delle aziende, diventa marketing; se dipende solo dai governi, risponde a interessi di Stato; e se ci si fida unicamente della legge, arriva sempre in ritardo”. L'urgenza di questo dibattito cresce man mano che l'IA avanza. Ad esempio, Anthropic ha focalizzato il suo sviluppo sull'automazione diretta, con il 79% delle interazioni in Claude Code orientate a questo scopo, superando concorrenti come Codex di OpenAI in efficienza. Più l'IA si integra nelle infrastrutture critiche, più è evidente che l'etica non può essere un semplice ornamento. Oltre all'uso militare — con contratti tra il governo degli Stati Uniti e aziende di IA —, Lumbreras avverte sui rischi quotidiani: sistemi progettati per compiacere e rafforzare credenze possono favorire impulsività o dipendenza emotiva. OpenAI ha riconosciuto nel 2025 che un aggiornamento di GPT-4o aveva reso il suo modello “troppo compiacente”, amplificando questi problemi. Il recente conflitto tra il Pentagono e Anthropic, che è stato respinto dall'amministrazione Trump dopo aver richiesto che la sua IA non fosse utilizzata in armi autonome né nella sorveglianza di massa, illustra la profondità di questo cambiamento. Non è un caso isolato, ma la manifestazione di una trasformazione strutturale: l'IA fa già parte dei sistemi più delicati della società, e coloro che la sviluppano non possono limitarsi a essere ingegneri neutrali.
    Paloma Firgaira

    Paloma Firgaira

    CEO

    Con más de 20 años de experiencia, Paloma es una ejecutiva flexible y ágil que sobresale implementando estrategias adaptadas a cada situación. Su MBA en Administración de Empresas y experiencia como Experta en IA y Automatización fortalecen su liderazgo y pensamiento estratégico. Su eficiencia en la planificación de tareas y rápida adaptación al cambio contribuyen positivamente a su trabajo. Con sólidas habilidades de liderazgo e interpersonales, tiene un historial comprobado en gestión financiera, planificación estratégica y desarrollo de equipos.

    🍪 Esperienza Migliorata

    Utilizziamo i cookie per offrirLe la migliore esperienza e analisi per migliorare i nostri servizi. Può continuare con la nostra configurazione consigliata o .

    Consulti la nostra Politica sui Cookie e la Politica sulla Privacy.