Professioni delle Lettere: Chiave per Umanizzare l'Intelligenza Artificiale senza Bussola Morale
    Inteligencia Artificial (IA)

    Professioni delle Lettere: Chiave per Umanizzare l'Intelligenza Artificiale senza Bussola Morale

    Paloma Firgaira
    2026-04-19
    5 min read
    ChatGPT, Gemini e Claude hanno irrumpito nella vita quotidiana di miliardi di persone, trasformando radicalmente il modo in cui interagiamo con la tecnologia. Questi avanzati modelli di intelligenza artificiale conversazionale sono diventati strumenti essenziali per utenti di tutti i profili, modificando dalla ricerca di informazioni alla gestione di conversazioni complesse o all'adozione di abitudini più sane. Tuttavia, il enorme potenziale di questi assistenti IA non deve nascondere una realtà sempre più evidente: il loro impatto va ben oltre l'efficienza o il comfort, alterando profondamente la cognizione, le relazioni e la convivenza sociale. La sfida attuale è dotare questa tecnologia di una bussola etica che garantisca un uso responsabile e benefico. Attualmente, ChatGPT (OpenAI) conta più di 900 milioni di utenti settimanali, Gemini (Google) supera i 750 milioni mensili e Copilot (Microsoft) raggiunge i 33 milioni. Sebbene non esistano cifre esatte per altre piattaforme come Grok (X) o NotebookLM (Google), è innegabile che l'IA ha permeato tutti gli ambiti della vita, e sempre più persone delegano a essa compiti quotidiani. Dalla Società della Conoscenza alla Società dell'Algoritmo L'intelligenza artificiale sta ridefinendo i pilastri della società, spostandoci verso quella che alcuni esperti definiscono la Società dell'Algoritmo. “Gli algoritmi non solo rafforzano opinioni o creano camere di eco, ma prendono decisioni cruciali per noi”, sottolinea Juan Sebastián Fernández, sociologo specializzato in IA dell'Università di Almería. Oggi, gli algoritmi decidono l'assegnazione di mutui, diagnosi mediche, sentenze giudiziarie e processi di selezione del personale. Il problema è che molte di queste decisioni vengono prese senza una supervisione adeguata, perpetuando pregiudizi e discriminazioni. “L'IA si sta auto-programmando e, in molti casi, riproduce pregiudizi esistenti”, avverte Fernández. Questo aumento dell'IA ha polarizzato il dibattito scientifico: mentre alcuni avvertono di rischi apocalittici, altri adottano una visione eccessivamente ottimista. In questo contesto, le scienze sociali reclamano un ruolo centrale per orientare lo sviluppo dell'IA verso il benessere collettivo. “Le scienze sociali sono state emarginate nei progressi tecnologici, quando dovrebbero essere protagoniste”, sottolinea José Serrano, sociologo dell'Università Europea delle Canarie. Il ruolo delle Humanities nell'era algoritmica Le Humanities e le scienze sociali possono e devono intervenire nello sviluppo dell'IA. Sociologi, filosofi, linguisti, comunicatori, giuristi e designer sono essenziali per umanizzare una tecnologia che, in sostanza, rimane un insieme di codici. Il dibattito deve concentrarsi su tre assi: umanizzare l'agenda tecnologica, alfabetizzare la popolazione sugli algoritmi e consolidare quadri normativi solidi. L'automazione, i pregiudizi, la privacy e le disuguaglianze di genere richiedono audit filosofici, sociologici, educativi e giuridici. Solo così si potranno rilevare e correggere deviazioni, addestrando l'IA a operare con criteri etici e a beneficio della società. “Le scienze sociali hanno molto da offrire”, afferma Fernández. Serrano aggiunge: “Il peso dell'IA sarà sempre maggiore, quindi dobbiamo governarla, non solo svilupparla”. Sebbene ChatGPT, Gemini o Grok possano simulare risposte umane, in realtà sono sistemi basati su codice, molto diversi dal cervello umano, dove intervengono emozioni, etica e ragionamento. Prioritizzare le esigenze sociali È fondamentale che il design dell'IA prioritizzi le esigenze sociali, coinvolgendo team multidisciplinari in tutte le fasi di sviluppo. Inoltre, è cruciale formare la popolazione affinché comprenda e metta in discussione il funzionamento degli algoritmi. “Capire come operano e generano pregiudizi è tanto importante oggi quanto imparare a leggere dopo l'invenzione della stampa”, sottolinea Fernández. L'educazione deve adattarsi a questo nuovo contesto. “L'IA in aula costringe a ripensare il ruolo degli insegnanti, che devono concentrarsi sull'insegnare a confrontare e mettere in discussione le informazioni”, afferma Serrano. L'uso acritico dell'IA può portare a una “debito cognitivo”, dove gli studenti accettano senza mettere in discussione testi generati da macchine, influenzando il loro apprendimento e pensiero critico. Uno studio condotto negli Stati Uniti ha dimostrato che l'uso di modelli di linguaggio come GPT-4o in compiti di scrittura riduce l'attivazione neuronale e influisce sull'apprendimento, la memoria e la creatività. “La delega di competenze cognitive all'IA genera un problema profondo”, conclude Fernández. La regolamentazione dell'IA in Europa L'Europa ha fatto un passo avanti con la Legge sull'Intelligenza Artificiale (AI Act), ma gli esperti ritengono che sia ancora insufficiente. “È necessario integrarla con audit indipendenti e meccanismi di appello per coloro che subiscono decisioni automatizzate”, insiste Fernández. Il dominio dell'IA da parte di grandi aziende tecnologiche pone inoltre una sfida economica e sociale: la concentrazione di ricchezze e risorse in poche mani aumenta le disuguaglianze. “Se non vengono stabiliti limiti, questo divario sarà sempre maggiore”, avverte Fernández.
    Paloma Firgaira

    Paloma Firgaira

    CEO

    Con más de 20 años de experiencia, Paloma es una ejecutiva flexible y ágil que sobresale implementando estrategias adaptadas a cada situación. Su MBA en Administración de Empresas y experiencia como Experta en IA y Automatización fortalecen su liderazgo y pensamiento estratégico. Su eficiencia en la planificación de tareas y rápida adaptación al cambio contribuyen positivamente a su trabajo. Con sólidas habilidades de liderazgo e interpersonales, tiene un historial comprobado en gestión financiera, planificación estratégica y desarrollo de equipos.