Inteligencia Artificial (IA)
Professioni delle Lettere: Chiave per Umanizzare l'Intelligenza Artificiale senza Bussola Morale
Paloma Firgaira
2026-04-19
5 min read
ChatGPT, Gemini e Claude hanno irrumpito nella vita quotidiana di miliardi di persone, trasformando radicalmente il modo in cui interagiamo con la tecnologia. Questi avanzati modelli di intelligenza artificiale conversazionale sono diventati strumenti essenziali per utenti di tutti i profili, modificando dalla ricerca di informazioni alla gestione di conversazioni complesse o all'adozione di abitudini più sane.
Tuttavia, il enorme potenziale di questi assistenti IA non deve nascondere una realtà sempre più evidente: il loro impatto va ben oltre l'efficienza o il comfort, alterando profondamente la cognizione, le relazioni e la convivenza sociale. La sfida attuale è dotare questa tecnologia di una bussola etica che garantisca un uso responsabile e benefico.
Attualmente, ChatGPT (OpenAI) conta più di 900 milioni di utenti settimanali, Gemini (Google) supera i 750 milioni mensili e Copilot (Microsoft) raggiunge i 33 milioni. Sebbene non esistano cifre esatte per altre piattaforme come Grok (X) o NotebookLM (Google), è innegabile che l'IA ha permeato tutti gli ambiti della vita, e sempre più persone delegano a essa compiti quotidiani.
Dalla Società della Conoscenza alla Società dell'Algoritmo
L'intelligenza artificiale sta ridefinendo i pilastri della società, spostandoci verso quella che alcuni esperti definiscono la Società dell'Algoritmo. “Gli algoritmi non solo rafforzano opinioni o creano camere di eco, ma prendono decisioni cruciali per noi”, sottolinea Juan Sebastián Fernández, sociologo specializzato in IA dell'Università di Almería.
Oggi, gli algoritmi decidono l'assegnazione di mutui, diagnosi mediche, sentenze giudiziarie e processi di selezione del personale. Il problema è che molte di queste decisioni vengono prese senza una supervisione adeguata, perpetuando pregiudizi e discriminazioni. “L'IA si sta auto-programmando e, in molti casi, riproduce pregiudizi esistenti”, avverte Fernández.
Questo aumento dell'IA ha polarizzato il dibattito scientifico: mentre alcuni avvertono di rischi apocalittici, altri adottano una visione eccessivamente ottimista. In questo contesto, le scienze sociali reclamano un ruolo centrale per orientare lo sviluppo dell'IA verso il benessere collettivo. “Le scienze sociali sono state emarginate nei progressi tecnologici, quando dovrebbero essere protagoniste”, sottolinea José Serrano, sociologo dell'Università Europea delle Canarie.
Il ruolo delle Humanities nell'era algoritmica
Le Humanities e le scienze sociali possono e devono intervenire nello sviluppo dell'IA. Sociologi, filosofi, linguisti, comunicatori, giuristi e designer sono essenziali per umanizzare una tecnologia che, in sostanza, rimane un insieme di codici. Il dibattito deve concentrarsi su tre assi: umanizzare l'agenda tecnologica, alfabetizzare la popolazione sugli algoritmi e consolidare quadri normativi solidi.
L'automazione, i pregiudizi, la privacy e le disuguaglianze di genere richiedono audit filosofici, sociologici, educativi e giuridici. Solo così si potranno rilevare e correggere deviazioni, addestrando l'IA a operare con criteri etici e a beneficio della società. “Le scienze sociali hanno molto da offrire”, afferma Fernández. Serrano aggiunge: “Il peso dell'IA sarà sempre maggiore, quindi dobbiamo governarla, non solo svilupparla”.
Sebbene ChatGPT, Gemini o Grok possano simulare risposte umane, in realtà sono sistemi basati su codice, molto diversi dal cervello umano, dove intervengono emozioni, etica e ragionamento.
Prioritizzare le esigenze sociali
È fondamentale che il design dell'IA prioritizzi le esigenze sociali, coinvolgendo team multidisciplinari in tutte le fasi di sviluppo. Inoltre, è cruciale formare la popolazione affinché comprenda e metta in discussione il funzionamento degli algoritmi. “Capire come operano e generano pregiudizi è tanto importante oggi quanto imparare a leggere dopo l'invenzione della stampa”, sottolinea Fernández.
L'educazione deve adattarsi a questo nuovo contesto. “L'IA in aula costringe a ripensare il ruolo degli insegnanti, che devono concentrarsi sull'insegnare a confrontare e mettere in discussione le informazioni”, afferma Serrano. L'uso acritico dell'IA può portare a una “debito cognitivo”, dove gli studenti accettano senza mettere in discussione testi generati da macchine, influenzando il loro apprendimento e pensiero critico.
Uno studio condotto negli Stati Uniti ha dimostrato che l'uso di modelli di linguaggio come GPT-4o in compiti di scrittura riduce l'attivazione neuronale e influisce sull'apprendimento, la memoria e la creatività. “La delega di competenze cognitive all'IA genera un problema profondo”, conclude Fernández.
La regolamentazione dell'IA in Europa
L'Europa ha fatto un passo avanti con la Legge sull'Intelligenza Artificiale (AI Act), ma gli esperti ritengono che sia ancora insufficiente. “È necessario integrarla con audit indipendenti e meccanismi di appello per coloro che subiscono decisioni automatizzate”, insiste Fernández.
Il dominio dell'IA da parte di grandi aziende tecnologiche pone inoltre una sfida economica e sociale: la concentrazione di ricchezze e risorse in poche mani aumenta le disuguaglianze. “Se non vengono stabiliti limiti, questo divario sarà sempre maggiore”, avverte Fernández.