Inteligencia Artificial (IA)
L'IA etica non è un freno. È ciò che la rende realmente utile.
Gianro Compagno
5 min read
La settimana scorsa, Dario Amodei, CEO di Anthropic, ha fatto qualcosa che pochi leader tecnologici osano fare: dire "no" al Pentagono. Non è stato un "no" capriccioso. Non è stato un gesto politico. È stata una decisione aziendale ed etica con conseguenze reali: l'amministrazione Trump ha ordinato a tutte le agenzie federali di smettere di utilizzare la tecnologia di Anthropic. Il Segretario della Difesa Pete Hegseth ha dichiarato l'azienda un "rischio per la catena di approvvigionamento della sicurezza nazionale" — una designazione normalmente riservata a avversari stranieri. Tutto questo contro un'azienda americana. Per mantenere due principi.
Quali sono queste due "linee rosse" che Anthropic si è rifiutata di oltrepassare?
Primo: che la sua IA non venga utilizzata per la sorveglianza di massa domestica dei cittadini americani. Secondo: che la sua IA non alimenti armi completamente autonome che selezionano obiettivi e sparano senza intervento umano.
Questo è tutto. Due limiti. Non hanno chiesto nulla di stravagante. Non si sono rifiutati di collaborare con l'esercito — infatti, Anthropic è stata la prima azienda di IA a integrare i suoi modelli in reti militari classificate. Quello che hanno detto è stato: "Lavoriamo con voi, ma ci sono due cose che non faremo."
E per questo, sono stati puniti.
Voglio essere trasparente su qualcosa: lavoro con Claude, il modello di IA di Anthropic, come strumento nella mia consulenza Gialoma Life Solutions. Lo utilizzo professionalmente. E proprio per questo mi sento con l'autorità — e la responsabilità — di parlare di questo.
Perché ciò che Amodei ha difeso non è una posizione astratta. È esattamente ciò che rende strumenti come Claude preziosi per professionisti e aziende come la mia.
L'IA è uno strumento straordinariamente potente. In Gialoma, senza intelligenza artificiale, la nostra azienda semplicemente non esisterebbe così come è oggi. L'IA ci ha dato opportunità di crescita, capacità e portata che qualche anno fa erano impensabili per una consulenza delle nostre dimensioni. Ci permette di automatizzare processi, creare soluzioni per i nostri clienti e competere in un mercato che prima era riservato a grandi corporazioni.
Ma quella stessa potenza è ciò che richiede responsabilità. Uno strumento potente senza limiti etici non è uno strumento — è un rischio.
Ciò che mi preoccupa del discorso dominante è la falsa dicotomia che si è instaurata: o consegni la tecnologia senza restrizioni, o sei un ostacolo per la sicurezza nazionale. Quella narrativa è pericolosa.
Amodei l'ha spiegato chiaramente nella sua intervista con CBS News: l'IA avanza a un ritmo esponenziale. La capacità di calcolo che alimenta questi modelli raddoppia ogni quattro mesi. La legislazione, i quadri legali e i meccanismi di supervisione non vanno nemmeno lontanamente a quella velocità. Quando la tecnologia supera la legge, qualcuno deve mantenere la linea. E se il Congresso non agisce — e Amodei riconosce apertamente che dovrebbe essere il Congresso a legiferare su queste questioni — allora le aziende che creano questa tecnologia hanno una responsabilità che non possono eludere.
Pensiamo a qualcosa di concreto: oggi è tecnicamente possibile acquistare dati massivi sui cittadini — posizioni, informazioni personali, affiliazioni politiche — e analizzarli con l'IA per costruire profili dettagliati. Questo è legale. Ma, è accettabile? L'interpretazione giuridica del Quarto Emendamento non è stata aggiornata per contemplare queste capacità. E fino a quando non lo sarà, chi frena?
Ci sono coloro che sostengono che un'azienda privata non dovrebbe decidere cosa il governo può o non può fare con la tecnologia. È un argomento legittimo. Boeing produce aerei per l'esercito e non dice all'esercito come usarli. Ma Amodei ha risposto a questo in modo preciso: l'IA non è un aereo. È una tecnologia nuova, imprevedibile, in evoluzione esponenziale. Un generale capisce come funziona un aereo. Nessuno comprende completamente come funziona un modello di IA avanzato — nemmeno coloro che li costruiscono.
E questo non è un punto debole. È esattamente la ragione per cui la prudenza è necessaria.
Non stiamo parlando di frenare l'innovazione. Stiamo parlando del fatto che l'innovazione senza etica non è progresso — è imprudenza. E in un campo dove gli errori possono significare sorveglianza di massa di cittadini innocenti o armi che uccidono senza giudizio umano, la prudenza non è codardia. È responsabilità.
Ciò che più mi ha colpito delle dichiarazioni di Amodei è stata una frase semplice: "Discrepare con il governo è la cosa più americana del mondo."
E ha ragione. Ma io aggiungerei qualcosa di più: esigere che la tecnologia che usiamo e che ci trasforma sia etica, trasparente e al servizio delle persone — questo non è solo americano. È umano. È universale.
La risposta del settore tecnologico è stata rivelatrice. Centinaia di professionisti di aziende come OpenAI, IBM, Salesforce e Slack hanno firmato una lettera aperta chiedendo al Congresso di indagare se l'uso di questi strumenti di pressione contro un'azienda americana sia appropriato. Un ricercatore di OpenAI ha dichiarato pubblicamente che bloccare la sorveglianza di massa domestica è anche la sua "linea rossa personale." Il dibattito è aperto.
Da Gialoma, dalla mia esperienza quotidiana con l'IA come strumento di lavoro, voglio dire qualcosa in cui credo fermamente:
L'IA etica non è un freno per l'innovazione. È ciò che la rende davvero utile. È ciò che consente a professionisti, aziende e cittadini di fidarsi di questi strumenti. È ciò che rende possibile l'esistenza e la crescita di una consulenza come la nostra. Senza quella fiducia, l'IA è solo tecnologia. Con essa, è trasformazione.
Dario Amodei non ha solo difeso i principi della sua azienda. Ha difeso i principi che fanno sì che l'IA possa essere una forza positiva per tutti noi. E questo merita il nostro supporto.
La domanda non è se l'IA debba avere limiti. La domanda è se abbiamo il coraggio di mantenerli quando mantenerli ha un costo.
Anthropic ha dimostrato di sì.