Inteligencia Artificial (IA)
Conflitto per allucinazioni di IA nei documenti giudiziari scatena dibattito legale
Paloma Firgaira
2026-05-04
5 min read
L'ascesa dell'intelligenza artificiale nel settore legale sta generando sfide senza precedenti per avvocati e studi legali. Recentemente, diversi legali hanno iniziato a rivelare pubblicamente i nomi dei programmi di IA che utilizzano, dopo essere stati coinvolti in polemiche per errori in documenti giudiziari.
Alcune settimane fa, Ross LeBlanc, socio dello studio Dudley DeBosier in Louisiana, si è scusato con il giudice William Jorden per aver presentato atti che, sebbene citassero una sentenza reale, includevano frammenti inesistenti. LeBlanc ha spiegato di aver iniziato a utilizzare il software di IA Eve per redigere argomentazioni e, dopo aver verificato la sua precisione iniziale, ha smesso di controllare accuratamente le citazioni. "Non avrei mai pensato che questo potesse succedere a me", ha ammesso in una lettera privata al giudice.
Jay Madheswaranm, CEO di Eve, ha assicurato a Business Insider che, dopo un'audit interna, hanno confermato che il loro software non ha generato citazioni false in questo caso. Tuttavia, la situazione ha messo in evidenza la responsabilità condivisa tra avvocati e sviluppatori di IA. I tribunali hanno sanzionato professionisti per aver presentato documenti con "allucinazioni" di IA, e studi prestigiosi come Sullivan & Cromwell hanno dovuto scusarsi per errori simili.
La trasparenza sull'uso dell'IA è limitata: secondo il ricercatore Damien Charlotin, meno del 10% dei casi identifica il software utilizzato. Molti avvocati preferiscono non rivelare se utilizzano strumenti come ChatGPT o Claude, di Anthropic, che sono stati protagonisti di errori in documenti legali.
Eve, valutata un miliardo di dollari dopo un recente round di finanziamento, elabora oltre 200.000 documenti mensili e promette salvaguardie per evitare errori. Tuttavia, la fiducia in questi strumenti è minacciata quando i fallimenti vengono alla luce, come è accaduto in un caso recente legato a una caduta in un negozio Lowe’s, dove sono state rilevate nuove "allucinazioni" in scritti legali.
Dudley DeBosier sostiene che gli avvocati devono esaminare attentamente i risultati generati dall'IA e assumersi la responsabilità finale del contenuto presentato. LeBlanc, da parte sua, riconosce che la pressione per l'efficienza lo ha portato a fidarsi troppo della tecnologia e spera che la sua esperienza serva da avvertimento ad altri professionisti. Anche se non incolpa Eve, ha deciso di smettere di utilizzare temporaneamente lo strumento: "È giusto avere un periodo di raffreddamento", ha concluso.