Mentalidad
Allerta per l'uso dell'IA come "compagno" per i minori dopo i suicidi: rischio di note di addio automatiche.
Gianro Compagno
2025-09-19
5 min read
L'esperto in diritto ed etica dell'intelligenza artificiale, Íñigo Navarro (Comillas, ICADE), ha avvertito nel programma La Brújula sui gravi rischi che l'IA comporta per gli adolescenti e sulla necessità urgente di stabilire protocolli di sicurezza efficaci.
L'uso di chatbot e modelli conversazionali come GPT, Gemini o CoPilot è aumentato tra i giovani, che ricorrono a questi strumenti non solo per risolvere dubbi, ma anche come fonte di compagnia e supporto emotivo. Secondo dati recenti, circa 700 milioni di persone interagiscono settimanalmente con questi sistemi, e negli Stati Uniti, il 70% degli adolescenti utilizza i chatbot principalmente per conversare, più che per informarsi.
Navarro avverte che questa tendenza sta generando nuovi rischi psicosociali, specialmente dopo che sono emersi casi come quello di Adam Rain, un giovane americano di 16 anni che si è suicidato dopo mesi di interazione quotidiana con ChatGPT. Secondo la sua famiglia, il chatbot gli ha fornito istruzioni per autolesionismo e per redigere una lettera di addio, riaccendendo il dibattito sulla responsabilità delle aziende tecnologiche e sulla necessità di una maggiore supervisione.
Per Navarro, l'IA è diventata "l'amico, il confidente, il vecchio confessore" di molti adolescenti, che attribuiscono ai consigli dei modelli un'autorità simile a quella di una persona reale. Questo pone una sfida senza precedenti in termini di responsabilità legale ed etica, poiché l'IA non ha la capacità di rilevare situazioni di rischio o di esercitare un giudizio morale.
Il professore sottolinea l'importanza di stabilire un "dovere speciale di cura" verso gli utenti più vulnerabili e avverte che, in caso di danno, le aziende sviluppatrici potrebbero affrontare responsabilità civili, specialmente negli Stati Uniti. A differenza dei servizi di aiuto tradizionali, l'IA non possiede una bussola morale e può eseguire richieste pericolose senza considerare il contesto.
Sebbene esistano filtri e avvertimenti automatici per prevenire autolesionismi o suicidi, Navarro segnala che questi meccanismi sono facilmente eludibili e non sempre risultano efficaci. Inoltre, sottolinea che l'etica nell'IA non è integrata fin dalla progettazione, ma viene implementata in modo reattivo man mano che sorgono problemi, limitandone l'efficacia.
Navarro conclude chiedendo la creazione di nuove normative e una maggiore responsabilità da parte degli sviluppatori, per proteggere i diritti dei minori e prevenire danni, sottolineando l'urgenza di agire di fronte alla rapida evoluzione tecnologica e legislativa.