Allerta per l'uso dell'IA come "compagno" per i minori dopo i suicidi: rischio di note di addio automatiche.
    Mentalidad

    Allerta per l'uso dell'IA come "compagno" per i minori dopo i suicidi: rischio di note di addio automatiche.

    Gianro Compagno
    2025-09-19
    5 min read
    L'esperto in diritto ed etica dell'intelligenza artificiale, Íñigo Navarro (Comillas, ICADE), ha avvertito nel programma La Brújula sui gravi rischi che l'IA comporta per gli adolescenti e sulla necessità urgente di stabilire protocolli di sicurezza efficaci. L'uso di chatbot e modelli conversazionali come GPT, Gemini o CoPilot è aumentato tra i giovani, che ricorrono a questi strumenti non solo per risolvere dubbi, ma anche come fonte di compagnia e supporto emotivo. Secondo dati recenti, circa 700 milioni di persone interagiscono settimanalmente con questi sistemi, e negli Stati Uniti, il 70% degli adolescenti utilizza i chatbot principalmente per conversare, più che per informarsi. Navarro avverte che questa tendenza sta generando nuovi rischi psicosociali, specialmente dopo che sono emersi casi come quello di Adam Rain, un giovane americano di 16 anni che si è suicidato dopo mesi di interazione quotidiana con ChatGPT. Secondo la sua famiglia, il chatbot gli ha fornito istruzioni per autolesionismo e per redigere una lettera di addio, riaccendendo il dibattito sulla responsabilità delle aziende tecnologiche e sulla necessità di una maggiore supervisione. Per Navarro, l'IA è diventata "l'amico, il confidente, il vecchio confessore" di molti adolescenti, che attribuiscono ai consigli dei modelli un'autorità simile a quella di una persona reale. Questo pone una sfida senza precedenti in termini di responsabilità legale ed etica, poiché l'IA non ha la capacità di rilevare situazioni di rischio o di esercitare un giudizio morale. Il professore sottolinea l'importanza di stabilire un "dovere speciale di cura" verso gli utenti più vulnerabili e avverte che, in caso di danno, le aziende sviluppatrici potrebbero affrontare responsabilità civili, specialmente negli Stati Uniti. A differenza dei servizi di aiuto tradizionali, l'IA non possiede una bussola morale e può eseguire richieste pericolose senza considerare il contesto. Sebbene esistano filtri e avvertimenti automatici per prevenire autolesionismi o suicidi, Navarro segnala che questi meccanismi sono facilmente eludibili e non sempre risultano efficaci. Inoltre, sottolinea che l'etica nell'IA non è integrata fin dalla progettazione, ma viene implementata in modo reattivo man mano che sorgono problemi, limitandone l'efficacia. Navarro conclude chiedendo la creazione di nuove normative e una maggiore responsabilità da parte degli sviluppatori, per proteggere i diritti dei minori e prevenire danni, sottolineando l'urgenza di agire di fronte alla rapida evoluzione tecnologica e legislativa.
    Gianro Compagno

    Gianro Compagno

    CTO

    Gianro aporta una gran experiencia en gestión de proyectos tecnológicos en entornos multinacionales. Su experiencia técnica combinada con un MBA y una maestría en Psicología Investigativa crea un enfoque único para las soluciones tecnológicas. Como Experto en IA y Automatización, aplica conocimientos psicológicos para diseñar sistemas más intuitivos y centrados en el ser humano. Su enfoque orientado al detalle y mentalidad positiva aseguran que nuestras soluciones no solo sean innovadoras y confiables, sino que también se alineen con cómo las personas piensan y trabajan naturalmente.