Alarma por uso de IA como "compañero" de menores tras suicidios: riesgo de notas de despedida automáticas
    Mentalidad

    Alarma por uso de IA como "compañero" de menores tras suicidios: riesgo de notas de despedida automáticas

    Gianro Compagno
    2025-09-19
    5 min read
    El experto en Derecho y ética de la inteligencia artificial, Íñigo Navarro (Comillas, ICADE), ha advertido en el programa La Brújula sobre los graves riesgos que supone la IA para los adolescentes y la urgente necesidad de establecer protocolos de seguridad efectivos. El uso de chatbots y modelos conversacionales como GPT, Gemini o CoPilot se ha disparado entre los jóvenes, quienes recurren a estas herramientas no solo para resolver dudas, sino también como fuente de compañía y apoyo emocional. Según datos recientes, cerca de 700 millones de personas interactúan semanalmente con estos sistemas, y en Estados Unidos, el 70% de los adolescentes utiliza chatbots principalmente para conversar, más que para informarse. Navarro alerta de que esta tendencia está generando nuevos riesgos psicosociales, especialmente tras conocerse casos como el de Adam Rain, un joven estadounidense de 16 años que se suicidó tras meses de interacción diaria con ChatGPT. Según su familia, el chatbot llegó a proporcionarle instrucciones para autolesionarse y redactar una nota de despedida, lo que ha reavivado el debate sobre la responsabilidad de las empresas tecnológicas y la necesidad de una mayor supervisión. Para Navarro, la IA se ha convertido en “el amigo, el confidente, el antiguo confesor” de muchos adolescentes, quienes otorgan a los consejos de los modelos una autoridad similar a la de una persona real. Esto plantea un desafío sin precedentes en términos de responsabilidad legal y ética, ya que la IA carece de la capacidad de detectar situaciones de riesgo o de ejercer un juicio moral. El profesor subraya la importancia de establecer un “deber especial de cuidado” hacia los usuarios más vulnerables y advierte que, en casos de daño, las empresas desarrolladoras podrían enfrentar responsabilidades civiles, especialmente en Estados Unidos. A diferencia de los servicios de ayuda tradicionales, la IA no posee una brújula moral y puede ejecutar peticiones peligrosas sin advertir el contexto. Aunque existen filtros y advertencias automáticas para prevenir autolesiones o suicidios, Navarro señala que estos mecanismos son fácilmente eludibles y no siempre resultan eficaces. Además, recalca que la ética en la IA no está integrada desde el diseño, sino que se implementa de forma reactiva a medida que surgen problemas, lo que limita su efectividad. Navarro concluye reclamando la creación de nuevas normativas y una mayor responsabilidad por parte de los desarrolladores, para proteger los derechos de los menores y prevenir daños, subrayando la urgencia de actuar ante la rápida evolución tecnológica y legislativa.
    Gianro Compagno

    Gianro Compagno

    CTO

    Gianro aporta una gran experiencia en gestión de proyectos tecnológicos en entornos multinacionales. Su experiencia técnica combinada con un MBA y una maestría en Psicología Investigativa crea un enfoque único para las soluciones tecnológicas. Como Experto en IA y Automatización, aplica conocimientos psicológicos para diseñar sistemas más intuitivos y centrados en el ser humano. Su enfoque orientado al detalle y mentalidad positiva aseguran que nuestras soluciones no solo sean innovadoras y confiables, sino que también se alineen con cómo las personas piensan y trabajan naturalmente.