Inteligencia Artificial (IA)
Restricciones crecientes: cómo se limita el acceso de menores a la inteligencia artificial
Gianro Compagno
2025-12-20
5 min read
En los últimos años, el uso de tecnología digital entre adolescentes ha alcanzado cifras históricas, modificando profundamente sus formas de relacionarse y afectando su salud mental. Más del 90 % de los jóvenes de 13 a 17 años acceden a redes sociales a diario, y muchos reconocen estar conectados casi de manera permanente.
Expertos y organismos internacionales han alertado sobre los riesgos de estos hábitos: desde la presión social y la comparación constante, especialmente entre chicas, hasta la aparición de conductas adictivas y un aumento en el riesgo de comportamientos autolesivos o suicidas cuando el uso se vuelve excesivo.
Este contexto ha llevado a gobiernos, organizaciones y empresas tecnológicas a replantear la regulación del entorno digital para menores, buscando un equilibrio entre los beneficios de la conectividad y la protección de los usuarios más jóvenes. El reto es complejo, ya que existen múltiples vías de acceso a estas plataformas, algo que compañías como OpenAI y Anthropic conocen de primera mano.
Recientemente, OpenAI, liderada por Sam Altman, ha actualizado el funcionamiento de ChatGPT para usuarios menores de edad, implementando los llamados “Under-18 Principles”. Estos principios priorizan la seguridad y el bienestar de los adolescentes, incluso por encima de otros objetivos como la libertad de acceso a contenidos. ChatGPT utiliza diversas señales para identificar si un usuario es menor de 18 años, como los temas de conversación o los horarios de uso. Si detecta temas sensibles —autolesiones, sexualidad, violencia, consumo de sustancias, trastornos alimentarios o peticiones de confidencialidad—, el sistema enfatiza la importancia del apoyo en el mundo real y ofrece recursos de ayuda.
El objetivo es que ChatGPT trate a los menores con respeto y sin condescendencia, pero siempre priorizando su seguridad, incluso si esto limita el acceso a ciertos contenidos. Anthropic, por su parte, trabaja en sistemas para restringir el acceso de menores a sus plataformas.
Estas medidas llegan en un momento de creciente presión sobre la industria de la inteligencia artificial. Desde su lanzamiento en 2022, ChatGPT ha superado los 800 millones de usuarios, y la proliferación de chatbots ha intensificado el debate sobre su impacto social y la necesidad de regulaciones más estrictas.
Un caso clave fue la demanda presentada en agosto por la familia de Adam Raine contra OpenAI y Sam Altman, tras el suicidio del joven en California. Según la denuncia, ChatGPT habría contribuido a su aislamiento y facilitado información relacionada con la planificación de su muerte. Tras este suceso, OpenAI implementó controles parentales y nuevas barreras para evitar usos perjudiciales, reavivando el debate sobre los límites y responsabilidades de la IA conversacional.
El auge de la tecnología entre menores ha impulsado iniciativas globales para restringir el acceso a contenidos inapropiados. Australia, por ejemplo, ha prohibido que menores de 16 años tengan cuentas en redes sociales, obligando a plataformas como TikTok e Instagram a cumplir o enfrentarse a multas millonarias. Esta legislación ha servido de modelo para otros países, como España, que planea adoptar medidas similares en 2026.
Según el Eurobarómetro de 2025, más del 90 % de los europeos considera urgente proteger a los niños en internet, especialmente ante el impacto negativo de las redes sociales en la salud mental, el ciberacoso y la exposición a contenidos inadecuados.
Fuente: businessinsider.es