Inteligencia Artificial (IA)
Riesgos ocultos de la inteligencia artificial cotidiana: ¿qué tan seguros son los modelos de lenguaje?
Gianro Compagno
2026-02-02
5 min read
Reflexionar antes de actuar: 4 claves diarias para protegerse de ciberataques en la era de la IA
La llegada de los grandes modelos de lenguaje (LLM) ha revolucionado la forma en que trabajamos, nos comunicamos y desarrollamos nuevas ideas. Herramientas como ChatGPT o Gemini, impulsadas por inteligencia artificial avanzada, han transformado los flujos de trabajo, aportando eficiencia y nuevas perspectivas. Sin embargo, este avance también implica nuevos retos y responsabilidades en materia de seguridad.
Los LLM, entrenados con enormes cantidades de datos, no solo generan textos sorprendentemente humanos, sino que también se aplican en múltiples sectores. Pero su uso masivo puede acarrear riesgos importantes: desde la filtración de información sensible hasta la propagación de contenido falso, pasando por el incumplimiento de normativas y la pérdida de confianza en la tecnología.
Es fácil olvidar que, aunque los LLM sean convincentes, pueden equivocarse. Cuanto más dependemos de ellos, más difícil resulta cuestionar sus respuestas. Por eso, es esencial mantener una actitud crítica y no dar por hecho que todo lo que generan es correcto o seguro.
La ciberseguridad tradicional no fue diseñada para los desafíos que plantean los LLM. Estos modelos funcionan como “cajas negras”, generando respuestas impredecibles y difíciles de auditar. Esto complica la detección de amenazas como la manipulación de instrucciones, el envenenamiento de datos o la explotación de vulnerabilidades a través de APIs y plugins inseguros.
Los ciberdelincuentes aprovechan estas debilidades, utilizando técnicas como la sobrecarga de modelos con comandos repetitivos o el acceso a datos de entrenamiento. Sin embargo, el método más común sigue siendo el phishing a gran escala, ya que los LLM facilitan la creación de mensajes fraudulentos que imitan comunicaciones legítimas para robar credenciales o provocar brechas de datos.
La integración de la IA en herramientas cotidianas como Google Workspace o Microsoft 365 hace que la protección de datos y el cumplimiento normativo sean más cruciales que nunca. La seguridad debe evolucionar al ritmo de la tecnología, identificando y corrigiendo posibles puntos ciegos.
Estos riesgos no son hipotéticos. Por ejemplo, ingenieros de Samsung introdujeron información confidencial en ChatGPT para tareas rutinarias, lo que generó preocupación por la posible filtración de secretos comerciales. Como respuesta, la empresa limitó el uso de la herramienta y desarrolló soluciones internas. Otro caso es el de DeepSeek AI, cuyo modelo almacena datos en servidores accesibles por el gobierno chino, lo que plantea dudas sobre la privacidad y la seguridad.
Para minimizar los riesgos, es fundamental compartir solo la información imprescindible y revisar cuidadosamente las respuestas generadas por los LLM. A nivel técnico, se recomienda implementar controles de acceso, personalizar las restricciones de seguridad y realizar auditorías periódicas enfocadas en los riesgos específicos de la IA.
Las estrategias de seguridad deben adaptarse, incorporando mecanismos inteligentes que autentiquen usuarios, prevengan accesos no autorizados y evalúen continuamente las interacciones. Solo así los LLM podrán seguir impulsando la innovación de forma segura y confiable.
Fuente: 20minutos.es