Inteligencia Artificial (IA)
IA en Recursos Humanos: Mejorar la Eficiencia Respetando los Derechos Fundamentales
Paloma Firgaira
2026-02-27
5 min read
La inteligencia artificial ha irrumpido con fuerza en los departamentos de recursos humanos, pero su eficiencia no puede justificar la vulneración de derechos fundamentales. En España, muchas empresas que delegan decisiones laborales en algoritmos asumen riesgos legales que a menudo no valoran en profundidad.
La automatización ya es una realidad cotidiana: filtrar currículums, evaluar el desempeño, anticipar la rotación, medir la productividad o clasificar candidatos son tareas que la IA realiza en numerosas organizaciones. Esta tecnología promete agilidad, ahorro y objetividad en procesos tradicionalmente complejos, pero también introduce un riesgo jurídico creciente.
Cuando la IA interviene en decisiones que afectan al acceso al empleo, la promoción profesional o la continuidad laboral, el debate trasciende lo tecnológico y se sitúa en el terreno de los derechos fundamentales y la responsabilidad empresarial.
Existe la falsa creencia de que la tecnología es neutral. Sin embargo, los sistemas de IA aprenden de datos históricos y pueden reproducir los sesgos presentes en ellos. Si un algoritmo descarta perfiles, prioriza variables indirectamente discriminatorias o penaliza trayectorias profesionales atípicas, el problema no es solo técnico, sino legal.
Están en juego principios como la igualdad, la no discriminación y la dignidad de los trabajadores, así como el derecho a no ser objeto de decisiones exclusivamente automatizadas, recogido en el artículo 22 del RGPD. Además, la legislación laboral española exige transparencia cuando los algoritmos afectan a las condiciones de trabajo, reforzando la obligación de las empresas de explicar cómo se toman estas decisiones.
El Reglamento Europeo de Inteligencia Artificial (AI Act) eleva aún más las exigencias. Considera de alto riesgo los sistemas usados para selección de personal, evaluación del desempeño, promoción interna o despidos, lo que implica obligaciones como la evaluación previa de riesgos, documentación técnica, trazabilidad de decisiones y supervisión humana efectiva.
No basta con una validación formal del resultado del algoritmo; debe existir una capacidad real de intervención y corrección. Muchas pymes desconocen que las herramientas que emplean pueden estar sujetas a estas obligaciones, pero el desconocimiento no exime de responsabilidad. La rápida adopción de soluciones tecnológicas, impulsada por la presión competitiva y la búsqueda de eficiencia, está generando un entorno donde la innovación avanza más rápido que la reflexión jurídica.
Otro error común es pensar que la responsabilidad recae en el proveedor tecnológico. El marco normativo europeo reparte obligaciones entre desarrolladores y usuarios, y las empresas deben demostrar que han actuado con diligencia.
Si un candidato impugna un proceso de selección por discriminación, si un trabajador cuestiona una evaluación automatizada o si la Inspección de Trabajo solicita explicaciones sobre los criterios del algoritmo, la empresa no puede limitarse a señalar al proveedor. Debe acreditar que evaluó los riesgos, estableció mecanismos de supervisión y adoptó medidas para proteger los derechos afectados. El software no responde ante los tribunales; la responsabilidad sigue siendo humana y empresarial.
Por ello, es esencial integrar la inteligencia artificial en el sistema de compliance. No se trata de añadir burocracia, sino de garantizar auditorías jurídicas previas, evaluaciones de impacto en protección de datos y derechos fundamentales, protocolos internos claros, supervisión humana efectiva y formación específica para directivos y responsables de recursos humanos.
Cuando un algoritmo decide quién accede a una entrevista, quién promociona o quién queda fuera de un proceso, influye directamente en la trayectoria profesional de las personas. La empresa debe poder explicar qué variables utiliza el sistema, cómo se entrenó, qué controles existen para detectar sesgos y qué margen de intervención humana está previsto. La opacidad ya no es compatible con un entorno regulatorio que exige transparencia y rendición de cuentas.
La inteligencia artificial puede ser un aliado estratégico para la competitividad empresarial, pero solo si se integra en un marco de gobernanza responsable y cumplimiento normativo. Delegar en algoritmos no exime de responsabilidad; la incrementa.
La supervisión humana, la auditoría legal y la gestión de riesgos algorítmicos no son trabas a la innovación, sino garantías para proteger derechos, evitar sanciones y preservar la reputación corporativa en un entorno cada vez más exigente. En un mercado donde la marca empleadora y la confianza interna son activos clave, la percepción de decisiones automatizadas opacas o injustas puede convertirse en una desventaja competitiva real.
La eficiencia no debe comprometer la dignidad de las personas. En la era de la IA, cumplir no es solo adoptar tecnología avanzada, sino hacerlo con criterio, transparencia y responsabilidad. Porque, aunque decida el algoritmo, la empresa sigue siendo la responsable.
Fuente: cincodias.elpais.com