La Inteligencia Artificial está transformando la selección de personal, sin embargo, su uso indebido puede derivar en fuertes sanciones económicas.
La Inteligencia Artificial (IA) se ha convertido en una herramienta cada vez más destacada en los departamentos de Recursos Humanos. Facilita tareas como el cribado de currículums, la automatización de entrevistas y la evaluación de competencias. Sin embargo, el uso indebido de estas tecnologías puede acarrear graves consecuencias legales.
Un marco normativo robusto: el AI Act
El Reglamento (UE) 2024/1689, conocido como AI ACT, es la primera ley integral de IA en el mundo y entró en vigor el 1 de agosto de 2024. Este marco clasifica los usos de IA según el nivel de riesgo, desde los usos prohibidos hasta los de menor impacto (AI Act enters into force, 2024).
¿Dónde encaja la selección de personal?
Dentro del AI Act, los sistemas de Inteligencia Artificial utilizados en procesos de contratación y selección de personal se clasifican como “de alto riesgo”. La razón es evidente, estas herramientas influyen directamente en derechos fundamentales como la igualdad de oportunidades, la no discriminación y, en última instancia, el acceso al empleo. Según la Comisión Europea, cualquier decisión automatizada que condicione la posibilidad de obtener un trabajo tiene un impacto significativo en la vida de las personas y, por tanto, requiere un control más estricto.
Esta clasificación implica que las empresas deben cumplir obligaciones estrictas en lo técnico, organizativo y ético. Se exige transparencia en los algoritmos, supervisión humana, trazabilidad y evaluaciones de impacto, además de datos de calidad libres de sesgos para evitar discriminaciones
¿Qué requisitos deben cumplir las empresas?
De acuerdo con el AI Act (European Union Artificial Intelligence Act: a guide, 2025), las empresas deben cumplir con las siguientes obligaciones:
- Transparencia: informar a los candidatos sobre el uso del sistema de IA y permitirles comprender cómo influye en las decisiones.
- Supervisión humana: garantizar que haya intervención humana significativa en el proceso.
- Evaluaciones de impacto: realizar análisis como el DPIA (Data Protection Impact Assessment) bajo el RGPD cuando se procesen datos personales.
- Trazabilidad y documentación técnica: los sistemas deben registrar automáticamente eventos clave y contar con una documentación completa para auditorías.
- Gestión de datos y calidad: los conjuntos de datos deben ser precisos, relevantes y representativos, evitando sesgos discriminatorios.
- Formación en IA: el personal encargado debe recibir formación adecuada para operar estos sistemas con responsabilidad.
- Colaboración con representantes de los trabajadores: es obligatorio informar a los representantes laborales antes de la implementación de sistemas de IA de alto riesgo.
Sanciones por incumplimiento
El incumplimiento del AI Act puede implicar sanciones económicas muy elevadas. Las multas pueden llegar a ser de 35 millones de euros o al 7% del volumen de negocios mundial de la empresa, imponiéndose el importe más alto (Artificial Intelligence Act: deal on comprehensive rules for trustworthy AI, 2023). En algunos análisis se menciona incluso un tope de 40 millones de euros, o el mismo porcentaje sobre la facturación, lo que indica cierta variabilidad dependiendo de la fuente.

Implementación en España: desafíos y oportunidades
El AI Act es directamente aplicable en todos los Estados miembros desde agosto de 2024, pero su impacto en España no es homogéneo. Mientras que las grandes empresas, con mayor madurez digital y recursos, están adoptando estas exigencias con relativa agilidad, muchas pymes todavía encuentran barreras técnicas, económicas y de conocimiento normativo para cumplir con la ley.
Entre los principales retos destacan la falta de formación especializada, la escasez de talento digital y la complejidad de los requisitos legales, que obligan a revisar procesos internos e invertir en nuevas herramientas de cumplimiento. Para acompañar este proceso, España ha creado la Agencia Española de Supervisión de la Inteligencia Artificial (AESIA), un organismo pionero en Europa encargado de velar por la correcta aplicación de la normativa y servir de apoyo a las empresas en esta transición.
Al mismo tiempo, existen oportunidades claras. Iniciativas como los “sandboxes regulatorios” permiten a las pymes probar soluciones de IA en entornos controlados antes de su despliegue definitivo, reduciendo riesgos legales y financieros. Además, el AI Act contempla mecanismos de apoyo proporcional, como tasas reducidas o guías simplificadas para pequeñas empresas, con el objetivo de que la regulación no frene la innovación, sino que impulse una adopción responsable.
En este contexto, contar con partners tecnológicos especializados resulta esencial. No se trata solo de implementar soluciones que cumplan con la ley, sino también de garantizar procesos de contratación más transparentes, justos y competitivos, lo que a medio plazo se traduce en confianza, reputación y mayor atractivo tanto para empleados como para candidatos (Guía de la Ley AI para pequeñas empresas, 2025).
Conclusión
La incorporación de la Inteligencia Artificial en los procesos de selección de personal abre un horizonte de eficiencia y modernización, pero también plantea desafíos éticos, legales y organizativos que ninguna empresa puede pasar por alto. El AI Act convierte la contratación asistida por algoritmos en un ámbito de alto riesgo, imponiendo obligaciones estrictas de transparencia, trazabilidad, supervisión humana y calidad de datos. No se trata solo de evitar sanciones que pueden alcanzar cifras elevadas, sino de garantizar procesos de selección más justos, inclusivos y confiables.
En el caso de España, la brecha entre grandes compañías y pymes evidencia que la digitalización avanza a distintas velocidades. Mientras las primeras ya cuentan con recursos para adaptarse al nuevo marco normativo, las segundas requieren acompañamiento técnico, formación especializada y apoyo institucional para cumplir con las exigencias de la ley. La creación de la AESIA y los sandboxes regulatorios representan pasos clave para facilitar una transición equilibrada, en la que la regulación no frene la innovación, sino que la oriente hacia un uso responsable.
En definitiva, la selección de personal mediante IA debe entenderse como una oportunidad para construir procesos de contratación más éticos, transparentes y centrados en las personas, fortaleciendo al mismo tiempo la competitividad y la confianza en el mercado laboral europeo.
Artículo publicado el 23/10/2025