La IA no es neutral. Aprende de datos históricos, y si la historia de contratación de una empresa tiene sesgos (conscientes o inconscientes), el algoritmo los aprenderá y, peor aún, los amplificará a gran escala.

"Un algoritmo sesgado es un prejuicio automatizado a velocidad de la luz."

El peligro de la 'caja negra'

Muchas herramientas de filtrado de CVs funcionan como cajas negras: introducimos datos y obtenemos una clasificación, sin entender los criterios exactos. Si el sistema detecta que históricamente se contrataron más hombres para puestos directivos, podría empezar a penalizar palabras asociadas a perfiles femeninos o universidades femeninas.

La auditoría algorítmica se vuelve, por tanto, en una responsabilidad crítica del departamento de Recursos Humanos. No basta con comprar la herramienta; hay que supervisarla.

Estrategias de mitigación

Escrito por Tin Soler

Consultor en IA y Transformación Digital. Ayudo a líderes a navegar el futuro.

Volver al Blog