octubre 22, 2022

Los procesos de selección siempre han tenido sesgos personales o ideológicos. La IA no los va a solucionar

Hubo un tiempo en el que más de un erudito estaba convencido de que llegaba con analizar en detalle el cráneo de una persona para averiguar su carácter. Si eras violento, paciente, reflexivo, un buen candidato a compañero...

Hubo un tiempo en el que más de un erudito estaba convencido de que llegaba con analizar en detalle el cráneo de una persona para averiguar su carácter. Si eras violento, paciente, reflexivo, un buen candidato a compañero de piso o un enemigo con el que más valía no cruzarse estaba, todo, al alcance de quien supiera leer los relieves de tu sesera. A semejante doctrina se la conoce como frenología y si bien en el XIX logró cierto predicamento hoy se considera una pseudociencia.

Visto con perspectiva quizás te parezca una chifladura decimonónica, pero investigadores de la Universidad de Cambridge acaban de advertir que en pleno 2022 algunos usos que hacemos de la inteligencia artificial para seleccionar personal en las empresas tal vez no sean mucho mejores.

Ni más objetivo ni más justo. En su estudio —publicado en Philosophy and Technology— los investigadores de la Universidad de Cambridge miran con lupa dos de las ventajas que a menudo se asocian con las herramientas de IA para reclutar personal. Primero, que ayudan a evaluar de forma objetiva a los candidatos, prescindiendo de sesgos derivados del género o la raza. Segundo, que gracias a ese plus su selección resulta más justa y contribuye a incentivar la meritocracia.

La IA es imparcial —se supone—, con lo al aplicarla solo entrarán los más adecuados a las vacantes y se borra cualquier sesgo posible. La conclusión de los expertos no apunta sin embargo en esa dirección: “Estas afirmaciones son engañosas”. Y para demostrarlo esgrimen varias razones.

Cuando se simplifica demasiado. Ese es, en resumen, el primer riesgo del que alertan los investigadores de Cambridge. A lo largo de su estudio explican cómo en su intento por prescindir de la raza y el género los sistemas que aplican la inteligencia artificial a menudo “malinterpretan” ambos factores, considerándolos “atributos aislables”, etiquetas que una vez silenciadas en el expediente dejan de tener influencia, y no rasgos que se enmarcan en “sistemas de poder más amplios”.

Otro peligro similar es que la IA acabe desviando el foco. Si el objetivo del área de RRHH es fomentar una mejor cultura empresarial y delega buena parte de esa tarea en un algoritmo corre el riesgo de olvidarse de lo esencial: abordar los problemas sistémicos que existen dentro de la propia empresa. Los expertos hablan de una “externalización” de la búsqueda de diversidad y advierten que puede derivar en lo contrario: un “afianzamiento de la cultura de la desigualdad y discriminación”.

¿El «candidato ideal»? Otra de las preguntas que lanza el estudio es qué significa e implica exactamente que la IA ayude a encontrar el “candidato ideal”, así definido, por supuesto, según el criterio del empleador. “En su intento de ‘no ver’ la raza y el género, la IA en realidad puede estar menos equipada para comprender las habilidades del candidato porque han sido capacitada para ‘ver’ y observar desde la perspectiva del empleador, quien ha comunicado previamente un conjunto de características y rasgos predeterminados que denotan ‘buenos empleados’”, recoge.

El riesgo es que la IA para reducir los grupos de candidatos sirva para lo contrario de lo que se planteaba, que en vez de aumentar la diversidad fomente la uniformidad. “Según los investigadores, quienes tengan la información y antecedentes adecuados podrían `ganar a los algoritmos´ al replicar los comportamientos que la IA está programada para identificar”, abundan desde la universidad.

Drage Ai PicDrage Ai Pic

Pseudociencia automatizada. El riesgo, abunda el equipo del Centro de Estudios de Género de Cambridge, es que ciertos usos de la IA en procesos de contratación acaben siendo “poco mejores que una ‘pseudociencia automatizada’ que recuerda a la fisiognomía o la frenología”. Objetivo bien distinto a lógica que quieren aportar al proceso y la eliminación de cualquier posible sesgo.

Los autores del estudio de Philosophy and Technology van más allá y hablan incluso de “un ejemplo peligroso de ‘tecnosolucionismo’”, un intento de recurrir a la tecnología buscando soluciones rápidas a problemas profundos que requieren inversión y cambios en la cultura empresarial.

Una demostración práctica. Para reforzar su argumentario los investigadores han desarrollado una herramienta con IA y disponible online —puedes usarla en este link— que, supuestamente, ayuda a perfilar la personalidad de un candidato para evaluar cómo de adecuado resulta para un puesto.

¿Problema? El recurso muestra cómo pequeños cambios arbitrarios, como una alteración en la expresión del rostro o la ropa o incluso en la iluminación y el fondo, arroja lecturas completamente diferentes. “Podrían marcar la diferencia entre el rechazo y la progresión”, señala. Los investigadores reconocen en cualquier caso que las herramientas de selección de personal suelen ser de carácter propietario, con lo que resulta muy difícil conocerse exactamente cómo funcionan.

Un recurso cada vez más popular. La advertencia de los investigadores va más allá de la teoría y se centra en una herramienta cada vez más empleada, al menos según las cifras que manejan. Un estudio de 2020 elaborado con medio millar de organizaciones de cinco países concluía que el 24% había echado mano de la IA para contratar y el 56% de los responsables de reclutamiento planeaban adoptarla en cuestión de meses. Otra encuesta de dese mismo año apuntaba que el 86% de las entidades estudiadas estaban incorporando nuevas tecnologías en ese proceso.

“La tendencia ya existía cuando comenzó la pandemia y es probable que el cambio acelerado al teletrabajo causado por el COVID-19 vea un mayor despliegue de herramientas de IA en las áreas de RRHH en el futuro”, apunta Kerry Mackereth. Junto a la coautora del estudio, Eleanor Drage, señala que muchas empresas usan IA para analizar vídeos de candidatos e interpretar su personalidad. Los expertos alertan además que hay herramientas que se están aplicando con poca regulación.

El debate está servido. El equipo británico no es el primero en cuestionar las ventajas de la inteligencia artificial en el reclutamiento de personal. Al menos en ciertos casos. En 2018 Amazon decidió prescindir de un algoritmo para este tipo de procesos tras constatar que no era neutral, sino que mostraba un sesgo sexista. También hay quienes inciden en las ventajas de la IA en la selección de personal, como el ahorro de tiempo y costes y quienes, directamente, está aún en una fase inicial y realmente su implantación es aún muy reducida entre quienes buscan empleados.

«La inteligencia artificial puede ayudar de manera eficiente a aumentar la diversidad de una organización al filtrar de un grupo de candidatos más grande, pero también puede perder muchos buenos candidatos si las reglas y los datos de capacitación son incompletos e inexactos», explica Hayfa Mohzaini, del Chartered Institute of Personnel and Development, a la BBC.

Imágenes: Mapbox (Unsplash) y University of Cambridge

#Sonora #Expresion-Sonora.com —> Tomado de https://www.xataka.com/index.xml