Los equipos de RR.HH. acogen cada vez más aplicaciones de Inteligencia Artificial que les ayudan a reclutar y gestionar el rendimiento y la sucesión, y a asignar tareas, pero esta rápida evolución tecnológica ha desatado la necesidad de desarrollar el cumplimiento de normas. La Unión Europea propuso un marco regulador basado en el riesgo que hace que las empresas cumplan las nuevas normas para adoptar Inteligencia Artificial. La propuesta identifica de forma específica, entre otros, los sistemas de Inteligencia Artificial para RR.HH. como los de mayor riesgo por su implicación ética, y aconseja una supervisión y requisitos adecuados para enfrentarse a las preocupaciones sobre seguridad y derechos humanos fundamentales.
Según la propuesta, los sistemas de Inteligencia Artificial de gran riesgo van a requerir la supervisión humana, aparte de medidas de transparencia, datos de elevada calidad que eviten sesgos y documentación para que reguladores y usuarios comprendan cómo funciona el sistema.
¿Qué hace que la Inteligencia Artificial sea ética?
Es evidente que se necesitan normativas de cumplimiento adecuadas. Los sistemas de RR.HH. harán recomendaciones que tengan impacto en millones de personas. Y no nos referimos a motores con recomendaciones que influyan a las personas para que compren una PlayStation en vez de una Xbox. La Inteligencia Artificial se responsabilizará de influir sobre cuestiones personales serias y con impacto del tipo: ¿Conseguiré este puesto o no? ¿Me van a promover o no? ¿Voy a acceder a la formación apropiada?
Por eso se señala a los RR.HH. como fuente de mayor impacto y, por lo tanto, de mayor riesgo.
Aunque todavía no se sabe cuándo se adoptará la normativa propuesta o su forma final, las normativas de cumplimiento se están endureciendo. La consideración del riesgo y la operación ética depende de las empresas, con independencia de que ya utilicen los sistemas de Inteligencia Artificial o de que estén pensando en adoptarlo.
Los equipos de RR.HH. se pueden beneficiar de los sistemas de Inteligencia Artificial y proteger a su equipo al probar y hacer un seguimiento de la tecnología, al desarrollar una comprensión profunda de su funcionamiento y al aumentar la transparencia en su uso.
Gestión del riesgo de la Inteligencia Artificial en los RR.HH.
En el sector de los RR.HH. todavía nos debatimos entre el «vamos a tener cuidado e invertir tiempo en comprobar» y «vamos a innovar y avanzar rápido».
HireVue, una empresa de tecnología para entrevistas empresariales por vídeo, es un ejemplo de una empresa de rápida innovación, pero en los últimos tiempos, ha frenado el avance en la Inteligencia Artificial debido a las preocupaciones sobre los derechos humanos fundamentales. La empresa hacía uso de la Inteligencia Artificial para evaluar al candidato de forma visual en las videoentrevistas. Tras reconocer que los datos no verbales apenas contribuían a las capacidades predictivas de la Inteligencia Artificial y su preocupación porque la tecnología contribuyera a posibles sesgos de género y raza, HireVue retiró de sus algoritmos las expresiones faciales.
La manera en que la IA actúa con ética
Es preciso aprender de estas experiencias y desarrollar un enfoque seguro que integre lo que se haya considerado sobre el riesgo en los equipos de desarrollo.
Es necesario evitar los conjuntos de datos que incluyen información que puede conducir a la discriminación. Es imprescindible revisar la forma en que funcionan los algoritmos. Estos no toman decisiones por los profesionales de los RR.HH., pero permiten que los individuos revisen lo que la máquina propone como datos introducidos en el proceso de toma de decisiones.
Esta forma de actuar aporta una revisión humana y nos permite trabajar en la precisión del algoritmo. Si, de repente, nos damos cuenta de que el 90 % de las personas rechaza los datos que se extraen del algoritmo, sabremos que algo va mal y podremos investigarlo.
El sistema debe permitir al equipo que dirija de forma proactiva el riesgo y los asuntos de seguridad que puedan contribuir a evitar los obstáculos que impiden el cumplimiento, por no mencionar los sesgos y la discriminación no intencionada.
4 preguntas imprescindibles a tener en cuenta sobre la ética de una Inteligencia Artificial cuando se aprueba su uso
Al igual que empresas como Cornerstone y HireVue desarrollan directamente la Inteligencia Artificial para los equipos de RR.HH., muchas las externalizan. A medida que los líderes de RR.HH. evalúan las soluciones de RR.HH. que deben poner en marcha en la empresa, hacer estas preguntas puede reducir el riesgo y seguir cumpliendo con la normativa.
1) ¿Quién ha creado la tecnología?, ¿cómo y de dónde provienen los datos?
Comprender el origen de la tecnología de Inteligencia Artificial y la forma en que se desarrolla, puede permitir a los equipos de RR.HH. investigar el marco ético de sus vendedores. Y conocer el origen de los datos puede conseguir que los equipos de RR.HH. confíen más y controlen mejor los resultados.
2) ¿Qué revisiones y compensaciones se llevan a cabo para reforzar el uso ético?
Si el equipo de RR.HH. pregunta a sus vendedores por las revisiones y compensaciones que llevan a cabo, podrán confirmar si se están asociando con una empresa comprometida con el uso ético. Comprender con claridad los procesos de comprobación de los vendedores, también proporciona a los equipos de RR.HH. una opinión sobre el tipo de revisiones que se están realizando durante el desarrollo.
3) ¿Cómo voy a utilizar la tecnología?
Si los equipos de RR.HH. solo aceptan los resultados que proporciona la tecnología, podrían estar perdiendo desviaciones impredecibles que impliquen señales de alerta. Y, si no controlan la tecnología con regularidad, los equipos no podrán superar las preocupaciones desde el principio. Si los humanos que utilizan la tecnología no se han informado para identificar los sesgos, tampoco lo hará el sistema.
4) ¿Cómo utilizarán la tecnología los empleados para detectar sesgos?
Nunca ha resultado tan obvio el origen de las decisiones algorítmicas. Aunque no se pueda explicar cada recomendación en este momento de uso, se podrá explicar la lógica que se esconde tras el sistema en su totalidad para que todo el mundo lo entienda. Por lo tanto, todos podrán defenderse de forma ética y con aversión al riesgo.
Lleva la Inteligencia Artificial a tu empresa
Vendedores y usuarios tienen un papel que jugar para garantizar la ética y el cumplimiento del uso de la IA mediante la responsabilidad compartida de las pruebas y los seguimientos. Los proveedores deben comprobar la existencia de sesgos durante el desarrollo de la tecnología, pero no existe forma alguna de garantizar su perfección al 100 %. Por eso los usuarios también son responsables de seguir controlando la tecnología en curso. Pueden producirse desviaciones difíciles de anticipar, por eso es necesario comprobar la tecnología a medida que se crea y controlarla mientras se utiliza.
A medida que los profesionales de los RR.HH. siguen avanzando para reforzar el uso de la Inteligencia Artificial, teniendo en cuenta su implicación ética, pueden conceptualizar su papel imaginándose a un piloto y un avión. A pesar de nuestra idea romántica del piloto pilotando un joystick, no se ha pilotado así durante años. En su lugar, el piloto introduce números en un ordenador y este crear los giros del avión.
Los profesionales de los RR.HH. deberán convertirse en pilotos de los algoritmos de la Inteligencia Artificial. Quedando situaciones pendientes de regular, guiar a la tecnología por el buen camino será fundamental para su éxito.