Blog

Los puntos ciegos de la Inteligencia artificial aplicada a la gestión de personas:

Ratio: 3 / 5

Inicio activadoInicio activadoInicio activadoInicio desactivadoInicio desactivado
 

rear-view-mirror

por Miguel Nisembaum

 

El beneficio del uso de algoritmos e inteligencia artificial para decisiones en parámetros de medida exacta es evidente, por ejemplo, base de datos de examen de sangre, mediciones de radiotelescopios, etc. Esos sistemas pueden reducir el margen de error y acelerar el proceso de aprendizaje sobre estos datos en una escala jamás vista.

Todo el mundo vive los beneficios de los algoritmos diariamente, pero ellos pueden tener un punto ciego o sesgo, aspectos que conducen a errores en el análisis de datos.

Mismo que los sistemas sean construidos para reducir el margen de error y aprender a lo largo del proceso existen sesgos o puntos ciegos que pueden suceder.

Un punto ciego o sesgo puede ser cognitivo, social, estadístico o de otra naturaleza.

¿Pero al final que es un sesgo o punto ciego? Es una imprecisión que sigue la mesma dirección de manera sistemática.

Precisamos tener cuidado con el tipo de decisión que puede ser tomada principalmente cuando estamos involucrando cuestiones éticas y humanas.

Por ejemplo: El análisis de la presencia de un gen que puede llevar a enfermedades futuras puede prever la probabilidad, pero no el asertividad total de que aquella enfermedad se manifieste, medidas preventivas pueden ser tomadas, pero negar el seguro de vida o aumentar el valor de un seguro médico por la simple presencia de aquel gen es una cuestión más complicada.

Con procesos de Talent Acquisition, de desarrollo y promoción también existen aspectos éticos importantes a ser considerados, principalmente cuando estamos midiendo aspectos menos concretos.

Utilizar machine learning para la reducción de aspectos burocráticos de un proceso selectivo hace sentido y al tratar de temas más objetivos el sesgo o bias puede ser menor. Los sistemas pueden mejorar el proceso de agenda de entrevistas, evaluación de conocimiento especifico, filtros de Currículos (para filtrar formación, certificaciones exigidas, experiencias).

Cuando entramos en aspectos más subjetivos de la contratación el cuidado con el sesgo o bias debe ser mayor.

De alguna manera el cuidado consiste en no dejar que las máquinas repitan o amplifiquen los puntos ciegos que existen en nosotros.

¿Pero de donde pueden venir esos errores?

De los datos en sí:

Así como somos influenciados por nuestro origen, formación y visión de mundo, los datos seleccionados por el programador y generados por nosotros también pueden reflejar esa influencia.

Hoy muchos algoritmos son entrenados para hacer un trabajo realizado antes por un humano, sin embrago es importante considerar que: si ellos replican el pasado de la función con los errores cognitivos preexistentes al aumentar el volumen de información esa parcialidad puede ser hasta amplificada.

En el caso de procesos de reclutamiento y selección si miramos solamente datos pasados y no desafíos futuros o paradigmas anteriores la máquina solo replicará aquello con mayor intensidad. O sea, candidatos buenos que podrían ser considerados quedan fuera del proceso.

El vencedor lleva todo:

Si un algoritmo lleva en consideración solamente trending topics (las noticias más compartidas o músicas más apreciadas) va a repetir y reforzar el sesgo de confirmación del ser humano, solo veo y accedo a lo que me agrada, nada que me desafía o me contradice aparece en mi línea del tiempo.

Si transfiero eso para el mundo de los negocios me quedo ciego con relación a nuevas oportunidades y hasta amenazas que pueden surgir de la manera más disruptiva e imprevisible.

Y con los procesos de RRHH es igual, tanto en la selección como en la composición de equipos.

¿Será que no hay información relevante que estoy dejando de lado por considerar solo las tendencias más frecuentes?

La ilusión de la estabilidad:

Es la tendencia a la inercia en un ambiente de incerteza. Modelos predictivos operan con patrones detectados en datos históricos, pero ¿los patrones que pueden surgir y desconsideramos?

Si en 2007 alguien fuera intentar establecer una correlación entre deudas de tarjetas de crédito y el precio de las casas, no conseguiría, porque los datos no estaban disponibles en los modelos. Y ese fue un super indicador de la crisis inmobiliaria de 2008 en los Estados Unidos.

Este aspecto debe ser considerado en un mundo inestable.

En el caso de personas en empresas es importante considerar no solo en como incorporo personas a mis cuadros, pero como establezco la distribución de desafíos y la estructura de trabajo en un ambiente más líquido.

¿Cómo reducir esos errores?

De alguna forma Machine Learning tienen que ser tratadas como un huerto o jardín, es preciso cortar, cuidar de las plagas, regar y hacer ajustes constantes en los algoritmos y en las preguntas que queremos responder.

Recientemente en un artículo publicado en el periódico español La Vanguardia el exingeniero de Google Mo Gawdat afirma que “El problema no son los algoritmos, son nuestros valores.”

Existe una responsabilidad compartida de quien ayuda a construir y de quien consume aquellos datos.

Si queremos trabajar con machine learning en RRHH que no sea solo un elemento para mejorar los indicadores de RRHH, o reducir el costo con proveedores, pero que contribuya para reducir burocracia, frustración y la falta de transparencia en las decisiones de contratación y promoción de personas.

El sesgo o punto ciego no es solo una cuestión ética, puede afectar el éxito o el bienestar de las personas contenidas en aquel algoritmo.

Fuentes y artículos de interés:

The Human Bias in the AI Machine

https://www.psychologytoday.com/blog/the-future-brain/201802/the-human-bias-in-the-ai-machine

“El problema no son los algoritmos, son los valores”

http://www.lavanguardia.com/tecnologia/20180217/44830064470/mo-gawdat-el-algoritmo-de-la-felicidad-exdirectivo-google-x.html

The Conundrum of Machine Learning and Cognitive Biases

https://medium.com/@camirosso/the-conundrum-of-machine-learning-and-cognitive-biases-ce4b82a87f49

AI is not just learning our biases; it is amplifying them.

https://medium.com/@laurahelendouglas/ai-is-not-just-learning-our-biases-it-is-amplifying-them-4d0dee75931d

Controlling machine-learning algorithms and their biases

https://www.mckinsey.com/business-functions/risk/our-insights/controlling-machine-learning-algorithms-and-their-biases