Blog

Os pontos cegos da Inteligência artificial aplicada a gestão de pessoas:

Estrela inativaEstrela inativaEstrela inativaEstrela inativaEstrela inativa
 

rear-view-mirror

por Miguel Nisembaum

O benefício do uso de algoritmos e inteligência artificial para decisões em parâmetros de medida exata é evidente, por exemplo base de dados de exame de sangue, medições de radiotelescópios, etc. Esses sistemas podem reduzir a margem de erro e acelerar o processo de aprendizado sobre estes dados em uma escala jamais vista.

Todo mundo vive os benefícios dos algoritmos diariamente, mas eles podem ter um ponto cego ou Bias (viés), aspectos que conduzem a erros na análise de dados.

Mesmo que os sistemas sejam construídos para reduzir a margem de erro e aprender ao longo do processo existem biases que podem acontecer.

Um bias ou viés pode ser cognitivo, social, estatístico ou de outra natureza.

Mas afinal o que é um bias? É uma imprecisão que segue a mesma direção de maneira sistemática.

O cuidado é com o tipo de decisão que pode ser tomada principalmente quando estamos envolvendo questões éticas e humanas.

Por exemplo: A análise da presença de um gene que pode levar a doenças futuras pode prever a probabilidade, mas não a total assertividade de que aquela doença venha a se manifestar, medidas preventivas podem ser tomadas, mas negar o seguro de vida ou aumentar o valor de um seguro saúde pela simples presença daquele gene é uma questão mais complicada.

Com processos de talent acquisition, de desenvolvimento e promoção também existem aspectos éticos importantes a serem considerados, principalmente quando estamos medindo aspectos menos concretos.

Utilizar machine learning para a redução de aspectos burocráticos de um processo seletivo faz sentido e ao tratarmos de temas mais objetivos o viés pode ser menor. Os sistemas podem melhorar o processo de agenda de entrevistas, avaliação de conhecimento especifico, filtros de CV (para filtrar formação, certificações exigidas, experiencias).

Quando entramos em aspectos mais subjetivos da contratação o cuidado com o bias deve ser maior.

De alguma forma o cuidado é não deixarmos as máquinas repetirem ou amplificarem os pontos cegos que existem em nós.

Mas de onde podem vir esses erros?

Dos dados em si:

Assim como nós somos influenciados pela nossa origem, formação e visão de mundo os dados escolhidos pelo programador e gerados por nós também podem refletir essa influência.

Hoje muitos algoritmos são treinados para fazer um trabalho realizado antes por um humano porem é importante considerar que: se eles replicam o passado da função com os erros cognitivos pré-existentes ao aumentar o volume de informação essa parcialidade pode ser até amplificada.

No caso de processos de recrutamento e seleção se olhamos somente dados passados e não desafios futuros ou paradigmas anteriores a máquina só replicará aquilo com maior intensidade. Ou seja, candidatos bons que poderiam ser considerados ficam de fora do processo.

O vencedor leva tudo:

Se um algoritmo leva em consideração somente trending topics (as notícias mais compartilhadas ou músicas mais curtidas) vai repetir e reforçar o viés de confirmação do ser humano, só vejo e acesso o que me agrada, nada que me desafia ou contradiz aparece na minha linha do tempo.

Se transfiro isso para o mundo dos negócios fico cego em relação a novas oportunidades e até ameaças que podem surgir da maneira mais disruptiva e imprevisível.

E com os processos de rh é igual, tanto na seleção como na composição de equipes. Será que não há informação relevante que estou deixando de lado por considerar só as tendências mais frequentes?

A ilusão da estabilidade:

É a tendência a inércia em um ambiente de incerteza. Modelos preditivos operam com padrões detectados em dados históricos, mas e os padrões que podem surgir que desconsideramos?

Se em 2007 alguém fosse tentar estabelecer uma correlação entre dividas de cartão de credito e o preço das casas, não conseguiria por que os dados não estavam disponíveis nos modelos. E isso foi um baita indicador da crise imobiliária de 2008 nos Estados Unidos.

Em um mundo VUCA este aspecto de um mundo instável deve ser considerado.

No caso de pessoas em empresas é importante considerar não só como incorporo pessoas aos meus quadros, mas como estabeleço a distribuição de desafios e a estrutura de trabalho em um ambiente mais líquido.

Como reduzir esses erros?

De alguma forma Machine Learning tem que ser tratado como um pomar ou jardim, é preciso podar, cuidar das pragas, regar e fazer ajustes constantes nos algoritmos e nas perguntas que queremos responder.

Recentemente em um artigo publicado no jorna espanhol La Vanguardia o ex-engenheiro do Google Mo Gawdat afirma que “O problema não são os algoritmos, são nossos valores.”

Existe uma responsabilidade compartilhada de quem ajuda a construir e de quem consome aqueles dados.

Se queremos trabalhar com machine learning em RH que não seja só um elemento para melhorar os indicadores de RH, ou reduzir o custo com fornecedores, mas que contribua para reduzir burocracia, frustração e a falta de transparência nas decisões de contratação e promoção de pessoas.

O viés ou bias não é só uma questão ética, ele pode afetar o sucesso, ou o bem-estar das pessoas contidas naquele algoritmo.

Fontes e artigos de interesse:

The Human Bias in the AI Machine

https://www.psychologytoday.com/blog/the-future-brain/201802/the-human-bias-in-the-ai-machine

“El problema no son los algoritmos, son los valores”

http://www.lavanguardia.com/tecnologia/20180217/44830064470/mo-gawdat-el-algoritmo-de-la-felicidad-exdirectivo-google-x.html

The Conundrum of Machine Learning and Cognitive Biases

https://medium.com/@camirosso/the-conundrum-of-machine-learning-and-cognitive-biases-ce4b82a87f49

AI is not just learning our biases; it is amplifying them.

https://medium.com/@laurahelendouglas/ai-is-not-just-learning-our-biases-it-is-amplifying-them-4d0dee75931d

 

Controlling machine-learning algorithms and their biases

https://www.mckinsey.com/business-functions/risk/our-insights/controlling-machine-learning-algorithms-and-their-biases