Como a IA está impactando o futuro do recrutamento

As ferramentas de recrutamento de Inteligência Artificial (IA) estão economizando tempo para gerentes e recrutadores, mas os candidatos ficam preocupados se um algoritmo de aprendizado de máquina é inteligente o suficiente para garantir seu próximo emprego.

IA futuro do recrutamento

Uma rápida busca no Google por “ferramentas de recrutamento de IA” produzirá uma série de listículos contando o melhor software de aquisição de talentos movido a inteligência artificiale “guias definitivos” para profissionais de recursos humanos(RH)que procuram terceirizar parte de sua carga de trabalho para sistemas automatizados. Com o trabalho remoto em seu caminho para se tornar a norma como resultado da pandemia, a demanda por software de entrevista alimentado por IA tem aumentado, e em conjunto, por isso tem dúvidas e dúvidas sobre as capacidades da inteligência artificial na aferição da competência e hábitos de trabalho dos potenciais funcionários. Os críticos argumentam que, assim como os processos de contratação realizados por humanos, os sistemas de IA podem introduzir viés e produzir imprecisões. As ferramentas de recrutamento de IA estão realmente prontas?

A verdade sobre o recrutamento de IA

No início deste mês, o MIT Technology Review testou software de duas empresas especializadas em recrutamento de IA, e encontrou descobertas preocupantes que explicitaram algumas preocupações sobre os algoritmos de aprendizado de máquina por trás desses softwares. Um dos programas, MyInterview,avaliou traços de personalidade baseados no teste de personalidade do Big Five, uma avaliação psicométrica que considera abertura, consciência, extroversão, agradável e estabilidade emocional. O outro programa, Curious Thing,avalia outras métricas, como humildade e resiliência. Clayton Donnelly, psicólogo industrial e organizacional da MyInterview, disse ao Tech Review que o algoritmo avaliou os resultados de personalidade do “candidato” com base na entonação de sua voz, em vez do conteúdo da entrevista em si. No entanto, o professor de psicologia da organização industrial da Universidade Rice, Fred Oswald, argumenta que a entonação não é um indicador confiável de personalidade. “Há oportunidades para IA ou algoritmos e a forma como as perguntas são feitas para serem mais estruturadas e padronizadas”, diz ele. “Mas eu não acho que estamos necessariamente lá em termos de dados.”

As entrevistas alimentadas por IA têm sido apontadas como máquinas que eliminam preconceitos desprovidas de preconceitos sobre candidatos, mas os críticos também argumentaram o contrário. O viés tem se refletido em fatores tão triviais quanto a aparência e tão controversos quanto o gênero. Uma investigação publicada pela Bávaro Public Broadcasting em fevereiro deste ano descobriu que o algoritmo de Retorio avaliava os candidatos com base em se eles tinham acessórios como óculos durante a entrevista. Para citar um exemplo de viés de IA refletindo implicações muito mais graves, em 2018, a Amazon descobriu que sua ferramenta de recrutamento de IA estava descartando candidatas femininas. O sistema, que avaliava os candidatos com base em dados históricos de contratação ao longo de um período de dez anos, ensinou a si mesmo que os candidatos do sexo masculino eram preferíveis. O algoritmo foi alimentado com dados de recrutamento refletindo uma indústria tecnológica dominada por homens, e, como tal, o software aprendeu a penalizar candidatos que tinham frequentado faculdades de todas as mulheres e faziam parte de clubes e sociedades femininas. O projeto foi encerrado assim que veio à tona que o algoritmo estava produzindo resultados tendenciosos.

Desconhecidos desconhecidos e armadilhas de portabilidade

O viés de IA surge quando os dados coletados deturpam a realidade ou refletem preconceitos existentes. O primeiro pode surgir em sistemas de aprendizagem profunda que são alimentados com mais imagens de rostos de pele clara do que rostos de pele escura, o que resultaria em sistemas de reconhecimento facial sendo incapazes de reconhecer pessoas com pele mais escura. Este último se reflete no já citado caso Amazon, que é resultado de decisões históricas de contratação que favoreceram desproporcionalmente o homem em vez das candidatas do sexo feminino. Há também a questão de treinar o algoritmo. Os algoritmos são encarregados de avaliar traços ou “atributos” que refletem uma certa qualidade; por exemplo, para avaliar a credibilidade, os algoritmos são treinados para procurar idade, renda ou número de empréstimos pagos. O processo de escolha de quais atributos o algoritmo deve considerar ou ignorar pode impactar significativamente a validade preditiva do software, e é por isso que a preparação de dados é conhecida como a “arte” do deep learning.

Dito isto, o viés mitigado ainda é um processo desafiador, que começa com a identificação da raiz do viés em si. No caso da Amazon, quando os engenheiros que trabalham no projeto descobriram que o algoritmo estava penalizando candidatas mulheres, eles programaram-no para ignorar palavras explicitamente de gênero, como “mulheres”, mas logo descobriram que o novo sistema estava captando palavras como “executado” e “capturado” — palavras implicitamente de gênero que conotavam agressão e militância que eram tipicamente associadas à masculinidade. As ferramentas de contratação de IA também têm “armadilhas de portabilidade”, termo cunhado pelo pós-doutorando no Data & Society Research Institute Andrew Selbst. “Você não pode ter um sistema projetado em Utah e depois aplicado diretamente no Kentucky porque diferentes comunidades têm versões diferentes de justiça”, diz Selbst.

O que as empresas estão fazendo?

Embora as empresas reconheçam o potencial no recrutamento de IA, as preocupações com isso, gerando julgamentos discriminatórios, foram suficientes para desencorajar a total dependência da tecnologia. “O uso da IA na triagem de dezenas de milhares de currículos de candidatos nos ajudou a reduzir o tempo total de trabalho em 75%”, disse Tomoko Sugihara, diretor de recrutamento da SoftBank Corp. Dito isso, Sugihara diz que o pessoal de RH ainda passa por currículos e gravações de entrevistas que a IA filtra.

Em uma tentativa de se adaptar à pandemia do coronavírus, a Kirin Holdings Co. decidiu concluir todos os processos de contratação on-line para mitigar o risco de infecções por coronavírus, e também considerará a utilização da tecnologia de IA em atividades futuras de recrutamento. A cervejaria japonesa está ciente das limitações de treinamento de algoritmos de deep learning com dados históricos de contratação, e continua cautelosa sobre a nova tendência de aquisição de talentos. “No momento, não estamos usando a IA porque ela só pode levar a aceitar aqueles que correspondem a um certo padrão em um momento em que estamos procurando contratar pessoal diversificado”, disse a porta-voz de Kirin, Keita Sato.

Resposta Institucional

Se for algum consolo, existem órgãos reguladores que supervisionam o funcionamento desses sistemas de IA. O advogado de emprego Mark Girouard diz que as ferramentas de recrutamento de IA estão sob as diretrizes uniformes sobre procedimentos de seleção de funcionários. No entanto, Girouard também observa que, enquanto uma ferramenta não discriminar candidatos com base em raça ou gênero, não há leis federais que exijam ferramentas de IA para atender a certos padrões de precisão ou precisão. Em seu caso contra a plataforma de entrevistas em vídeo HireVue,com sede em Utah, o Electronic Privacy Information Center (EPIC) argumenta que a empresa falhou em atender a padrões reconhecidos e endossados internacionalmente para o uso de IA estipulados pela Organização para cooperação e desenvolvimento econômico.

O diretor-gerente da plataforma alemã de entrevistas em vídeo Retorio, Christoph Hohenberger, diz que o software não pretende ser o fator decisivo no processo de aquisição de talentos. “Somos uma ferramenta de assistência, e ela está sendo usada na prática também junto com pessoas humanas do outro lado”, diz ele. “Não é um filtro automático.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *