Daily Wire / Reprodução

A revolução da inteligência artificial já chegou à economia global. Empresas como a Meta, dos EUA, utilizam IA para moderação de conteúdo em redes sociais, enquanto a Starbucks, também dos EUA, emprega a tecnologia para auxiliar seus baristas em tarefas diárias. No entanto, para alguns candidatos a emprego, a IA pode estar influenciando o processo de contratação, selecionando alguns candidatos em detrimento de outros sem intervenção humana.

Mas será que a IA pode ser confiável para escolher os candidatos mais qualificados para uma vaga? Pesquisas recentes sugerem que não. Segundo o Daily Wire, um estudo publicado no início deste mês por pesquisadores independentes Adam Karvonen e Samuel Marks revelou que os “principais modelos comerciais e de código aberto” utilizados por grandes empresas inserem “viéses raciais e de gênero significativos” no processo de contratação. A pesquisa mostrou que modelos de linguagem de IA como Chat GPT-4o, Claude 4 Sonnet, Gemini 2.5 Flash, além de modelos de código aberto como Gemma-2 27B, Gemma-3 e Mistral-24B, “favorecem consistentemente candidatos negros em detrimento de candidatos brancos e candidatas mulheres em detrimento de candidatos homens em todos os modelos e cenários testados”.

PUBLICIDADE

Adam Karvonen alertou ao Daily Wire que a pesquisa deve servir de alerta para empresas que utilizam IA na contratação de funcionários. Ele mencionou que é possível que as empresas implementem seus próprios “salvaguardas” para evitar que a IA discrimine pessoas com base apenas em raça ou sexo, mas ressaltou que “como as empresas geralmente não divulgam os detalhes de seus salvaguardas internos, não podemos verificar independentemente que esses sistemas são justos e robustos”.

Karvonen também afirmou que “a anonimização padrão de currículos pode não ser uma solução completa”. Por exemplo, a pesquisa descobriu que os modelos de IA inferiam a raça de um candidato a partir de sua afiliação universitária e, como resultado, tornavam-se tendenciosos. Mesmo que identificadores óbvios como nomes sejam removidos, o viés pode ainda se infiltrar através de outros detalhes de fundo. Isso é mais uma razão pela qual uma solução técnica como a nossa, que impede o modelo de processar esses conceitos completamente, pode ser mais robusta do que simplesmente esconder informações de superfície.

O estudo também descobriu que pedir aos modelos de IA para considerar “detalhes contextuais do mundo real” e focar em “um processo de contratação altamente seletivo” pode fazer com que a IA se torne tendenciosa e discrimine pessoas brancas, especialmente homens brancos, que receberam “diferenças de até 12% nas taxas de entrevista”.

PUBLICIDADE

Jason Hausenloy, um pesquisador independente de segurança em IA, disse ao Daily Wire que “mesmo que tudo mais seja igual — o currículo é o mesmo, a experiência é a mesma — nomes estereotipicamente brancos são menos propensos a passar pelo processo de entrevista”. Hausenloy acrescentou que os modelos de linguagem de IA favoreciam candidatos de minorias, mesmo que as promessas e declarações de diversidade de uma empresa fossem completamente removidas do cenário. “Apenas o ato de tornar os cenários de contratação mais realistas significava que eles eram mais propensos a serem tendenciosos”, disse ele.

Icone Tag