Veja um PDF do artigo intitulado AI Self-preference in Algorithmic Hiring: Empirical Evidence and Insights, de Jiannan Xu e 2 outros autores
Ver PDF HTML (experimental)
Resumo:À medida que as ferramentas de inteligência artificial (IA) são amplamente adotadas, os grandes modelos de linguagem (LLMs) estão cada vez mais envolvidos em ambos os lados dos processos de tomada de decisão, desde a contratação até à moderação de conteúdo. Esta dupla adoção levanta uma questão crítica: os LLMs favorecem sistematicamente conteúdos que se assemelham aos seus próprios resultados? Pesquisas anteriores em ciência da computação identificaram preconceitos de auto-preferência – a tendência dos LLMs de favorecer o seu próprio conteúdo gerado – mas as suas implicações no mundo real não foram avaliadas empiricamente. Nós nos concentramos no contexto de contratação, onde os candidatos muitas vezes contam com LLMs para refinar currículos, enquanto os empregadores os utilizam para selecionar esses mesmos currículos. Usando um experimento de correspondência de currículo controlado em larga escala, descobrimos que os LLMs consistentemente preferem currículos gerados por eles próprios em vez daqueles escritos por humanos ou produzidos por modelos alternativos, mesmo quando a qualidade do conteúdo é controlada. O preconceito contra currículos escritos por humanos é particularmente substancial, com preconceitos de autopreferência variando de 67% a 82% nos principais modelos comerciais e de código aberto. Para avaliar o impacto no mercado de trabalho, simulamos pipelines de contratação realistas em 24 profissões. Estas simulações mostram que os candidatos que utilizam o mesmo LLM que o avaliador têm 23% a 60% mais probabilidade de serem pré-selecionados do que candidatos igualmente qualificados que enviam currículos escritos por humanos, com as maiores desvantagens observadas em áreas relacionadas com negócios, como vendas e contabilidade. Demonstramos ainda que este preconceito pode ser reduzido em mais de 50% através de intervenções simples visando as capacidades de auto-reconhecimento dos LLMs. Estas conclusões destacam um risco emergente, mas anteriormente ignorado, na tomada de decisões assistida pela IA e apelam a quadros alargados de justiça da IA que abordem não só as disparidades demográficas, mas também os preconceitos nas interações IA-IA.
Histórico de envio
De: Jiannan Xu [view email]
[v1]
Sábado, 30 de agosto de 2025 11:40:11 UTC (3.032 KB)
[v2]
Qui, 11 de setembro de 2025 16:59:36 UTC (3.032 KB)
[v3]
Seg, 9 de fevereiro de 2026 13:24:26 UTC (5.723 KB)
Fonte: theverge

![[2509.00462] Autopreferência de IA na contratação algorítmica: evidências empíricas e insights](https://casaes.canalterra.com/wp-content/uploads/2026/05/arxiv-logo-fb-1024x597.png)