• A Revista Analytica é especializada em Controle de Qualidade das Industrias: Farmacêutica, Cosmética, Química, Biotecnologia, Meio Ambiente, Mineração e Petróleo.
    analytica-blackanalytica-blackanalytica-blackanalytica-black
    • Home Page
    • Leia a Analytica
    • Notícias
    • Sobre
      • Analytica
      • Expediente
      • Anuncie
      • Publique na Analytica
      • Assine a Analytica
    ✕

    IA em processo seletivo pode reduzir diversidade e desumanizar seleção

    Apesar dos benefícios da adoção da inteligência artificial (IA) em processos de contratação, como maior agilidade, padronização e redução de custos, pesquisa da USP constatou algumas consequências preocupantes, como viés algorítmico e discriminação, redução da diversidade organizacional e desumanização da experiência. A reconfiguração marcou também o papel dos recrutadores, que passam de decisores a supervisores de sistemas.

    Também foram constatados efeitos emocionais e psicológicos negativos para candidatos e selecionadores, além de barreiras culturais e linguísticas, especialmente em contextos globais — como no caso de empresa alemã com subsidiárias no Brasil. “Com as empresas cada vez mais adotando a tecnologia, há uma mudança na comunicação, no comportamento e no emocional das pessoas”, detalha Humberta Silva, autora da pesquisa desenvolvida em seu doutorado na Faculdade de Economia, Administração, Contabilidade e Atuária (FEA) da USP.

    “O processo está mais distante e desumanizado. Com isso, há limitações para uma análise precisa das capacidades do candidato pela dificuldade em identificar aspectos subjetivos” – Humberta Silva

    Conforme a pesquisadora, a IA não é neutra, pois carrega os vieses de quem a programa e dos dados que a alimentam. O uso acrítico ou automatizado pode reproduzir desigualdades estruturais, como discriminações por gênero, raça, classe e local de origem. A recomendação central é que a IA seja usada com supervisão humana, intencionalidade ética e sensibilidade ao contexto social e organizacional. “Precisamos entender que a inteligência artificial tem limitações, identificar quais são elas e sempre fazer auditoria quando se usa,” diz. Transparência, regulação e educação tecnológica são pontos-chave para mitigar riscos.

    Impacto nas partes interessadas

    No contexto atual, a IA pode reforçar desigualdades estruturais em vez de combatê-las, segundo a pesquisadora. “No Brasil, o acesso à tecnologia ainda é precário. Começa aí o impacto na diversidade”, afirma. Muitos candidatos ficam em desvantagem desde o início por não terem acesso às informações ou à linguagem esperada pelos sistemas automatizados. Os algoritmos também aplicam critérios ocultos que excluem candidatos de forma sutil. “Tem sistema que pontua se o candidato mora perto do trabalho, tem inglês ou fez determinada faculdade”, alerta. Esses filtros automáticos acabam privilegiando perfis com mais capital cultural e excluindo grupos historicamente marginalizados.

    Profissionais de recursos humanos (RH) também sofrem impactos. “O recrutador começa a se subestimar [e questionar] se é capaz de identificar habilidades sem auxílio da tecnologia”, diz. O uso contínuo da IA tende a transformar o papel para uma atuação de gerenciamento de sistemas, levando à perda de confiança no próprio trabalho e a uma relação mecânica com o processo seletivo. Para ela, os sistemas precisam ser adaptados à realidade brasileira e construídos com intencionalidade inclusiva. “O processo de recrutamento e seleção é a área mais estratégica para atrair diversidade”, alerta.

    Soluções e ética
    Uma das principais recomendações da pesquisadora é envolver profissionais de RH no desenvolvimento das ferramentas. “A maioria dos sistemas é feita por programadores, sem a participação do RH. Isso é um problema grave”, afirma. A pesquisadora defende o codesign como forma de garantir que os sistemas reflitam o contexto real das organizações e da sociedade. “Se você tem programadores diversos, consegue ver outras perspectivas e evitar vieses”, explica Humberta. Além disso, ela recomenda a prática de testes regulares para verificar correlações problemáticas entre os critérios usados e variáveis como raça, gênero, idade ou classe social.

    “Tem uma empresa que instaurou auditoria mensal. O RH faz testes com currículos reais e cobra explicações dos programadores”, relata. Para ela, esse tipo de controle é essencial para garantir justiça, transparência e responsabilização no uso da IA. Outra necessidade é da formação desses profissionais de seleção para saber quando usá-la dentro do processo, em que ponto ela é eficaz e as limitações dos resultados. “Se os profissionais que trabalham com seleção e contratação de pessoas precisarem usar esses softwares, eles precisam de competências específicas”, alega Liliana Vasconcellos, professora na FEA e orientadora da pesquisa.

    “Profissionais de recursos humanos não vão desenvolver a tecnologia, mas vão usar esses softwares. Então, precisam de competências para fazerem isso de uma forma ética, sustentável e eficiente” – Liliana Vasconcellos

    Por esse motivo, a professora lidera, em parceria com outras universidades, um projeto de pesquisa para avaliar o letramento em inteligência artificial. A proposta é coletar dados com estudantes de Administração em quatro países (Brasil, Estados Unidos, Alemanha e Índia) para entender como desenvolvem competências em IA durante o curso, considerando que a IA está cada vez mais presente nas organizações. Liliana desenvolveu uma ferramenta de IA para apoiar a elaboração do plano de desenvolvimento individual, disponibilizada aos supervisores durante o processo de avaliação dos funcionários técnicos-administrativos da USP. Além disso, tem promovido o debate sobre diretrizes de uso da IA no ensino de graduação e na pesquisa acadêmica.

    A pesquisa
    Para compreender os impactos da adoção da IA em processos seletivos, especialmente os efeitos indesejáveis, Humberta Silva investigou seus usos e consequências. Foram realizados três estudos interligados: uma revisão sistemática da literatura e dois estudos qualitativos — um com empresas e outro com as partes interessadas do processo de seleção (com exceção dos candidatos) para contribuir com a literatura científica e orientar práticas mais éticas, inclusivas e eficientes.

    Devido ao escopo do estudo, a pesquisadora focou nos usuários dessas IAs (profissionais de aquisição de talentos e desenvolvedores) ao invés dos recursos, candidatos e dos softwares em si, para entender suas experiências no uso e na programação aplicada ao recrutamento e seleção. Além disso, Humberta indica a limitação qualitativa da pesquisa, que não avaliou um grande conjunto de empresas.

    A fim de realizar a avaliação desses modelos de linguagem, ela utilizou o software ATLAS.ti nas análises qualitativas de seus três estudos interligados. No primeiro, analisou 52 artigos com codificação indutiva, técnica em que o pesquisador explora os dados coletados sem categorias predefinidas para identificar padrões, temas e conceitos emergentes.

    No segundo estudo, realizou uma pesquisa de múltiplos casos qualitativos com empresas da Alemanha e suas subsidiárias no Brasil, por meio de entrevistas semiestruturadas, análise documental e anotações de campo, também com codificação indutiva.

    No terceiro estudo, ela focou nas experiências do processo seletivo, usando uma abordagem qualitativa básica com análise temática dedutiva e indutiva no ATLAS.ti, a fim de mapear as consequências práticas da IA em cada etapa da seleção.

    A tese intitulada A inteligência artificial no processo de seleção de pessoas: usos e consequências foi defendida em 6 de abril e deverá ser disponibilizada no Banco de Teses da USP.

    Para mais informações: humberta@usp.br, com Humberta Silva

    *Estagiário sob orientação de Tabita Said

    **Estagiária sob orientação de Moisés Dorado

    Matéria – Jornal da USP, Texto: Jean Silva*
    Arte: Daniela Gonçalves**
    Imagem – Impacto negativo na autoestima da equipe de recrutamento é um dos possíveis efeitos – Foto: Freepik

    Compartilhar

    Artigos Relacionados

    24 de julho de 2025

    A Perfecta apresenta a nova linha de barras magnéticas com revestimento em Teflon


    Leia mais
    24 de julho de 2025

    Emagrecedores já representam 15% dos gastos com a saúde corporativa


    Leia mais
    23 de julho de 2025

    “Vacina para plantas”: pesquisa usa fungo para reforçar defesas da cana-de-açúcar contra infestações


    Leia mais

    Leia a última edição

    Últimas notícias

    • IA em processo seletivo pode reduzir diversidade e desumanizar seleção
    • A Perfecta apresenta a nova linha de barras magnéticas com revestimento em Teflon
    • Emagrecedores já representam 15% dos gastos com a saúde corporativa
    • “Vacina para plantas”: pesquisa usa fungo para reforçar defesas da cana-de-açúcar contra infestações
    • Equipamentos de contenção ajudam a garantir saúde imunológica e eficácia de tratamentos do gado
    • Quando se trata de armazenar e manipular líquidos em grande escala, os novos Carboys da Perfecta são a escolha ideal.
    © 2020 . All Rights Reserved. Revista Analytica