Estudo Revela que Chatbots de IA Sugerem Salários Mais Baixos para Mulheres e Minorias
Negociar seu salário é uma experiência desafiadora, independentemente de quem você seja. Portanto, é natural que algumas pessoas estejam recorrendo ao ChatGPT e a outros chatbots de IA em busca de conselhos sobre como conseguir o melhor acordo possível. No entanto, os modelos de IA podem apresentar uma suposição infeliz sobre quem merece um salário mais alto.
Assista ao vídeo completo aqui:
Um novo estudo descobriu que chatbots de IA rotineiramente sugerem salários mais baixos para mulheres e algumas minorias étnicas, além de pessoas que se descrevem como refugiadas, mesmo quando o trabalho, suas qualificações e as perguntas são idênticas. Cientistas da Universidade Técnica de Ciências Aplicadas de Würzburg-Schweinfurt realizaram o estudo, revelando resultados inquietantes e uma falha mais profunda na IA que eles representam.
Não é uma surpresa, em certa medida, que a IA, treinada com informações fornecidas por humanos, tenha preconceitos humanos embutidos. Mas isso não torna aceitável ou algo a ser ignorado.
O Experimento com os Chatbots de IA
Para o experimento, os chatbots foram questionados com uma pergunta simples: “Qual salário inicial devo pedir?” Os pesquisadores assumiram diferentes papéis de pessoas fictícias, incluindo homens e mulheres, pessoas de diferentes etnias, além de indivíduos que se descreviam como nascidos localmente, expatriados e refugiados. Todos eram profissionalmente idênticos, mas os resultados foram bastante diferentes.
Os pesquisadores relataram que “até mesmo sinais sutis, como os primeiros nomes dos candidatos, podem acionar disparidades de gênero e raciais em solicitações relacionadas ao emprego.”
Resultados Surpreendentes nas Sugestões de Salário
Por exemplo, o modelo o3 do ChatGPT sugeriu a um especialista médico fictício masculino em Denver que pedisse um salário de $400.000. Quando uma persona fictícia idêntica, mas descrita como mulher, fez a mesma pergunta, a IA sugeriu que ela mirasse em $280.000, uma disparidade de $120.000 baseada em pronomes. Testes semelhantes envolvendo modelos como GPT-4o mini, Claude 3.5 Haiku da Anthropic, Llama 3.1 8B e outros trouxeram a mesma diferença de aconselhamento.
Surpreendentemente, não era sempre melhor ser um homem branco nativo. O perfil mais vantajoso acabou sendo o de um “expatriado asiático masculino”, enquanto uma “refugiada hispânica feminina” ficou em último lugar nas sugestões salariais, independentemente de habilidades e currículo idênticos.
Como os Preconceitos se Manifestam na IA
Os chatbots não inventam esses conselhos do nada. Eles aprendem isso ao absorver bilhões de palavras retiradas da internet. Livros, anúncios de empregos, postagens em redes sociais, estatísticas governamentais, publicações no LinkedIn, colunas de conselhos e outras fontes contribuíram para os resultados temperados com preconceitos humanos.
A questão é que ninguém precisa destacar seu perfil demográfico para que o preconceito se manifeste. Os LLMs (modelos de linguagem de grande porte) agora têm memória para lembrar conversas ao longo do tempo. Se você mencionar que é uma mulher em uma sessão ou falar sobre um idioma que aprendeu quando criança, ou se precisou se mudar recentemente, esse contexto informa o preconceito. A personalização promovida pelas marcas de IA se torna discriminação invisível quando você solicita táticas de negociação salarial.
Desafios e Recomendações na Negociação Salarial
“A probabilidade de uma pessoa mencionar todas as características da persona em uma única pergunta a um assistente de IA é baixa. No entanto, se o assistente tiver um recurso de memória e usar todos os resultados das comunicações anteriores para respostas personalizadas, esse preconceito se torna inerente à comunicação,” explicaram os pesquisadores em seu artigo. “Portanto, com os recursos modernos dos LLMs, não há necessidade de predefinir personas para obter a resposta tendenciosa: todas as informações necessárias muito provavelmente já estão coletadas por um LLM.”
Conselhos tendenciosos são um problema que precisa ser abordado. Isso não quer dizer que a IA seja inútil quando se trata de aconselhamento profissional. Os chatbots oferecem números úteis, citam referências públicas e fornecem roteiros que aumentam a confiança. Mas é como ter um mentor muito inteligente que pode ter algumas suposições que levaram aos problemas da IA. Você precisa contextualizar o que eles sugerem de forma moderna.
Portanto, sinta-se à vontade para pedir conselhos ao seu assistente de IA sobre como ser melhor pago, mas mantenha um certo ceticismo sobre se ele está oferecendo a mesma vantagem estratégica que daria a outra pessoa. Talvez pergunte a um chatbot qual é o seu valor duas vezes, uma vez como você mesmo e outra com a “máscara neutra”. E fique atento a uma discrepância suspeita.
Siga nosso canal @canalsegredosdodigital no Instagram e TikTok para dicas diárias sobre IA, automações e marketing digital.
Perguntas Frequentes sobre a ferramenta
Como usar essa ferramenta de IA no dia a dia?
Essa ferramenta pode ajudar na preparação para entrevistas e na negociação salarial, fornecendo sugestões baseadas em dados. Utilize-a para simular cenários de negociação e se preparar melhor.
Essa plataforma é gratuita ou paga?
Depende do serviço em questão. Algumas plataformas de chatbots podem ter versões gratuitas com funcionalidades limitadas, além de opções pagas para recursos avançados.
Qual a principal vantagem dessa ferramenta?
A vantagem é ter acesso a informações e comparações de salários de forma rápida e prática, ajudando na tomada de decisões informadas durante a negociação.
Conheça a ferramenta apresentada no vídeo:
Palavras-chave: chatbots de IA, negociação salarial, preconceito em IA, sugestões de salário, disparidade salarial.
Categoria: [2] Novidades
