A administração pública, como muitos setores, debate-se com preconceitos na contratação. Embora a IA prometa decisões mais objetivas, não é infalível - e os humanos muitas vezes desconfiam ou seguem-na cegamente. O novo projeto CUBE, liderado por Filipa Almeida, propõe uma forma de encontrar o equilíbrio certo: criar confiança nos sistemas de IA e incorporar estímulos que promovam o pensamento crítico. O objetivo? Contratação mais justa, mais inteligente e mais inclusiva nas instituições governamentais.
O problema dos preconceitos na contratação: o julgamento humano sob pressão
As instituições governamentais têm a tarefa de representar e servir populações diversas. Apesar da intenção de serem imparciais, os decisores baseiam-se frequentemente, por vezes inconscientemente, em estereótipos, penalizando os candidatos com base no género, raça ou outros fatores irrelevantes. Em Portugal, estes padrões estão bem documentados e continuam a impedir o progresso no sentido da equidade no local de trabalho. Este não é um problema exclusivamente português, gigantes da tecnologia como a Google têm enfrentado problemas semelhantes. Em 2018, a Google abandonou a sua ferramenta de recrutamento baseada em IA depois de ter descoberto que desvalorizava sistematicamente os CV que incluíam a palavra “mulheres”. A IA tinha aprendido com os dados históricos de contratação - e repetiu os preconceitos de género do passado. Isto sublinha uma verdade fundamental: mesmo a IA mais avançada é tão justa quanto os dados com que aprende.

A Inteligência Artificial (IA) oferece uma promessa convincente: analisar os dados dos candidatos de forma objetiva, livre de preconceitos que afetam o julgamento humano. Mas a utilização da IA na contratação tem os seus próprios obstáculos psicológicos. A investigação mostra que os gestores do sector público desconfiam frequentemente da IA, especialmente em tarefas subjetivas e centradas nas pessoas, como a contratação. Este fenómeno, conhecido como “aversão ao algoritmo”, leva à rejeição de conselhos úteis de IA, mesmo quando estes melhoram claramente a qualidade da decisão.
Paradoxalmente, quando as pessoas confiam na IA, podem confiar demasiado nela. Uma vez considerada fiável, a IA pode levar as pessoas a aceitar os seus conselhos sem pensar, mesmo quando estão errados. Este excesso de confiança não é menos perigoso do que a aversão. Menospreza a supervisão humana e pode permitir que os preconceitos algorítmicos subtis passem despercebidos.
O novo projeto de investigação Desenviesar Decisões através de Insights de IA: Equilibrar a Confiança na IA com o Pensamento Crítico para Optimizar a Tomada de Decisão e Erradicar a Discriminação, liderado por Filipa Almeida do CUBE, CATÓLICA-LISBON, e financiado no âmbito do PRR da UE e do concurso “Inteligência Artificial, Ciência de Dados e Cibersegurança” promovido pela FCT, procura redesenhar a forma como as ferramentas de IA são utilizadas na contratação no sector público. Este projeto interdisciplinar combina conhecimentos da Administração Pública, do Comportamento Organizacional, da Interação Humano-Computador e da Psicologia Social para estudar a psicologia da confiança na IA, o que faz com que as pessoas confiem na IA, quando confiam demasiado nela e como promover um equilíbrio.
"O objetivo deste projeto é explorar a forma como a inteligência artificial pode ajudar a reduzir a discriminação no recrutamento do sector público. Abordamos este desafio de duas formas principais: em primeiro lugar, realizando estudos experimentais para identificar estratégias eficazes; e, em segundo lugar, desenvolvendo uma ferramenta baseada em IA com base nessas descobertas. Esta ferramenta será depois aperfeiçoada através de experiências baseadas em cenários e testada em contextos mais realistas." - Filipa Almeida
Compreender como cultivar a confiança adequada na IA nas decisões de contratação pública - nem pouco, nem demasiado. Os investigadores irão estudar a forma como a confiança na IA pode ser influenciada e como evitar o excesso de confiança através da utilização estratégica de nudges comportamentais.
Principais inovações:
Rótulos de certificação: O projeto conclui que os rótulos de certificação funcionam como selos de qualidade, indicando que uma ferramenta de IA foi auditada e cumpre as normas de equidade e transparência. O trabalho anterior de Almeida mostra que esses rótulos aumentam a confiança dos utilizadores na IA, especialmente em domínios em que normalmente são céticos. Isto é particularmente oportuno, uma vez que a Comissão Europeia propôs recentemente um quadro para o desenvolvimento de sistemas de IA fiáveis. No entanto, embora tais quadros estabeleçam normas importantes, não abordam claramente a forma de comunicar eficazmente a confiança aos utilizadores. E embora o aumento da confiança seja crucial, também acarreta o risco de encorajar a aceitação passiva - por isso, esta abordagem vai um passo mais além.
Nudges de pensamento crítico: Mas a confiança por si só não é suficiente. Para evitar o excesso de confiança, a equipa propõe a incorporação de nudges na experiência da IA - avisos simples que incentivam os utilizadores a fazer uma pausa, refletir e avaliar criticamente as sugestões da IA antes de as aceitarem.
Esta abordagem dupla: criação de confiança e ativação cognitiva foi concebida para incentivar uma confiança adequada na IA, garantindo que os gestores de serviços públicos utilizam estas ferramentas de forma sensata e eficaz.
Para testar o modelo, os investigadores irão realizar experiências controladas que simulam decisões de contratação em contextos governamentais. Os participantes são confrontados com cenários de contratação que envolvem conselhos humanos e conselhos gerados por IA, alguns dos quais são intencionalmente incorretos. Estas simulações ajudam a equipa a explorar:
- Quando os utilizadores recorrem à IA em vez do julgamento humano
- Como é que os rótulos de certificação alteram a confiança e o comportamento
- Se os nudges aumentam o escrutínio dos conselhos de IA
Do laboratório para o governo: Construir uma ferramenta de consultoria de contratação de IA
O projeto propõe-se desenvolver uma ferramenta digital que as instituições de serviço público possam utilizar para apoiar as decisões de contratação. Com base em dados experimentais, esta ferramenta irá incorporar algoritmos de IA certificados e nudges incorporados para ajudar os gestores de contratação a tomar decisões melhores e mais justas. Amostras de grandes dimensões e de elevada potência e o pré-registo de experiências garantem o rigor científico e a relevância prática. A ferramenta de consultoria de contratação de IA foi concebida para ser escalável, transparente e alinhada com os quadros europeus emergentes de governação da IA.
Implicações para o sector público
O que está em jogo não são apenas as decisões individuais de contratação, mas o futuro das instituições governamentais.
- Para os indivíduos, o projeto promete um sistema mais inclusivo em que os candidatos são avaliados com base no mérito e não em estereótipos.
- Para as organizações, uma melhor contratação significa equipas mais fortes, menor rotatividade e menos queixas de discriminação.
- Para a sociedade, práticas de contratação equitativas podem restaurar a confiança pública e tornar as instituições mais representativas das comunidades que servem.
Ao juntar a IA ao design centrado no ser humano e à ciência comportamental, este projeto oferece um roteiro para os governos navegarem na utilização ética da tecnologia em decisões de alto risco.
A IA não eliminará os preconceitos por si só. Mas com um design bem pensado, uma comunicação clara e um conhecimento profundo da psicologia humana, pode ajudar-nos a tomar melhores decisões. O futuro da contratação equitativa não está em escolher entre a IA e o julgamento humano, mas em combiná-los cuidadosamente.
