Com sua capacidade de sintetizar rapidamente uma grande quantidade de dados, a inteligência artificial (IA) tem sido promovida como fonte de progresso em diversos campos, incluindo a saúde. No entanto, isso depende, entre outros fatores, da confiabilidade e da completude dos dados processados por essas ferramentas [1].
Segundo a Defensoria dos Direitos da França (instituição equivalente a uma ouvidoria de direitos civis), “os bancos de dados processados por algoritmos devem ser representativos da população para evitar que esses algoritmos gerem vieses discriminatórios com base nessas informações, em especial no que se refere às diferenças de gênero e aos diversos determinantes sociais da saúde, como região, trajetória de vida ou status socioeconômico” [2].
A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) também alertou que a IA “generativa” pode produzir informações que refletem os preconceitos existentes na sociedade. Um grupo de pesquisadores estudou a ferramenta de IA generativa ChatGPT 3.5, junto com os modelos GPT-2 e Llama 2, dois “modelos de linguagem de grande escala” (LLMs, na sigla em inglês) de código aberto usados por diversas ferramentas de IA generativa. Eles descobriram que, nos textos gerados por esses LLMs, nomes femininos eram frequentemente associados às palavras “lar”, “família”, “crianças”, “casamento”, “prostituta” e “garçonete”, enquanto nomes masculinos eram associados a termos como “negócios”, “executivo”, “salário” e “carreira”. O GPT-2 e o Llama 2 também geravam, com frequência, conteúdo negativo sobre temas relacionados à homossexualidade — o que não foi observado no caso do ChatGPT [3].
Segundo a Unesco, a IA pode “reforçar estereótipos, preconceitos e violência contra mulheres e meninas”, além de causar danos concretos, especialmente quando utilizada em ferramentas de recrutamento de emprego, decisões de concessão de crédito ou definição de prêmios de seguros, ou até mesmo em diagnósticos médicos [3].
A Unesco está conclamando os desenvolvedores de IA e os formuladores de políticas públicas a atuarem para impedir que a IA “perpetue (e até amplifique) os vieses humanos, estruturais e sociais”. O fato de o ChatGPT 3.5 não reproduzir os preconceitos negativos contra a homossexualidade presentes no LLM GPT que lhe serve de base mostra que a intervenção humana — por meio do “aprendizado por reforço com feedback humano” — continua sendo essencial para identificar e corrigir os vieses nos algoritmos usados por ferramentas de IA [3].
Referências