Una organización internacional sin ánimo de lucro para fomentar el acceso y el uso adecuado de medicamentos entre la población hispano-parlante

Integridade Científica

Inteligência artificial: perpetuação de vieses e estereótipos

(Artificial intelligence: perpetuating bias and stereotypes)
Prescrire International 2025; 34 (268): 83
Traduzido por Salud y Fármacos, publicado em Boletim Fármacos: Ética 2025; 3(3)

Tags: inteligência artificial, vieses algorítmicos, estereótipos de gênero, preconceito estrutural, saúde digital, ética em IA, Unesco, ChatGPT, modelos de linguagem, justiça algorítmica

  • Como as ferramentas de inteligência artificial (IA) “generativas” produzem conteúdo com base em informações disponíveis livremente na internet, elas contribuem para a disseminação dos vieses presentes nesses materiais online. Os desenvolvedores dessas ferramentas têm a responsabilidade de corrigir esses vieses.

Com sua capacidade de sintetizar rapidamente uma grande quantidade de dados, a inteligência artificial (IA) tem sido promovida como fonte de progresso em diversos campos, incluindo a saúde. No entanto, isso depende, entre outros fatores, da confiabilidade e da completude dos dados processados por essas ferramentas [1].

Segundo a Defensoria dos Direitos da França (instituição equivalente a uma ouvidoria de direitos civis), “os bancos de dados processados por algoritmos devem ser representativos da população para evitar que esses algoritmos gerem vieses discriminatórios com base nessas informações, em especial no que se refere às diferenças de gênero e aos diversos determinantes sociais da saúde, como região, trajetória de vida ou status socioeconômico” [2].

A Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco) também alertou que a IA “generativa” pode produzir informações que refletem os preconceitos existentes na sociedade. Um grupo de pesquisadores estudou a ferramenta de IA generativa ChatGPT 3.5, junto com os modelos GPT-2 e Llama 2, dois “modelos de linguagem de grande escala” (LLMs, na sigla em inglês) de código aberto usados por diversas ferramentas de IA generativa. Eles descobriram que, nos textos gerados por esses LLMs, nomes femininos eram frequentemente associados às palavras “lar”, “família”, “crianças”, “casamento”, “prostituta” e “garçonete”, enquanto nomes masculinos eram associados a termos como “negócios”, “executivo”, “salário” e “carreira”. O GPT-2 e o Llama 2 também geravam, com frequência, conteúdo negativo sobre temas relacionados à homossexualidade — o que não foi observado no caso do ChatGPT [3].

Segundo a Unesco, a IA pode “reforçar estereótipos, preconceitos e violência contra mulheres e meninas”, além de causar danos concretos, especialmente quando utilizada em ferramentas de recrutamento de emprego, decisões de concessão de crédito ou definição de prêmios de seguros, ou até mesmo em diagnósticos médicos [3].

A Unesco está conclamando os desenvolvedores de IA e os formuladores de políticas públicas a atuarem para impedir que a IA “perpetue (e até amplifique) os vieses humanos, estruturais e sociais”. O fato de o ChatGPT 3.5 não reproduzir os preconceitos negativos contra a homossexualidade presentes no LLM GPT que lhe serve de base mostra que a intervenção humana — por meio do “aprendizado por reforço com feedback humano” — continua sendo essencial para identificar e corrigir os vieses nos algoritmos usados por ferramentas de IA [3].

Referências

  1. Prescrire Rédaction “Données massives (big data) en santé et respect des personnes et de leurs droits” Rev Prescrire 2020; 40 (445): 853-860.
  2. Défenseur des droits “Avis du Défenseur des droits n°19-13” Paris 20 December 2019: 12 pages.
  3. Unesco “Challenging systematic prejudices. An investigation into bias against women and girls in Large Language Models” 2024
creado el 7 de Agosto de 2025