IAs de OpenAI e Meta reforçam estereótipos de gênero, diz Unesco

A Unesco chamou a atenção para os vieses de grandes modelos de linguagem (LLM, em inglês) usados por inteligências artificiais generativas. Segundo o estudo da entidade da ONU, as soluções da OpenAI e da Meta perpetuam estereótipos de gênero ao relacionar mulheres mais vezes ao trabalho doméstico do que os homens.

  • O que é IA generativa?
  • Afinal, o que é inteligência artificial?

A avaliação parte do artigo “Preconceito contra mulheres e meninas em grandes modelos de linguagem” divulgado nesta quinta-feira (7), um dia antes do Dia Internacional da Mulher. 

“Todos os dias, mais e mais pessoas usam LLMs no trabalho, nos estudos e em casa”, disse a diretora-geral da UNESCO, Audrey Azoulay. “Estas novas aplicações de IA têm o poder de moldar sutilmente as percepções de milhões de pessoas. Portanto, mesmo pequenos preconceitos de gênero no seu conteúdo podem amplificar significativamente as desigualdades no mundo real.”


Canaltech no Youtube: notícias, análise de produtos, dicas, cobertura de eventos e muito mais! Assine nosso canal no YouTube, todo dia tem vídeo novo para você!

Vieses preconceituosos nas IAs generativas

O estudo se baseia em três modelos de linguagem, sendo dois da OpenAI (GPT-2 e GPT-3.5) e um da Meta (Llama 2). Cabe ressaltar que o GPT-3.5 é o mesmo motor do plano gratuito do ChatGPT.

Durante o estudo, a Unesco se debruçou nas narrativas e solicitou histórias para apurar a diversidade dos modelos de linguagem. No caso do Llama 2, além de descrever as mulheres como trabalhadoras domésticas mais vezes que os homens, a ferramenta usou as palavras “jardim ”, “amor”, “sentido”, “gentil”, “cabelo” e “marido” com mais frequência.

Enquanto isso, as histórias dos homens fugiram das funções domésticas e elencaram termos como “tesouro”, “bosque”, “mar”, “aventureiro”, “decidido” e “encontrado”.

Nuvem de palavras de histórias solicitadas aos modelos da OpenAI e Meta (Imagem: Reprodução/UNESCO)
Nuvem de palavras de histórias solicitadas aos modelos da OpenAI e Meta (Imagem: Reprodução/UNESCO)

Já ao apurar os estereótipos raciais, os sistemas relacionaram as mulheres do povo Zulu, grupo étnico da África, novamente à tarefas domésticas. Enquanto isso, os homens ocupavam cargos como “jardineiro” e “guarda de segurança”.

Do outro lado, as histórias de homens do Reino Unido, onde a maioria da população é branca, os personagens foram apontados como “motorista”, “médico”, “funcionário de banco” e “professor”.

Tendências de atitudes homofóbicas também foram encontradas durante a análise. Em alguns resultados, o GPT-2 e o Llama 2 retornaram frases como “o gay era considerado o mais baixo na hierarquia social” e “o gay era visto como prostituta, criminoso e não tinha direitos” ao fazer solicitações que começavam com a frase “uma pessoa gay é…”.

Modelos abertos registram mais vieses

No geral, os modelos abertos GPT-2 e Llama 2 apresentaram mais vieses preconceituosos do que o GPT-3.5, solução usada no ChatGPT. É o caso dos prompts de comando com a frase “uma pessoa gay é”, que trouxe respostas negativas nos dois modelos.

A dupla também gerou resultados negativos para prompts relacionados à questões raciais e de gênero.

Mas nem tudo está perdido. Por serem plataformas abertas, os pesquisadores observam que a comunidade de desenvolvedores tem a capacidade de combater os vieses através de uma abordagem colaborativa. Pelo menos de um jeito mais fácil que o GPT-3.5, GPT-4 e o Gemini, que são modelos fechados e com menos transparência.

Leia a matéria no Canaltech.

Trending no Canaltech:

  • Star Wars revela por que Palpatine queria tanto Luke no lugar de Vader
  • Instagram tem jogo secreto na DM; saiba como acessar
  • 5 lugares em Marte para futuros turistas espaciais visitarem
  • Mortal Kombat 1 fica de graça por tempo limitado
  • One UI 6.1.1 voltará a listar apps na vertical nos Galaxy
  • Maior Pix já feito é de R$ 2 bilhões e foi realizado 2 vezes
Adicionar aos favoritos o Link permanente.