IA Grok foi treinada para evitar ‘ativismo’ e viés progressista, revela site

O Grok, inteligência artificial da empresa (IA) de Elon Musk, xAI, foi treinado para evitar pautas consideradas “ativistas”, e de contextos progressistas. As informações foram reveladas pelo site Business Insider (BI), que teve acesso a documentos internos da empresa. 

  • O que é Grok 3? Conheça a nova IA revelada por Elon Musk
  • Como usar o Grok 3, a nova IA de Elon Musk

De acordo com com o BI, os “tutores” do Grok, ou seja, os trabalhadores que treinam o chatbot, foram instruídos por meio de um documento a procurar e evitar pautas que apoiassem, de certa forma, a ideologia “woke”, uma forma de protesto não violento que permite empoderar grupos historicamente marginalizados da sociedade. 

Outros temas que os tutores precisavam ficar atentos são a “cultura do cancelamento”, assim como “fobias sociais” como o racismo, islamofobia e antissemitismo, de acordo com os documentos analisados.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Em sigilo, trabalhadores da xAI relataram ao BI que as práticas de treinamento do Grok “pareciam priorizar fortemente as crenças de direita“. Até o momento, a xAI não se pronunciou.

Uma alternativa aos chatbots ‘woke’

Segundo o site, a metodologia aplicada nos treinamentos do Grok visa se tornar uma alternativa aos chats que Musk considera como apoiadores da ideologia woke. 

O documento que descreve as práticas de treinamento estava em uso ainda no começo do ano e detalha pontos a serem priorizados na avaliação das respostas do Grok . Alguns desses tópicas eram: “não seguir narrativas populares de forma crítica”, “não adotar viés” e “não se fazer passar por Elon Musk, ao menos que seja solicitado”. 

Esse material guia os tutores a avaliar os exemplos de respostas do Grok, assim como classifica respostas em “um exemplo brilhante do que o Grok deveria ser” ou “uma violação de nossos princípios”. 

Reportagem revelou documentos com instruções que precisavam ser seguidas no treinamento da IA (Imagem: André Magalhães/Canaltech)

Grok não deve negar o preconceito de um usuário

Uma das ordens expostas no documento de integração para os tutores dispõe que Grok não deve “impor uma opinião que confirme ou negue o preconceito de um usuário”. Contudo, ele indica que o chatbot deve evitar respostas que afirmem que ambos os lados têm mérito “quando, na verdade, não tem”. 

Grok foi instruído a bloquear fontes negativas sobre Musk e Trump

Na última semana, o um usuário mostrou um comando em uma publicação no X que indicava que o chatbot deveria ignorar fontes que mencionam que Elon Musk e Donald Trump espalham desinformação.

A pesquisa feita no Grok ainda indicava este comando em uma lista de instruções que deviam ser seguidas pela IA. 

Segundo o chefe de engenharia da xAI, Igor Babuschkin, um ex-funcionário não identificado da OpenAI que atualmente trabalha na xAI atualizou o prompt do sistema do Grok sem aprovação da equipe. Pouco tempo depois o problema foi revertido e comprovado em testes feitos pelo Canaltech. 

Leia mais:

  • 5 novidades do Grok 3, modelo de IA anunciado por Elon Musk
  • 6 comandos do DeepSeek para te deixar mais produtivo
  • DeepSeek vs Gemini: conheça 5 diferenças entre os chatbots

VÍDEO: DeepSeek x ChatGPT | #shorts

 

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.