Um experimento que mostrava resumos gerados por inteligência artificial (IA) no topo das páginas da Wikipedia foi pausado pela fundação que a administra, a Wikimedia. Essa pausa se deve a uma reação amplamente negativa da comunidade de editores da plataforma colaborativa.
Anunciada para testar um recurso de IA que tornaria artigos mais acessíveis, a novidade foi rapidamente criticada por editores. Muitos deles enfatizaram que a empresa não precisava copiar o Google ou que isso traria danos irreversíveis aos leitores e à reputação da Wikipedia, conhecida por sua confiabilidade e pela governança colaborativa.
Denominado “Simple Article Summaries”, o experimento foi proposto durante a conferência Wikimania de 2024, com a intenção de utilizar a IA para sintetizar artigos densos e facilitar o aprendizado dos leitores. Apesar de indicar que o resumo havia sido gerado ou remixado por alguma máquina – ou inserir uma etiqueta de “não verificado” –, essas medidas são foram consideradas suficientes para garantir a qualidade do conteúdo.
Os editores argumentaram permitir que a IA gerasse resumos sem controle humano comprometeria a credibilidade da Wikipedia. “O que vocês propõem é dar a um editor único, com problemas de confiabilidade e imparcialidade, um lugar de destaque na página, sem nenhum controle editorial de outros,” afirmou um dos editores, enfatizando o impacto potencial dessa mudança na percepção de qualidade da plataforma.
Wikimedia segue interessada em IA
Apesar da pausa no experimento, a fundação deixou claro que o uso de IA para resumos ainda estava sendo considerado, mas que seria necessária adoção de um sistema de moderação humana para garantir a qualidade do conteúdo.
Essa decisão da Wikimedia reforça um desafio constante nos dias de hoje, tanto para ela quanto para outras empresas impactas pela inteligência artificial: como equilibrar a inovação tecnológica com a preservação da qualidade editorial e adotar ferramentas de IA de forma eficaz, combinando-as com supervisão humana?
Fonte: EXAME