Chatbots de IA são facilmente enganados e dão respostas perigosas, diz estudo

Em estudo publicado no último dia 15 por pesquisadores da Universidade Ben Gurion, em Israel, foi revelado que a maioria dos chatbots de IA pode ser facilmente enganada e levada a fornecer informações perigosas, como instruções para atividades ilegais. A pesquisa mostrou que, com o uso de técnicas chamadas de “jailbreak”, é possível contornar as barreiras de segurança desses sistemas e acessar conteúdos que deveriam ser bloqueados.

  • Terapia no ChatGPT oferece riscos e preocupa o Conselho Federal de Psicologia
  • Pesquisa mostra que uma IA pode ser mais persuasiva do que humanos em debates

Os chatbots como ChatGPT, Gemini e Claude são treinados com grandes volumes de conteúdo da internet. Mesmo com tentativas de filtrar textos prejudiciais, essas IAs ainda acabam absorvendo dados relacionados a crimes como fraudes, invasões digitais e até fabricação de armas. Quando “jailbreakados”, esses sistemas deixam de obedecer aos filtros de segurança e passam a responder quase qualquer pergunta, sem considerar o risco envolvido.

Segundo os autores do estudo, a ameaça é real, imediata e preocupante. O perigo maior vem dos chamados “dark LLMs”, modelos de IA que já são criados sem nenhum tipo de limite ético. Eles estão sendo divulgados livremente na internet como ferramentas abertas a qualquer tipo de uso, inclusive criminoso.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Chatbots de IA são facilmente enganados e dão respostas perigosas, diz estudo (Imagem: Solen Feyissa/Unsplash)

Mesmo após alertas, os grandes desenvolvedores de IA ignoraram o aviso ou disseram que esse tipo de ataque não se enquadra nos programas de recompensa por falhas, de acordo com os autores do relatório publicado na plataforma arXiv.

Os pesquisadores envolvidos defendem mais investimentos em testes de segurança e ações para “desensinar” conteúdos perigosos aos chatbots. O alerta é que, se nada for feito, o acesso a esse tipo de conhecimento pode se tornar tão fácil quanto abrir um aplicativo no celular.

Leia também:

  • Experimento não autorizado em rede social nos EUA usa IA para influenciar ideias
  • O potencial da IA em relacionamentos mais eficazes e personalizados

VÍDEO | POR QUE TUDO TEM INTELIGÊNCIA ARTIFICIAL AGORA?

 

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.