8 golpes com inteligência artificial para você ficar atento

A popularização das ferramentas de inteligência artificial (IA) também gera preocupações sobre segurança: criminosos podem recorrer à tecnologia para aplicar golpes cada vez mais sofisticados, o que pode dificultar a ação das vítimas para identificar o problema. É uma situação comum com deepfakes ou clonagens de voz precisas, por exemplo.

  • Clique e siga o Canaltech no WhatsApp
  • Como saber se uma foto foi criada por Inteligência Artificial
  • 8 golpes de Pix para ficar atento em 2025

Os problemas não param por aí, visto que a IA usada para codificação também pode desenvolver novos recursos maliciosos. O Canaltech listou alguns golpes comuns com a tecnologia e que precisam de atenção.

8 golpes com IA para você prestar atenção

A lista inclui as seguintes ameaças:


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

  1. Phishing
  2. Deepfakes
  3. Clonagem de voz
  4. Golpe de videochamada
  5. Ransomware
  6. Sites falsos de IA
  7. Textos falsos
  8. Golpes em apps de relacionamento

1. Phishing

O phishing é um ciberataque muito comum — atacantes criam sites falsos que simulam uma plataforma oficial e induzem as vítimas a baixarem um arquivo malicioso ou fornecerem dados sensíveis. 

Modelos adaptados de chatbots de IA podem ser usados para criar textos de phishing em larga escala, com mensagens ainda mais convincentes para as possíveis vítimas. Nesse caso, verificar a fonte do site ou do e-mail se torna cada vez mais importante para evitar a fraude.

2. Deepfakes

Os deepfakes são vídeos e imagens criados por IA que simulam a aparência de uma pessoa. Nessa situação, os golpes podem usar a imagem de uma pessoa famosa para promover um site falso ou uma experiência fraudulenta.

Anúncios falsos com celebridades já foram veiculados nas redes sociais e no YouTube, por exemplo. Além disso, é possível usar deepfakes para golpes ainda mais específicos, como a simulação de um parente ou colega de trabalho. 

Deepfakes gerados por IA são frequentemente usados em golpes (Imagem: Clker-Free-Vector-Images/Pixabay)

3. Clonagem de voz

Paralelo ao deepfake, voltado para vídeos, criminosos também podem usar inteligência artificial para clonar a voz de uma pessoa. Ferramentas gratuitas conseguem criar um clone em poucos minutos após escutarem uma breve amostra de áudio e isso pode ser usado para explorar pessoas.

“Como os ataques costumam ter uma abordagem mais voltada à engenharia social, o principal foco dos criminosos é a manipulação da percepção de suas vítimas. Esses golpes se tornam ainda mais preocupantes quando os criminosos usam esses recursos em tempo real para enganar as vítimas”, alerta o pesquisador de segurança do ESET Brasil, Daniel Barbosa, ao Canaltech.

4. Golpe de videochamada

A combinação de deepfakes com clonagem de voz em tempo real pode gerar ataques em videochamadas para tirar dinheiro ou obter dados sensíveis das vítimas. 

Um caso noticiado em fevereiro de 2024 revelou que uma empresa de Hong Kong foi vítima de uma fraude na qual um deepfake do suposto CFO da companhia entrou em contato por uma ligação de vídeo e ordenou transferências bancárias — o prejuízo foi estimado em quase R$ 130 milhões.

5. Ransomware

Os ataques de ransomware estão entre os mais críticos no ambiente digital: criminosos usam um software malicioso para interceptar todos os dados de um dispositivos, criptografá-los e liberar o conteúdo somente após o pagamento de um valor em dinheiro.

De acordo com o diretor de tecnologia da empresa Solo Iron, Ramon Ribeiro, a IA é usada para automatizar campanhas, identificar possíveis vulnerabilidades e criar ameaças cada vez mais otimizadas. “A inovação tecnológica amplifica ainda mais essas ameaças”, comentou à reportagem.

IA pode impulsionar ataques de ransomware (Imagem: Drazen Zigic/Freepik)

6. Sites falsos de IA

A popularidade dos chatbots também acende um alerta sobre possíveis versões falsas das ferramentas na web. Um exemplo ocorreu em janeiro de 2025, quando criminosos criaram um site fake do DeepSeek, concorrente chinês do ChatGPT.

O site trazia os principais elementos da interface original e mudava apenas alguns detalhes visuais. O objetivo era fazer com que as pessoas baixassem um suposto programa que instalava malwares nos dispositivos.

7. Textos falsos

Textos gerados por IA podem influenciar negativamente a decisão de compra na web, por exemplo. Lojas e sites fraudulentos usam avaliações fictícias criadas por bots e podem levar o usuário a fazer uma compra de um produto que não existe.

Nesse caso, é muito importante usar mais de uma fonte para conferir a reputação e a avaliação daquela empresa específica.

8. Golpes em apps de relacionamento

Os conteúdos gerados por IA também podem ser usados para fraudes em aplicativos de relacionamento: golpistas criam perfis e descrições falsas com ajuda da tecnologia e podem extrair o dinheiro das possíveis vítimas. Em casos do tipo, o ideal é consultar informações com pessoas próximas e verificar perfis nas redes sociais.

Leia também:

  • Como se proteger do golpe da falsa central telefônica
  • 3 mitos da cibersegurança para você ficar atento, segundo a Kaspersky
  • 5 golpes aplicados em idosos e como se proteger

VÍDEO: como funciona o Pix pelo NFC do celular?

 

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.