Microsoft alerta para uso do ChatGPT em ataques digitais sofisticados

A Microsoft voltou a emitir alerta quanto ao uso do ChatGPT e outras inteligências artificiais na melhoria de ataques cibernéticos. Os golpes estariam visando tanto usuários comuns, a partir de engenharia social mais sofisticada, quanto governos mundiais, a partir de grupos cibercriminosos a serviço de estados-nação.

  • Uma IA pode já estar te protegendo, sem que você saiba disso
  • Segurança híbrida | Conceito une análise humana e IA para maior proteção

O alerta foi dado em conjunto pela empresa e a OpenAI, responsável pelo ChatGPT, que colaborou com as análises. Enquanto ambas afirmam que não foram detectados golpes em grande escala com o uso de modelos de linguagem de IA, elas seguem investigando os usos maliciosos e bloqueando contas ligadas a tentativas de golpes digitais.

De acordo com a Microsoft, o ChatGPT vem sendo usado para diferentes fins, de acordo com a categoria dos ataques pretendidos. Contra usuários comuns, o foco está na melhoria de golpes de phishing e códigos de malware, além da automação de tarefas de extração de dados e otimização de volumes vazados.


Podcast Canaltech: de segunda a sexta-feira, você escuta as principais manchetes e comentários sobre os acontecimentos tecnológicos no Brasil e no mundo. Links aqui: https://canaltech.com.br/podcast/

Segundo a Microsoft, entre os usos do ChatGPT pelos criminosos estariam a melhoria de malwares, sofisticação de phishing, traduções e guias ligados a sistemas governamentais (Imagem: Kevin Horvat/Unsplash)

A Microsoft e a OpenAI indicam a utilização do ChatGPT por grupos conhecidos e notoriamente ligados a estes estados-nação. Segundo o relatório, foram detectadas atividades do Fancy Bear, Thallium e Curium, respectivamente ligados aos governos da Rússia, Coreia do Norte e Irã, além de múltiplas instâncias de quadrilhas ligadas à China.

Além da programação de vírus e rotinas de ataque, os bandidos estariam utilizando a tecnologia para auxiliar no entendimento de sistemas de radar, parâmetros técnicos e vulnerabilidades de sistemas governamentais. Ainda, a IA seria usada para forjar e-mails oficiais de organizações com contratos oficiais, traduções rápidas e refinamento de soluções para ataques cibernéticos.

Fraudes maiores podem estar a caminho

A Microsoft e a OpenAI deixam claro que os casos indicados pelo relatório representam estudos iniciais, sem que existam relatos diretos de uso do ChatGPT pelo cibercrime, principalmente estatal. Porém, ambas também deixam claro que esse mau uso não é novidade e pode levar a golpes mais sofisticados.

Os alertas são focados, principalmente, no uso de inteligência artificial para clonagem de voz e tentativas dos criminosos de se passarem por pessoas comuns, executivos e funcionários de empresas visadas. A ideia é que, em breve, apenas três segundos de amostra vocal podem ser suficientes para criação de um modelo convincente para uso em golpes cibernéticos.

Para a Microsoft, o uso de IA para combater os golpes vem se mostrando primordial. Ela cita iniciativas como o Copilot for Security, que auxilia profissionais na detecção de brechas e sinais de ameaça, e salvaguardas aplicadas em sistemas de nuvem, como o Azure, como outras medidas que estão sendo tomadas para combater os ataques.

Leia a matéria no Canaltech.

Trending no Canaltech:

  • 🤑 BARATO | Aproveite Galaxy S23 de 512 GB em super oferta
  • Semana do Cinema 2024 traz ingressos a R$ 12 em todo o Brasil
  • Star Wars finalmente revela por que Luke perdeu a mão 44 anos depois
  • Os 45 filmes mais esperados de 2024
  • Madame Teia | Bilheteria da estreia mostra tamanho do prejuízo
  • Artigo científico com imagens esdrúxulas de IA é retirado do ar
Adicionar aos favoritos o Link permanente.