AMD anuncia ROCm 7 com melhorias de performance e pacote completo para IA

Nesta quinta-feira (12),durante o Advancing AI 2025 em San Jose (EUA), a AMD anunciou uma nova leva de recursos e plataformas voltados a aplicações de Inteligência Artificial. A empresa apresentou o ROCm 7, nova versão de sua plataforma de software open source, além de soluções em nuvem, suporte oficial ao Windows, execução local em notebooks e ferramentas para empresas treinarem e rodarem modelos de IA com mais eficiência e liberdade.

  • O futuro da inteligência artificial é a ‘IA geral’, afirma gerente da Meta
  • Eles não respiram, mas vão trabalhar com você: humanos digitais e agentes de IA
  • Regulamentação de data centers para IA começa a ser discutida no Brasil

“Nossa estratégia é clara: acelerar a inovação com base em código aberto, escuta ativa dos desenvolvedores e parcerias com a comunidade global”, afirmou Ramine Roane, vice-presidente corporativo de IA da AMD

Foco em performance e escalabilidade


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Rodando em GPUs MI300X, o ROCm 7 registrou até 3,5 vezes mais performance em tarefas de inferência e até 9 vezes mais velocidade em treinamento, segundo dados compartilhados pela AMD.

Modelos populares como LLaMA, Qwen e DeepSeek R1 foram testados e demonstraram ganhos expressivos de desempenho com a nova versão da plataforma. A empresa também ampliou o suporte a diferentes formatos numéricos de ponto flutuante como FP8, FP4 e datatypes mistos e a técnicas de quantização, com foco em eficiência energética e redução de custo computacional.

Nuvem gratuita e execução local em notebooks

A AMD também lançou o DevCloud, sua nova plataforma em nuvem para desenvolvedores, que oferece 25 horas gratuitas para testes. Pelo navegador, os usuários podem acessar o Jupyter Notebook, uma ferramenta prática que permite escrever e executar códigos de Inteligência Artificial em ambientes prontos, usando o hardware da AMD sem precisar instalar nada no computador.

“Estamos facilitando como nunca o acesso ao nosso ecossistema”, disse Roane. “Você pode testar modelos direto no navegador, sem precisar configurar nada, ou então rodar o mesmo código no seu próprio notebook com GPU da AMD.”

O executivo também se referia à expansão da compatibilidade do ROCm: pela primeira vez, a plataforma terá suporte oficial para Windows, com instalação direta (via “inbox”) nas distribuições. Além disso, será possível executar localmente modelos com até 24 bilhões de parâmetros em workstations e notebooks com chips AMD.

Solução corporativa pronta para IA generativa

Pensando no mercado corporativo, a AMD apresentou o ROCm AI Enterprise, uma plataforma voltada a empresas que desejam treinar e utilizar modelos de linguagem diretamente em seus próprios servidores ou computadores. A solução inclui:

  • Instalação rápida de servidores em rede (clusters);
  • Ferramentas para gerenciar esses sistemas com mais eficiência (como Kubernetes e Slurm);
  • Possibilidade de personalizar modelos com os dados da própria empresa (processo conhecido como fine-tuning);
  • Integração com outras plataformas corporativas, como o Red Hat OpenShift AI.

“Empresas não querem esperar meses para rodar um modelo personalizado com seus próprios dados. Elas querem começar agora, com segurança e eficiência”, explicou Roane. “Essa solução é exatamente para isso.”

Inferência distribuída com LLMD

Um dos pontos técnicos mais comentados foi a nova estrutura de inferência distribuída, batizada de LLMD (Large Language Model Distributed). Inspirada em abordagens como o Dynamo da NVIDIA, a solução divide o trabalho entre GPUs especializadas em tarefas distintas, como prefill e decode, otimizando o fluxo de geração de tokens e aumentando drasticamente a velocidade de inferência.

De acordo com Roane, “essa arquitetura permite gerar mais tokens por segundo, com muito menos custo de comunicação entre as GPUs. E o melhor: tudo isso usando software open source.”

Ferramentas para desenvolvedores e comunidade global

Para facilitar o uso da plataforma, a AMD também lançou o ROCm AI Developer Hub, um portal gratuito e sem necessidade de login que reúne:

  • Tutoriais interativos;
  • Exemplos de código com Docker;
  • Vídeos explicativos;
  • Integração com frameworks populares como PyTorch, Triton, JAX, Hugging Face e SGLang.

A empresa também está investindo fortemente na comunidade com hackathons, concursos técnicos e meetups semanais. Durante a palestra, Roane compartilhou a história de um estudante do ensino médio que ficou entre os 20 melhores em uma competição de otimização de kernel usando o OpenAI Triton.

“Temos centenas de pessoas otimizando nossos kernels por meio da comunidade. Isso é algo que uma abordagem fechada nunca conseguiria replicar”, destacou o executivo.

Com todos esses anúncios, a AMD deixa claro que quer ocupar um papel mais central no ecossistema de IA, apostando em uma plataforma aberta, acessível e alinhada com as necessidades reais de desenvolvedores e empresas. A nova fase do ROCm representa um passo decisivo na disputa por performance, escalabilidade e liberdade no uso de modelos de linguagem generativa.

“O desenvolvimento em IA precisa ser aberto para todos. É assim que o progresso acontece de verdade”, concluiu Roane.

O AMD Advancing AI acontece em San Jose, Califórnia (EUA), nesta quinta-feira (12). O Canaltech viajou para o evento a convite da AMD.

Saiba mais: 

  • Pix Automático e Recorrente: veja as diferenças entre as formas de pagamento
  • Sob cortes de orçamento com Trump, NASA começa a reduzir quadro de funcionários
  • Desempenho de ponta sem gastar muito: AMD Ryzen 5 7600X com super desconto

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.