Nesta quinta-feira (12),durante o Advancing AI 2025 em San Jose (EUA), a AMD anunciou uma nova leva de recursos e plataformas voltados a aplicações de Inteligência Artificial. A empresa apresentou o ROCm 7, nova versão de sua plataforma de software open source, além de soluções em nuvem, suporte oficial ao Windows, execução local em notebooks e ferramentas para empresas treinarem e rodarem modelos de IA com mais eficiência e liberdade.
- O futuro da inteligência artificial é a ‘IA geral’, afirma gerente da Meta
- Eles não respiram, mas vão trabalhar com você: humanos digitais e agentes de IA
- Regulamentação de data centers para IA começa a ser discutida no Brasil
“Nossa estratégia é clara: acelerar a inovação com base em código aberto, escuta ativa dos desenvolvedores e parcerias com a comunidade global”, afirmou Ramine Roane, vice-presidente corporativo de IA da AMD.
Foco em performance e escalabilidade
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
Rodando em GPUs MI300X, o ROCm 7 registrou até 3,5 vezes mais performance em tarefas de inferência e até 9 vezes mais velocidade em treinamento, segundo dados compartilhados pela AMD.
Modelos populares como LLaMA, Qwen e DeepSeek R1 foram testados e demonstraram ganhos expressivos de desempenho com a nova versão da plataforma. A empresa também ampliou o suporte a diferentes formatos numéricos de ponto flutuante como FP8, FP4 e datatypes mistos e a técnicas de quantização, com foco em eficiência energética e redução de custo computacional.
Nuvem gratuita e execução local em notebooks
A AMD também lançou o DevCloud, sua nova plataforma em nuvem para desenvolvedores, que oferece 25 horas gratuitas para testes. Pelo navegador, os usuários podem acessar o Jupyter Notebook, uma ferramenta prática que permite escrever e executar códigos de Inteligência Artificial em ambientes prontos, usando o hardware da AMD sem precisar instalar nada no computador.
“Estamos facilitando como nunca o acesso ao nosso ecossistema”, disse Roane. “Você pode testar modelos direto no navegador, sem precisar configurar nada, ou então rodar o mesmo código no seu próprio notebook com GPU da AMD.”
O executivo também se referia à expansão da compatibilidade do ROCm: pela primeira vez, a plataforma terá suporte oficial para Windows, com instalação direta (via “inbox”) nas distribuições. Além disso, será possível executar localmente modelos com até 24 bilhões de parâmetros em workstations e notebooks com chips AMD.
Solução corporativa pronta para IA generativa
Pensando no mercado corporativo, a AMD apresentou o ROCm AI Enterprise, uma plataforma voltada a empresas que desejam treinar e utilizar modelos de linguagem diretamente em seus próprios servidores ou computadores. A solução inclui:
- Instalação rápida de servidores em rede (clusters);
- Ferramentas para gerenciar esses sistemas com mais eficiência (como Kubernetes e Slurm);
- Possibilidade de personalizar modelos com os dados da própria empresa (processo conhecido como fine-tuning);
- Integração com outras plataformas corporativas, como o Red Hat OpenShift AI.
“Empresas não querem esperar meses para rodar um modelo personalizado com seus próprios dados. Elas querem começar agora, com segurança e eficiência”, explicou Roane. “Essa solução é exatamente para isso.”
Inferência distribuída com LLMD
Um dos pontos técnicos mais comentados foi a nova estrutura de inferência distribuída, batizada de LLMD (Large Language Model Distributed). Inspirada em abordagens como o Dynamo da NVIDIA, a solução divide o trabalho entre GPUs especializadas em tarefas distintas, como prefill e decode, otimizando o fluxo de geração de tokens e aumentando drasticamente a velocidade de inferência.
De acordo com Roane, “essa arquitetura permite gerar mais tokens por segundo, com muito menos custo de comunicação entre as GPUs. E o melhor: tudo isso usando software open source.”
Ferramentas para desenvolvedores e comunidade global
Para facilitar o uso da plataforma, a AMD também lançou o ROCm AI Developer Hub, um portal gratuito e sem necessidade de login que reúne:
- Tutoriais interativos;
- Exemplos de código com Docker;
- Vídeos explicativos;
- Integração com frameworks populares como PyTorch, Triton, JAX, Hugging Face e SGLang.
A empresa também está investindo fortemente na comunidade com hackathons, concursos técnicos e meetups semanais. Durante a palestra, Roane compartilhou a história de um estudante do ensino médio que ficou entre os 20 melhores em uma competição de otimização de kernel usando o OpenAI Triton.
“Temos centenas de pessoas otimizando nossos kernels por meio da comunidade. Isso é algo que uma abordagem fechada nunca conseguiria replicar”, destacou o executivo.
Com todos esses anúncios, a AMD deixa claro que quer ocupar um papel mais central no ecossistema de IA, apostando em uma plataforma aberta, acessível e alinhada com as necessidades reais de desenvolvedores e empresas. A nova fase do ROCm representa um passo decisivo na disputa por performance, escalabilidade e liberdade no uso de modelos de linguagem generativa.
“O desenvolvimento em IA precisa ser aberto para todos. É assim que o progresso acontece de verdade”, concluiu Roane.
O AMD Advancing AI acontece em San Jose, Califórnia (EUA), nesta quinta-feira (12). O Canaltech viajou para o evento a convite da AMD.
Saiba mais:
- Pix Automático e Recorrente: veja as diferenças entre as formas de pagamento
- Sob cortes de orçamento com Trump, NASA começa a reduzir quadro de funcionários
- Desempenho de ponta sem gastar muito: AMD Ryzen 5 7600X com super desconto
Leia a matéria no Canaltech.