Durante a abertura do Advancing AI 2025, evento da AMD que acontece em San Jose (EUA), a CEO Lisa Su apresentou uma visão ambiciosa sobre o futuro da empresa e da indústria de inteligência artificial. A executiva destacou o crescimento explosivo da demanda por inferência de IA e detalhou como a companhia está se posicionando para liderar essa nova fase com chips de alto desempenho, parcerias estratégicas e um ecossistema aberto.
- Entenda a nomenclatura das placas de vídeo AMD Radeon
- 3 melhores processadores da AMD para jogos em 2025
- OpenAI libera modelo GPT-4.1 no ChatGPT e inclui versão gratuita
“Estamos entrando no próximo capítulo da IA. A demanda por inferência está crescendo mais de 80% ao ano. E a AMD está pronta para liderar esse momento com performance, flexibilidade e abertura”, afirmou Lisa Su.
Helios e MI400: novos chips para uma nova era da IA
O grande destaque da apresentação foi o anúncio da nova arquitetura Helios, um super rack com até 72 GPUs da série Instinct MI400, que serão os chips centrais da AMD para treinamento e inferência de grandes modelos de linguagem (LLMs), visão computacional e agentes autônomos.
–
Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.
–
“Com a nova geração de GPUs, conseguimos entregar até 2,9 exaflops de performance em FP4 por rack. Isso representa um salto gigantesco na capacidade de processamento com muito mais eficiência energética e menor custo por token”, explicou Su.
A nova linha MI400 traz suporte à memória HBM3E, novo formato FP4 e integração com o padrão de interconexão aberto UA-Link, desenvolvido pela AMD como alternativa ao NVLink, da Nvidia.
Lisa também confirmou o desenvolvimento do chip MI450, que está sendo projetado em colaboração com a OpenAI.
Sam Altman destaca parceria com a AMD: “Flexibilidade importa”
O CEO da OpenAI, Sam Altman, também participou do evento para falar sobre a importância da parceria com a AMD no desenvolvimento de novas gerações de IA.
“Trabalhamos com a AMD há muitos anos, mas agora estamos realmente colaborando profundamente no design do MI450. A flexibilidade da AMD é o que mais importa para o que estamos construindo nos próximos anos”, disse Altman.
Segundo ele, a OpenAI está focada não apenas em criar modelos mais potentes, mas em entender como tornar a IA mais eficiente, segura e acessível para aplicações em larga escala.
Meta, Microsoft, Oracle e mais: o poder das alianças
Lisa Su também compartilhou como outras gigantes da tecnologia estão adotando soluções AMD em suas estratégias de IA.
- Meta: está usando as GPUs MI300X da AMD em produção para rodar o modelo LLaMA 3, e já planeja adotar a nova série MI350. A empresa também colabora com a AMD na evolução do PyTorch e na infraestrutura baseada em padrões abertos como OCP.
- Microsoft: está utilizando Instinct MI300X para treinamento e inferência de modelos multimodais, com total integração ao ROCm, a plataforma de software open source da AMD.
- Oracle: anunciou um cluster com mais de 27 mil GPUs AMD, e reforçou sua parceria com a empresa como parte de uma colaboração que já dura mais de 10 anos.
- Cohere: usa GPUs AMD para criar agentes com raciocínio sofisticado e entregas personalizadas para empresas, focando em redução de custo e eficiência.
- Humane (Arábia Saudita): trabalha com a AMD para construir uma infraestrutura nacional de IA, com meta de alcançar 6 GW de capacidade até 2034.
“O futuro da IA não será construído por uma única empresa. Será um esforço coletivo, com base em tecnologia aberta, colaboração e interoperabilidade”, disse Lisa Su.
Agentes autônomos e integração CPU + GPU
A CEO também destacou que a AMD está investindo fortemente em soluções para a era dos Agent AIs, agentes autônomos inteligentes que usam IA para tomar decisões complexas em tempo real.
Para isso, a empresa aposta na integração total de CPUs AMD EPYC, GPUs Instinct, conectividade via UA-Link e seu ecossistema de software, incluindo ROCm, SG-Lang, vLLM e ferramentas de inferência distribuída como LLMD.
O que vem por aí: Venice, Verano e MI500
Além do MI400 e MI450, a AMD antecipou as próximas gerações de chips:
- Venice: novo processador com 256 núcleos, otimizado para IA e cargas de trabalho paralelas.
- Vulcano: nova placa de rede com 800 Gbps de banda, pensada para data centers de larga escala.
- MI500: próxima geração da linha Instinct, prevista para os próximos anos, como parte do roadmap até 2026.
Essas soluções reforçam o compromisso da AMD com uma abordagem completa e integrada, do chip ao rack, do código ao modelo.
Ecossistema aberto como diferencial
A fala final de Lisa Su deixou clara a estratégia da AMD frente aos concorrentes que adotam sistemas fechados: “Acreditamos que o progresso real acontece quando há liberdade para inovar, colaborar e adaptar. Por isso, apostamos em código aberto, padrões abertos e uma comunidade global unida pelo avanço da IA.”
O Canaltech viajou para o Advancing AI 2025, em San Jose (EUA), a convite da AMD.
Saiba mais:
- ChatGPT ‘é mais poderoso do que qualquer ser humano que já existiu’, diz Altman
- Dia da IA: como a tecnologia pode avançar sem prejudicar o meio ambiente
- O que é AMD Smart Access Memory (Resizable BAR)?
Leia a matéria no Canaltech.