AMD apresenta Helios, chip MI400 e parceria com OpenAI para avançar em IA

Durante a abertura do Advancing AI 2025, evento da AMD que acontece em San Jose (EUA), a CEO Lisa Su apresentou uma visão ambiciosa sobre o futuro da empresa e da indústria de inteligência artificial. A executiva destacou o crescimento explosivo da demanda por inferência de IA e detalhou como a companhia está se posicionando para liderar essa nova fase com chips de alto desempenho, parcerias estratégicas e um ecossistema aberto.

  • Entenda a nomenclatura das placas de vídeo AMD Radeon
  • 3 melhores processadores da AMD para jogos em 2025
  • OpenAI libera modelo GPT-4.1 no ChatGPT e inclui versão gratuita

“Estamos entrando no próximo capítulo da IA. A demanda por inferência está crescendo mais de 80% ao ano. E a AMD está pronta para liderar esse momento com performance, flexibilidade e abertura”, afirmou Lisa Su.

Helios e MI400: novos chips para uma nova era da IA

O grande destaque da apresentação foi o anúncio da nova arquitetura Helios, um super rack com até 72 GPUs da série Instinct MI400, que serão os chips centrais da AMD para treinamento e inferência de grandes modelos de linguagem (LLMs), visão computacional e agentes autônomos.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

“Com a nova geração de GPUs, conseguimos entregar até 2,9 exaflops de performance em FP4 por rack. Isso representa um salto gigantesco na capacidade de processamento com muito mais eficiência energética e menor custo por token”, explicou Su.

A nova linha MI400 traz suporte à memória HBM3E, novo formato FP4 e integração com o padrão de interconexão aberto UA-Link, desenvolvido pela AMD como alternativa ao NVLink, da Nvidia.

Lisa também confirmou o desenvolvimento do chip MI450, que está sendo projetado em colaboração com a OpenAI.

Sam Altman destaca parceria com a AMD: “Flexibilidade importa”

O CEO da OpenAI, Sam Altman, também participou do evento para falar sobre a importância da parceria com a AMD no desenvolvimento de novas gerações de IA.

“Trabalhamos com a AMD há muitos anos, mas agora estamos realmente colaborando profundamente no design do MI450. A flexibilidade da AMD é o que mais importa para o que estamos construindo nos próximos anos”, disse Altman.

Segundo ele, a OpenAI está focada não apenas em criar modelos mais potentes, mas em entender como tornar a IA mais eficiente, segura e acessível para aplicações em larga escala.

Meta, Microsoft, Oracle e mais: o poder das alianças

Lisa Su também compartilhou como outras gigantes da tecnologia estão adotando soluções AMD em suas estratégias de IA.

  • Meta: está usando as GPUs MI300X da AMD em produção para rodar o modelo LLaMA 3, e já planeja adotar a nova série MI350. A empresa também colabora com a AMD na evolução do PyTorch e na infraestrutura baseada em padrões abertos como OCP.
  • Microsoft: está utilizando Instinct MI300X para treinamento e inferência de modelos multimodais, com total integração ao ROCm, a plataforma de software open source da AMD.
  • Oracle: anunciou um cluster com mais de 27 mil GPUs AMD, e reforçou sua parceria com a empresa como parte de uma colaboração que já dura mais de 10 anos.
  • Cohere: usa GPUs AMD para criar agentes com raciocínio sofisticado e entregas personalizadas para empresas, focando em redução de custo e eficiência.
  • Humane (Arábia Saudita): trabalha com a AMD para construir uma infraestrutura nacional de IA, com meta de alcançar 6 GW de capacidade até 2034.

“O futuro da IA não será construído por uma única empresa. Será um esforço coletivo, com base em tecnologia aberta, colaboração e interoperabilidade”, disse Lisa Su.

Agentes autônomos e integração CPU + GPU

A CEO também destacou que a AMD está investindo fortemente em soluções para a era dos Agent AIs, agentes autônomos inteligentes que usam IA para tomar decisões complexas em tempo real.

Para isso, a empresa aposta na integração total de CPUs AMD EPYC, GPUs Instinct, conectividade via UA-Link e seu ecossistema de software, incluindo ROCm, SG-Lang, vLLM e ferramentas de inferência distribuída como LLMD.

O que vem por aí: Venice, Verano e MI500

Além do MI400 e MI450, a AMD antecipou as próximas gerações de chips:

  • Venice: novo processador com 256 núcleos, otimizado para IA e cargas de trabalho paralelas.
  • Vulcano: nova placa de rede com 800 Gbps de banda, pensada para data centers de larga escala.
  • MI500: próxima geração da linha Instinct, prevista para os próximos anos, como parte do roadmap até 2026.

Essas soluções reforçam o compromisso da AMD com uma abordagem completa e integrada, do chip ao rack, do código ao modelo.

Ecossistema aberto como diferencial

A fala final de Lisa Su deixou clara a estratégia da AMD frente aos concorrentes que adotam sistemas fechados: “Acreditamos que o progresso real acontece quando há liberdade para inovar, colaborar e adaptar. Por isso, apostamos em código aberto, padrões abertos e uma comunidade global unida pelo avanço da IA.”

O Canaltech viajou para o Advancing AI 2025, em San Jose (EUA), a convite da AMD.

Saiba mais: 

  • ChatGPT ‘é mais poderoso do que qualquer ser humano que já existiu’, diz Altman
  • Dia da IA: como a tecnologia pode avançar sem prejudicar o meio ambiente
  • O que é AMD Smart Access Memory (Resizable BAR)?

Leia a matéria no Canaltech.

Adicionar aos favoritos o Link permanente.