Industria Textil e do Vestuário - Textile Industry - Ano XVI

Industria Textil e do Vestuário - Textile Industry - Ano XVI

AMD expande ambição em data centers e IA com novos Epyc, Instinct e Ryzen Pro

Durante AMD Advancing AI, em São Francisco, empresa anunciou nova geração de CPUs e GPUs processador para PCs de IA empresariais.

Lisa Su, CEO da AMD (Imagem: Rafael Romer/IT Forum)

A AMD está expandindo suas ambições no mercado de data centers e PCs de IA. Nesta quinta-feira (10), a empresa anunciou durante o AMD Advancing AI, em São Francisco, a nova geração de CPUs Epyc, novas GPUs Instinct, e processadores Ryzen AI Pro da Série 300 para dispositivos comerciais.

“Nosso objetivo na AMD e nos tornarmos líderes de soluções de IA de ponta a ponta. Para fazer isso, precisamos entregar os melhores motores de computação de alta performance, com eficiência energética, para treinamento e inferência de IA. Isso inclui CPUs, GPUs e NPUs”, disse Lisa Su, CEO da AMD, durante a abertura do evento. “E algo essencial é que, quando falamos de computação, não há um tamanho único que se encaixa para todos”.

As novas ofertas representam mais um passo na estratégia de crescimento desenhada pela CEO da AMD, que, neste mês de outubro, completa exatos dez anos à frente da organização. Antes conhecida apenas por sua rivalidade com a Intel no mercado de PCs, a fabricante está em uma jornada para ampliar de suas capacidades em computação avançada – com atenção especial ao setor de data centers.

“[Lisa Su] estabeleceu claramente o objetivo de que a AMD iria se comprometer com o alto desempenho em tudo o que faríamos”, disse Forrest Norrod, vice-presidente executivo e gerente geral do Datacenter Solutions Group da empresa. “Não há expressão mais pura de alto desempenho do que a liderança em data centers”.

O plano foi posto em prática a partir de 2017, com a primeira geração das CPUs Epyc. Naquela altura, a organização somava apenas 2% de participação do mercado de processadores para data center. Em sete anos, a virada do negócio da AMD se consolidou. No início de setembro, durante uma participação em uma conferência do Goldman Sachs, Lisa classificou a AMD pela primeira vez como uma organização “em que data centers vêm primeiro”.

Leia também: AMD quer estreitar laços no B2B para expandir presença em data centers no Brasil

Os números mais recentes da companhia refletem essa virada. No segundo trimestre fiscal deste ano, as receitas de data center da AMD atingiram o resultado recorde de US$ 2,834 bilhões, quase metade das receitas totais de US$ 5,8 bilhões da companhia. Ano a ano, o crescimento foi de 115%. No primeiro semestre, a participação de mercado da AMD em CPUs de data center chegou aos 34%, de acordo com a Mercury Report.

Com o anúncio da quinta geração dos processadores Epyc, a empresa espera continuar avançando no segmento, ainda dominado pela Intel. De codinome ‘Turin’, os novos processadores são baseados em núcleos ‘Zen 5’ e prometem ganhos expressivos de performance, eficiência e capacidade de processamento para estruturas de nuvem, computação enterprise e Inteligência Artificial (IA).

De acordo com a AMD, a nova arquitetura ‘Zen 5’ traz um acréscimo de até 17% em instruções por clock (IPC) para aplicações de nuvem e enterprise, e melhorias de até 37% para computação de alta performance (HPC), quando comparada à ‘Zen 4‘. Há também modelos na arquitetura ‘Zen 5c‘, focados em nuvem.

O hardware também é desenhado para aumentar o potencial de processamento de implementações de IA rodando em CPUs ou em uma combinação de CPUs + GPUs. Em modelos de IA generativa empresarial para pequenas e médias empresas, como o Llama 3.1-8B da Meta, o Epyc 9965 oferece um desempenho 1,9 vezes superior em comparação com o Intel Xeon 8592+ de quinta geração. A quinta geração da AMD embarca ainda 12 canais de memória DDR5 por CPU, com suporte para até DDR5-6400 MT/s, frequências de boost de até 5GHz, e Trusted I/O para computação confidencial.

Para Lisa Su, um dos maiores potenciais do novo hardware é permitir a consolidação de infraestruturas. De acordo com dados do IDC, 75% dos clientes enterprise realizam o ‘refresh’ de suas infraestruturas entre três a cinco anos. Há quatro anos, uma estrutura típica de 1.000 servidores Xeon Platinum 8280, da Intel, poderia, agora, ser convertida em 131 servidores Epyc 9965. “É um grande benefício para CIOs. Será possível transformar sete servidores legados por um único servidor Epyc, reduzindo consumo de energia em 68% e TCO em mais de 67% em até três anos”, disse a CEO.

No fronte de GPUs aceleradoras de IA, as sucessoras da família AMD Instinct também foram reveladas oficialmente na conferência. Baseadas na arquitetura CDNA3, as unidades da linha Instinct MI325X prometem mais desempenho e eficiência em tarefas de IA exigentes, incluindo o treinamento de modelos fundacionais de IA, ajuste fino e inferência.

As peças são a resposta da AMD à dominância do mercado da Nvidia no setor de processamento de IA. Quando a demanda por capacidade computacional de alta performance (HPC) para o treinamento de sistemas de IA explodiu no final de 2022, após o lançamento do ChatGPT, a AMD não tinha uma opção competitiva para o mercado. Enquanto a MI250X era poderosa para aplicações que exigiam alta precisão matemática, a H100, da Nvidia, saiu na frente para o treinamento de workloads de treinamento de IA e inferência.

Lançada em dezembro do ano passado, a série MI300 começou a rivalizar a H100 com melhor performance em algumas áreas, como banda de memória. A maior parte do mercado segue nas mãos da Nvidia, mas a AMD já começou a obter bons resultados no segmento. Em uma conferência após a divulgação dos resultados do segundo trimestre fiscal deste ano, Lisa Su, CEO, afirmou que espera que os chips Instinct devem superar US$ 4,5 bilhões em receita até o final do ano fiscal de 2024. A estimativa é um acréscimo substancial em relação aos US$ 4 bilhões que eram estimados pela empresa em abril.

As novas GPUs MI325X oferecem 256 GB de memória HBM3E, 153 bilhões de transistores e 6 TB/s de largura de banda. Segundo a AMD, os resultados representam 1,8 vezes mais capacidade e 1,3 vezes mais largura de banda que o H200, da Nvidia. O desempenho teórico máximo de computação FP16 e FP8, quando comparado ao da H200, também é 1,3 vezes maior.

Os dispositivos já estão em produção e devem começar a chegar ao mercado através de parceiros como Dell Technologies, Eviden, Gigabyte, Hewlett Packard Enterprise, Lenovo, Supermicro no primeiro trimestre de 2025. A AMD reforçou que manterá o plano de cadência anual de lançamentos da para a família Instinct. Com isso, as Instinct MI350, baseados na arquitetura CDNA 4, chegam na segunda metade do ano que vem.

A ambição da AMD no segmento de IA se estende ainda ao software. A aposta da fabricante neste segmento é no ROCm, stack de software aberto e modular, através do qual a companhia tem oferecido suporte nativo a frameworks de IA, bibliotecas e modelos populares como PyTorch, Triton e Hugging Face. Hoje, mais de um milhão de modelos rodam de forma nativa nos chips Instinct, o triplo do número disponível quando a MI300X foi lançada. A nova versão 6.2 do ROCm, agora também oferecerá performance 2,4 vezes superior em inferência e velocidade 1,8 vezes maior no treinamento de LLMs.

Em julho, a AMD anunciou planos de adquirir a empresa finlandesa Silo AI, desenvolvedora de software de IA, por US$ 650 milhões, para avançar em software de IA. A Silo AI se define como o “maior laboratório de IA privado da Europa” e é parte da estratégia da AMD de construir soluções “fim a fim”, baseadas em padrões abertos em conjunto com parceiros do ecossistema. Peter Sarlin, professor, CEO e cofundador da Silo AI, continua a liderar o time da companhia, que hoje integra a AMD Artificial Intelligence Group.

A operação também foi recebida como uma reação da companhia à rival Nvidia, que oferece uma pilha de software poderosa para o desenvolvimento de IA junto às suas GPUs.

Por fim, além das novas CPUs e GPUs para data centers, a AMD revelou novas DPUs para gestão de infraestruturas de alta performance dedicadas à IA. A nova DPU programável Pensando Salina 400, desenhada para o front-ends, e a Pollara 400, para back-end. A Salina de terceira geração promete duas vezes mais performance e largura de banda quando comparada à geração anterior. Já a Pollara 400, é a primeira placa aderente ao Ultra Ethernet Consortium (UEC). Ambas já estão em testes com clientes e serão lançadas na primeira metade de 2025.

Ryzen AI Pro

A AMD também anunciou sua nova aposta para o mercado de PCs de IA corporativos, com o Ryzen AI Pro da Série 300 para dispositivos comerciais. Segundo o Gartner, a estimativa é que as remessas globais de PCs com inteligência artificial irão representar 43% de todos os computadores em 2025.

Os novos Ryzen AI Pro são a terceira geração de processadores com capacidades dedicadas à inteligência artificial fabricados pela companhia. A promessa é de um performance três vezes superior à geração anterior. Os chips são baseados na arquitetura ‘Zen 5’ e integram o Copilot+ para dispositivos enterprise. O modelo topo de linha, Ryzen AI 9 HX Pro 375, de acordo com a AMD, oferece ganhos de até 40% em performance quando comparado ao Core Ultra 7 165U, da Intel.

Serão três modelos disponíveis: o AMD Ryzen AI 360 7 PRO, de entrada, com 8 núcleos, 16 threads, velocidade máxima de 5,0 GHz, 24 MB de cache e gráficos Radeon 880, também com 50 TOPS de processamento de IA; o Ryzen AI 375 9 HX PRO, intermediário, com 12 núcleos, 24 threads, velocidade máxima de 5,1 GHz, 36 MB de cache e gráficos Radeon 890M e além de 55 TOPS para processamento de IA; e o modelo superior Ryzen AI 370 9 HX PRO, com 12 núcleos e 24 threads, e 50 TOPS de processamento de IA.

Os primeiros modelos equipados com Ryzen AI Pro da Série 300 chegam ainda este ano. Entre os OEMs confirmados estão a HP, com o EliteBook X Next-Gen AI PC, e a Lenovo, com o recém-anunciado ThinkPad T14s Gen 6.

*O repórter está em São Francisco a convite da AMD.

https://itforum.com.br/noticias/amd-data-centers-epyc-instinct-ryze...

Para participar de nossa Rede Têxtil e do Vestuário - CLIQUE AQUI

Exibições: 14

Comentar

Você precisa ser um membro de Industria Textil e do Vestuário - Textile Industry - Ano XVI para adicionar comentários!

Entrar em Industria Textil e do Vestuário - Textile Industry - Ano XVI

© 2024   Criado por Textile Industry.   Ativado por

Badges  |  Relatar um incidente  |  Termos de serviço