A AMD lançou o tão esperado APU (processador acelerado) de data center Instinct MI300, projetado para ajudar os data centers a processar o tráfego de dados relacionado à inteligência artificial e desafiar o monopólio da Nvidia neste mercado em rápido crescimento.
No entanto, após o fechamento do mercado em 13 de junho, horário local, o preço das ações da AMD caiu 3,61% (US$ 124,53 por ação). No mesmo dia, o preço das ações da Nvidia subiu 3,9% e seu valor de mercado no fechamento ultrapassou US$ 1 trilhão novamente.
Crédito da imagem: Gerado por ferramentas Unbounded AI
Quando a Nvidia experimentou a doçura dessa onda de boom de IA e seu valor de mercado ultrapassou um trilhão de dólares americanos, sua antiga rival AMD também está se preparando para atender à crescente demanda por computação de IA. Ainda assim, os investidores parecem indiferentes sobre seu último anúncio de produto.
Na madrugada de 14 de junho, horário de Pequim, a AMD trouxe mais detalhes e atualizações sobre o tão aguardado APU (processador acelerado) Instinct MI300 de data center, que visa ajudar os data centers a lidar com o tráfego de dados relacionado à inteligência artificial, e aqui um desafio ao monopólio da Nvidia em um mercado em rápido crescimento foi revelado pela primeira vez em junho passado.
A CEO da AMD, Lisa Su, disse em uma apresentação em São Francisco, EUA, que a série Instinct MI300 incluirá uma GPU (unidade de processamento gráfico) MI300X, que pode acelerar o processamento de tecnologias de IA generativas usadas por chatbots como o ChatGPT.
“Ainda estamos em um estágio muito inicial no ciclo de vida da inteligência artificial.” Su Zifeng disse que até 2027, o valor de mercado potencial total de aceleradores de inteligência artificial em data centers aumentará cinco vezes para mais de 150 bilhões de dólares americanos.
Ainda assim, a apresentação não pareceu deslumbrar os investidores. Eles já têm grandes expectativas para o crescimento da inteligência artificial, e o preço das ações da AMD subiu 91,8% este ano. Anteriormente, à medida que a coletiva de imprensa se aproximava, analistas de instituições americanas expressaram seu otimismo em relação à AMD. O analista da empresa de pesquisa Piper Sandler Harsh Kumar (Harsh Kumar) revisou a meta de preço das ações da AMD de US$ 110 para US$ 150. Mas depois que o mercado fechou em 13 de junho, horário local, o preço das ações da AMD caiu 3,61% (US$ 124,53 por ação). No mesmo dia, o preço das ações da Nvidia subiu 3,9% e seu valor de mercado no fechamento mais uma vez ultrapassou US$ 1 trilhão.
AI "super chip" e "versão AMD" CUDA
Executivos da Amazon Web Services (AWS) e Meta se juntaram a Su no palco para falar sobre o uso dos novos processadores AMD em seus data centers. A AMD também anunciou a disponibilidade geral da versão mais recente de seus processadores de servidor EPYC - uma nova variante chamada Bergamo.
Bergamo será a primeira CPU x86 nativa da nuvem (unidade de processamento central) do setor, que pode acomodar até 128 núcleos Zen4c (a arquitetura do chip Zen foi lançada pela AMD em 2017 e suporta todos os processadores AMD), e a capacidade do cache L3 atinge 256 MB; Em termos de tecnologia, é utilizada a tecnologia 5nm da TSMC. O Bergamo é otimizado para aplicativos de computação intensiva e é adequado para SoCs (system-on-a-chip) de classe de centro de dados emergentes com base na arquitetura Arm, como Ampere, Amazon, Google e Microsoft.
A AMD diz que seu novo chip MI300X e sua arquitetura CDNA são projetados para grandes modelos de linguagem e outros modelos de IA de ponta. "Gosto deste chip." Su Zifeng disse: "O núcleo é a GPU, e a GPU suporta IA generativa".
“Os modelos estão ficando cada vez maiores e, na verdade, você precisa de várias GPUs para executar os modelos de linguagem grandes mais recentes.” Su Zifeng apontou que, com o aumento da memória do chip AMD, os desenvolvedores não precisam de tantas GPUs. Su Zifeng demonstrou com o modelo Hugging Face AI, um grande modelo de linguagem que escreveu um poema sobre San Francisco no local. Um único MI300X pode executar um modelo com 80 bilhões de parâmetros, que é a primeira vez que um modelo tão grande pode ser executado em uma única GPU.
A AMD também disse que oferecerá a arquitetura Infinity, combinando oito aceleradores MI300X em um único sistema. A Nvidia e o Google desenvolveram sistemas semelhantes que combinam oito ou mais GPUs para aplicativos de IA.
Outro produto recém-anunciado é a arquitetura "GPU+CPU" (APU) MI300A, e amostras já estão disponíveis. O MI300X e a Instinct Platform fornecerão amostras no terceiro trimestre deste ano e serão lançados oficialmente no quarto trimestre.
Os parâmetros do processador acelerado AMD Instinct MI300 foram realmente expostos no início de 2023. O MI300 é o primeiro produto integrado "CPU+GPU+memória" do mercado, com 146 bilhões de transistores, mais que os 80 bilhões da Nvidia H100, e é também o maior chip produzido atualmente pela AMD.
De acordo com cálculos da Huatai Securities, o desempenho do MI300 está próximo do chip Grace Hopper da Nvidia. Embora a AMD não tenha anunciado a comparação do poder de computação entre MI300 e Grace Hopper, em comparação com a geração anterior do MI250X, espera-se que o poder de computação (TFLOPS) do MI300 em AI aumente 8 vezes e o desempenho do consumo de energia (TFLOPS/watt ) será otimizado 5 vezes. Se este processador for usado para o treinamento de modelos de inteligência artificial supergrandes, como ChatGPT e DALL-E, o tempo de treinamento pode ser reduzido dos meses anteriores para algumas semanas, economizando assim milhões de dólares em eletricidade.
Su disse aos investidores em uma teleconferência no mês passado que o MI300 começaria a gerar vendas no quarto trimestre.
Além disso, a AMD disse na coletiva de imprensa que também possui seu próprio software de chip AI (semelhante ao CUDA da Nvidia), chamado ROCm. Uma das razões pelas quais os desenvolvedores de IA sempre preferiram os chips Nvidia é o CUDA, que reduz bastante o limite para o uso de GPUs. Originalmente, era necessária uma linguagem de programação gráfica OpenGL muito profissional. Com CUDA, Java ou C++ comumente usado por programadores pode ser chamado de GPU. Como resultado, as GPUs são usadas para aprendizado profundo.
"AI God" Wu Enda comentou que antes do surgimento de CUDA, pode não haver mais de 100 pessoas no mundo que podem usar programação de GPU. Depois de CUDA, usar GPU tornou-se uma coisa muito fácil.
"Embora tenha sido uma longa jornada, fizemos um progresso muito bom na construção de uma pilha de software robusta que funciona com modelos de um ecossistema aberto de modelos, bibliotecas, estruturas e ferramentas." Presidente da AMD, Victor Peng )express.
**A "segunda escolha" para se beneficiar da onda de IA? **
A Nvidia domina o mercado de computação AI com uma participação de mercado de 80% a 95%, segundo analistas. No mês passado, a Nvidia divulgou um relatório financeiro extremamente atraente, e seu valor de mercado chegou a US$ 1 trilhão. A empresa disse anteriormente que esperava um salto acentuado na receita depois de garantir novos suprimentos de chips para atender à crescente demanda.
Por outro lado, logo quando o relatório financeiro do primeiro trimestre deste ano foi anunciado, Su Zifeng afirmou que a IA havia sido listada como a primeira prioridade estratégica. Enquanto os investidores apostam que a AMD será a "segunda escolha" para se beneficiar da onda de IA, o valor de mercado da AMD subiu para mais de US$ 200 bilhões este ano, muito acima dos US$ 137,9 bilhões da Intel. No entanto, ainda há uma certa lacuna em comparação com o valor de mercado de trilhões de dólares da Nvidia, o primeiro estoque de chips.
No futuro, o Instinct MI300 competirá de frente com os chips AI da série Nvidia Hopper. Su Zifeng disse uma vez francamente que o Instinct MI300 pode ajudar as empresas a ocupar o mercado e atende a todos os requisitos dos ecossistemas de IA e HPC/supercomputação.
O analista do Morgan Stanley Joseph Moore (Joseph Moore) uma vez deu uma orientação otimista, dizendo que a AMD viu "pedidos estáveis" de clientes, e a receita relacionada à IA da empresa em 2024 deve chegar a US $ 400 milhões, e a mais alta pode até chegar a US $ 400 milhões, US$ 1,2 bilhão — uma previsão 12 vezes maior do que o esperado anteriormente.
Em uma entrevista recente à mídia estrangeira, Su Zifeng também expressou descaradamente sua ambição de desafiar o monopólio da Nvidia.
A ideia competitiva da AMD é focar no APU (processador acelerado) com base em suas próprias vantagens de CPU e formar uma competição diferenciada com o principal produto da Nvidia, A100/H100. Além disso, Su Lifeng também está lutando contra a Nvidia por meio de aquisições e outros meios, como a aquisição da Xilinx (Xilinx) por US$ 48,8 bilhões em 2022, que fabrica processadores programáveis que ajudam a acelerar tarefas como compactação de vídeo. Como parte do acordo, o ex-CEO da Xilinx, Michael Bloomberg, tornou-se presidente da AMD e chefe de estratégia de IA.
A demanda por chips para inteligência artificial levou as ações da Nvidia a níveis quase recordes, com uma relação preço/lucro de cerca de 64 vezes, quase o dobro da AMD. "É por isso que os investidores estão olhando para a AMD. Porque eles querem um 'substituto da Nvidia'", disse Stacy Rasgon, analista da Bernstein.
"Super Scholar" e "Problem Boy"
Curiosamente, de acordo com relatos da mídia chinesa de Taiwan, Huang Renxun é parente distante de Su Zifeng (o avô de Su Zifeng e a mãe de Huang Renxun são irmãos). Ambos nasceram na província de Taiwan, na China. Su Zifeng entrou nos Estados Unidos com seu pai, que estudava na Universidade de Columbia quando ela tinha 3 anos. Huang Renxun deixou Taiwan para morar na Tailândia quando tinha 5 anos, e foi para o Estados Unidos quando ela tinha 9 anos.
A experiência de crescimento de Su Zifeng parece ser mais "estudante mestre". , aos 24 anos, obteve o doutorado em EE (Electrical Engineering, Electrical Engineering), que era conhecido como o curso mais difícil do MIT na época. Huang Renxun passou por um período de "adolescentes problemáticos" e, em seguida, ingressou na Oregon State University para estudos de graduação, estudando engenharia elétrica e, em seguida, ingressou na Stanford University para obter um mestrado em engenharia elétrica.
O primeiro trabalho de Huang Renxun foi como designer de chips na AMD, e ele fundou a Nvidia aos 30 anos. Su Zifeng passou por "empresas famosas", como Texas Instruments, IBM e AMD, e se tornou a primeira CEO mulher desde que a AMD foi fundada em 2014, quando a AMD enfrentava uma grande crise. Sob a liderança de Su Zifeng, a AMD experimentou uma enorme transformação de "viragem de peixe salgado", de um fabricante de semicondutores à beira da falência para um aumento de quase 30 vezes no preço das ações em menos de 10 anos. E Huang Renxun fez da Nvidia a primeira empresa de chips do mundo a ultrapassar a marca do trilhão de valor de mercado. Ambos tiveram uma queda por "quebrar as regras" durante suas carreiras. Os dois até ganharam um prêmio com o nome de Robert N. Noyce (o fundador da Intel) em um mês.
Ver original
O conteúdo é apenas para referência, não uma solicitação ou oferta. Nenhum aconselhamento fiscal, de investimento ou jurídico é fornecido. Consulte a isenção de responsabilidade para obter mais informações sobre riscos.
"AI Crown Competition" chinesa: AMD lança super chip MI300 para desafiar a Nvidia
Fonte: O Papel See More
Repórter Shao Wen
A AMD lançou o tão esperado APU (processador acelerado) de data center Instinct MI300, projetado para ajudar os data centers a processar o tráfego de dados relacionado à inteligência artificial e desafiar o monopólio da Nvidia neste mercado em rápido crescimento.
No entanto, após o fechamento do mercado em 13 de junho, horário local, o preço das ações da AMD caiu 3,61% (US$ 124,53 por ação). No mesmo dia, o preço das ações da Nvidia subiu 3,9% e seu valor de mercado no fechamento ultrapassou US$ 1 trilhão novamente.
Quando a Nvidia experimentou a doçura dessa onda de boom de IA e seu valor de mercado ultrapassou um trilhão de dólares americanos, sua antiga rival AMD também está se preparando para atender à crescente demanda por computação de IA. Ainda assim, os investidores parecem indiferentes sobre seu último anúncio de produto.
Na madrugada de 14 de junho, horário de Pequim, a AMD trouxe mais detalhes e atualizações sobre o tão aguardado APU (processador acelerado) Instinct MI300 de data center, que visa ajudar os data centers a lidar com o tráfego de dados relacionado à inteligência artificial, e aqui um desafio ao monopólio da Nvidia em um mercado em rápido crescimento foi revelado pela primeira vez em junho passado.
A CEO da AMD, Lisa Su, disse em uma apresentação em São Francisco, EUA, que a série Instinct MI300 incluirá uma GPU (unidade de processamento gráfico) MI300X, que pode acelerar o processamento de tecnologias de IA generativas usadas por chatbots como o ChatGPT.
“Ainda estamos em um estágio muito inicial no ciclo de vida da inteligência artificial.” Su Zifeng disse que até 2027, o valor de mercado potencial total de aceleradores de inteligência artificial em data centers aumentará cinco vezes para mais de 150 bilhões de dólares americanos.
Ainda assim, a apresentação não pareceu deslumbrar os investidores. Eles já têm grandes expectativas para o crescimento da inteligência artificial, e o preço das ações da AMD subiu 91,8% este ano. Anteriormente, à medida que a coletiva de imprensa se aproximava, analistas de instituições americanas expressaram seu otimismo em relação à AMD. O analista da empresa de pesquisa Piper Sandler Harsh Kumar (Harsh Kumar) revisou a meta de preço das ações da AMD de US$ 110 para US$ 150. Mas depois que o mercado fechou em 13 de junho, horário local, o preço das ações da AMD caiu 3,61% (US$ 124,53 por ação). No mesmo dia, o preço das ações da Nvidia subiu 3,9% e seu valor de mercado no fechamento mais uma vez ultrapassou US$ 1 trilhão.
AI "super chip" e "versão AMD" CUDA
Executivos da Amazon Web Services (AWS) e Meta se juntaram a Su no palco para falar sobre o uso dos novos processadores AMD em seus data centers. A AMD também anunciou a disponibilidade geral da versão mais recente de seus processadores de servidor EPYC - uma nova variante chamada Bergamo.
Bergamo será a primeira CPU x86 nativa da nuvem (unidade de processamento central) do setor, que pode acomodar até 128 núcleos Zen4c (a arquitetura do chip Zen foi lançada pela AMD em 2017 e suporta todos os processadores AMD), e a capacidade do cache L3 atinge 256 MB; Em termos de tecnologia, é utilizada a tecnologia 5nm da TSMC. O Bergamo é otimizado para aplicativos de computação intensiva e é adequado para SoCs (system-on-a-chip) de classe de centro de dados emergentes com base na arquitetura Arm, como Ampere, Amazon, Google e Microsoft.
A AMD diz que seu novo chip MI300X e sua arquitetura CDNA são projetados para grandes modelos de linguagem e outros modelos de IA de ponta. "Gosto deste chip." Su Zifeng disse: "O núcleo é a GPU, e a GPU suporta IA generativa".
“Os modelos estão ficando cada vez maiores e, na verdade, você precisa de várias GPUs para executar os modelos de linguagem grandes mais recentes.” Su Zifeng apontou que, com o aumento da memória do chip AMD, os desenvolvedores não precisam de tantas GPUs. Su Zifeng demonstrou com o modelo Hugging Face AI, um grande modelo de linguagem que escreveu um poema sobre San Francisco no local. Um único MI300X pode executar um modelo com 80 bilhões de parâmetros, que é a primeira vez que um modelo tão grande pode ser executado em uma única GPU.
A AMD também disse que oferecerá a arquitetura Infinity, combinando oito aceleradores MI300X em um único sistema. A Nvidia e o Google desenvolveram sistemas semelhantes que combinam oito ou mais GPUs para aplicativos de IA.
Outro produto recém-anunciado é a arquitetura "GPU+CPU" (APU) MI300A, e amostras já estão disponíveis. O MI300X e a Instinct Platform fornecerão amostras no terceiro trimestre deste ano e serão lançados oficialmente no quarto trimestre.
Os parâmetros do processador acelerado AMD Instinct MI300 foram realmente expostos no início de 2023. O MI300 é o primeiro produto integrado "CPU+GPU+memória" do mercado, com 146 bilhões de transistores, mais que os 80 bilhões da Nvidia H100, e é também o maior chip produzido atualmente pela AMD.
De acordo com cálculos da Huatai Securities, o desempenho do MI300 está próximo do chip Grace Hopper da Nvidia. Embora a AMD não tenha anunciado a comparação do poder de computação entre MI300 e Grace Hopper, em comparação com a geração anterior do MI250X, espera-se que o poder de computação (TFLOPS) do MI300 em AI aumente 8 vezes e o desempenho do consumo de energia (TFLOPS/watt ) será otimizado 5 vezes. Se este processador for usado para o treinamento de modelos de inteligência artificial supergrandes, como ChatGPT e DALL-E, o tempo de treinamento pode ser reduzido dos meses anteriores para algumas semanas, economizando assim milhões de dólares em eletricidade.
Su disse aos investidores em uma teleconferência no mês passado que o MI300 começaria a gerar vendas no quarto trimestre.
Além disso, a AMD disse na coletiva de imprensa que também possui seu próprio software de chip AI (semelhante ao CUDA da Nvidia), chamado ROCm. Uma das razões pelas quais os desenvolvedores de IA sempre preferiram os chips Nvidia é o CUDA, que reduz bastante o limite para o uso de GPUs. Originalmente, era necessária uma linguagem de programação gráfica OpenGL muito profissional. Com CUDA, Java ou C++ comumente usado por programadores pode ser chamado de GPU. Como resultado, as GPUs são usadas para aprendizado profundo.
"AI God" Wu Enda comentou que antes do surgimento de CUDA, pode não haver mais de 100 pessoas no mundo que podem usar programação de GPU. Depois de CUDA, usar GPU tornou-se uma coisa muito fácil.
"Embora tenha sido uma longa jornada, fizemos um progresso muito bom na construção de uma pilha de software robusta que funciona com modelos de um ecossistema aberto de modelos, bibliotecas, estruturas e ferramentas." Presidente da AMD, Victor Peng )express.
**A "segunda escolha" para se beneficiar da onda de IA? **
A Nvidia domina o mercado de computação AI com uma participação de mercado de 80% a 95%, segundo analistas. No mês passado, a Nvidia divulgou um relatório financeiro extremamente atraente, e seu valor de mercado chegou a US$ 1 trilhão. A empresa disse anteriormente que esperava um salto acentuado na receita depois de garantir novos suprimentos de chips para atender à crescente demanda.
Por outro lado, logo quando o relatório financeiro do primeiro trimestre deste ano foi anunciado, Su Zifeng afirmou que a IA havia sido listada como a primeira prioridade estratégica. Enquanto os investidores apostam que a AMD será a "segunda escolha" para se beneficiar da onda de IA, o valor de mercado da AMD subiu para mais de US$ 200 bilhões este ano, muito acima dos US$ 137,9 bilhões da Intel. No entanto, ainda há uma certa lacuna em comparação com o valor de mercado de trilhões de dólares da Nvidia, o primeiro estoque de chips.
No futuro, o Instinct MI300 competirá de frente com os chips AI da série Nvidia Hopper. Su Zifeng disse uma vez francamente que o Instinct MI300 pode ajudar as empresas a ocupar o mercado e atende a todos os requisitos dos ecossistemas de IA e HPC/supercomputação.
O analista do Morgan Stanley Joseph Moore (Joseph Moore) uma vez deu uma orientação otimista, dizendo que a AMD viu "pedidos estáveis" de clientes, e a receita relacionada à IA da empresa em 2024 deve chegar a US $ 400 milhões, e a mais alta pode até chegar a US $ 400 milhões, US$ 1,2 bilhão — uma previsão 12 vezes maior do que o esperado anteriormente.
Em uma entrevista recente à mídia estrangeira, Su Zifeng também expressou descaradamente sua ambição de desafiar o monopólio da Nvidia.
A ideia competitiva da AMD é focar no APU (processador acelerado) com base em suas próprias vantagens de CPU e formar uma competição diferenciada com o principal produto da Nvidia, A100/H100. Além disso, Su Lifeng também está lutando contra a Nvidia por meio de aquisições e outros meios, como a aquisição da Xilinx (Xilinx) por US$ 48,8 bilhões em 2022, que fabrica processadores programáveis que ajudam a acelerar tarefas como compactação de vídeo. Como parte do acordo, o ex-CEO da Xilinx, Michael Bloomberg, tornou-se presidente da AMD e chefe de estratégia de IA.
A demanda por chips para inteligência artificial levou as ações da Nvidia a níveis quase recordes, com uma relação preço/lucro de cerca de 64 vezes, quase o dobro da AMD. "É por isso que os investidores estão olhando para a AMD. Porque eles querem um 'substituto da Nvidia'", disse Stacy Rasgon, analista da Bernstein.
"Super Scholar" e "Problem Boy"
Curiosamente, de acordo com relatos da mídia chinesa de Taiwan, Huang Renxun é parente distante de Su Zifeng (o avô de Su Zifeng e a mãe de Huang Renxun são irmãos). Ambos nasceram na província de Taiwan, na China. Su Zifeng entrou nos Estados Unidos com seu pai, que estudava na Universidade de Columbia quando ela tinha 3 anos. Huang Renxun deixou Taiwan para morar na Tailândia quando tinha 5 anos, e foi para o Estados Unidos quando ela tinha 9 anos.
A experiência de crescimento de Su Zifeng parece ser mais "estudante mestre". , aos 24 anos, obteve o doutorado em EE (Electrical Engineering, Electrical Engineering), que era conhecido como o curso mais difícil do MIT na época. Huang Renxun passou por um período de "adolescentes problemáticos" e, em seguida, ingressou na Oregon State University para estudos de graduação, estudando engenharia elétrica e, em seguida, ingressou na Stanford University para obter um mestrado em engenharia elétrica.
O primeiro trabalho de Huang Renxun foi como designer de chips na AMD, e ele fundou a Nvidia aos 30 anos. Su Zifeng passou por "empresas famosas", como Texas Instruments, IBM e AMD, e se tornou a primeira CEO mulher desde que a AMD foi fundada em 2014, quando a AMD enfrentava uma grande crise. Sob a liderança de Su Zifeng, a AMD experimentou uma enorme transformação de "viragem de peixe salgado", de um fabricante de semicondutores à beira da falência para um aumento de quase 30 vezes no preço das ações em menos de 10 anos. E Huang Renxun fez da Nvidia a primeira empresa de chips do mundo a ultrapassar a marca do trilhão de valor de mercado. Ambos tiveram uma queda por "quebrar as regras" durante suas carreiras. Os dois até ganharam um prêmio com o nome de Robert N. Noyce (o fundador da Intel) em um mês.