Últimas Notícias

A nova arma do Google para competir com a Nvidia: reforço no ecossistema de IA

O Google está explorando novas formas de expandir o mercado de seus chips de inteligência artificial, buscando usar seu poder monetário para construir um ecossistema de IA mais amplo que possa competir melhor com a líder de mercado Nvidia.

Os chips da firma estão ganhando maior adoção para cargas de trabalho de IA, incluindo startups como a Anthropic, mas o Google enfrenta diversos desafios ao tentar crescer. Entre os problemas estão gargalos em parceiros de fabricação e interesse limitado de rivais de computação em nuvem, que estão entre os maiores compradores de processadores da Nvidia, segundo pessoas familiarizadas com o assunto.

Para ampliar seu mercado potencial, o Google está aumentando o suporte monetário a uma rede de parceiros de data centers que podem fornecer poder computacional a um público mais amplo, disseram fontes próximas aos planos da firma.

A companhia está em negociações para investir cerca de US$ 100 milhões na startup de computação em nuvem Fluidstack, parte de um acordo que a avalia em cerca de US$ 7,5 bilhões, segundo pessoas familiarizadas com as discussões.

A Fluidstack é uma das chamadas firmas “neocloud” que oferecem serviços de computação para companhias de IA e outras. A CoreWeave, uma das maiores operadoras desse tipo, fornece acesso a unidades de processamento gráfico (GPUs), principalmente da Nvidia.

O Google quer ajudar a ampliar o potencial de crescimento da Fluidstack e incentivar mais provedores de computação a usar seus chips de IA, chamados de TPUs (Tensor Processing Units).

A firma também discutiu expandir compromissos monetários com outros parceiros de data centers, o que poderia gerar demanda adicional por TPUs. O Google já financiou projetos envolvendo Hut 8, Cipher Mining e TeraWulf, antigas firmas de mineração de criptomoedas que agora desenvolvem data centers.

Alguns gerentes da divisão de nuvem do Google recentemente reabriram o debate interno sobre reestruturar a equipe de TPUs em uma unidade independente, o que poderia permitir expandir oportunidades de investimento, inclusive com capital externo. Um desafio para essa unidade seria que o negócio de nuvem do Google depende fortemente de chips da Nvidia.

Um porta-voz do Google afirmou que não há planos de reestruturar a unidade de TPUs. Manter a equipe de chips integrada às demais áreas da firma traz vantagens, como permitir que os desenvolvedores do modelo de IA Gemini façam alterações mais facilmente no design dos chips.

O Google começou a vender acesso a TPUs via serviços em nuvem em 2018 e, embora tradicionalmente os usuários sejam captados pela unidade de nuvem, a firma também vende os chips diretamente a clientes externos. Essas medidas visam expandir o mercado potencial dos chips, que clientes de IA elogiam pela eficácia em treinamento e em tarefas de inferência, como respostas de chatbots.

Em abril do ano passado, o Google lançou sua sétima geração de TPUs, chamada Ironwood, projetada para inferência em IA (ou seja, para usar modelos de inteligência artificial já treinados e gerar respostas ou previsões, em vez de treinar o modelo do zero).

Comparadas às GPUs (unidades de processamento gráfico, originalmente feitas para rodar gráficos e jogos), que foram originalmente voltadas para jogos, as TPUs às vezes se mostram mais adequadas para grandes volumes de cálculos de IA que não exigem alta precisão (ou seja, operações matemáticas rápidas e em grande quantidade, onde não é necessário ter resultados extremamente exatos, mas sim eficientes para processar grandes dados).

O Google tem parceria com a Broadcom para design e produção das TPUs e utiliza a Taiwan Semiconductor Manufacturing (TSMC) como fabricante contratada. Entretanto, a expansão dos envios de TPUs pode enfrentar obstáculos, já que a TSMC pode priorizar a Nvidia e há escassez global de chips de memória, componente essencial para os chips de IA.

Nos últimos meses, mais firmas de IA demonstraram interesse nas TPUs do Google para acessar poder computacional mais barato e reduzir a dependência da Nvidia. Meta Platforms, por exemplo, estava em negociações para usar os chips, mas recentemente aumentou compras de hardware da Nvidia. A Anthropic também ampliou o uso de tecnologias de nuvem do Google, incluindo até um milhão de TPUs.

Apesar disso, o interesse de grandes provedores de nuvem parece moderado, em parte porque consideram o Google um concorrente. A Amazon Web Services também desenvolveu seus próprios chips para IA.

O que achou dessa notícia? Deixe um comentário abaixo e/ou compartilhe em suas redes sociais. Assim deixaremos mais pessoas por dentro do mundo das finanças, economia e investimentos!

Esta notícia foi originalmente publicada em:
Fonte original

Autor: The Wall Street Journal

Dinheiro Portal

Somos um portal de notícias e conteúdos sobre Finanças Pessoais e Empresariais. Nosso foco é desmistificar as finanças e elevar o grau de conhecimento do tema em todas as pessoas.

Artigos relacionados

Botão Voltar ao topo