REVISTA DOS TRIBUNAIS

  • Home
  • Notícias
  • Meta começa a testar primeiro chip interno de treinamento de IA

Meta começa a testar primeiro chip interno de treinamento de IA

Meta começa a testar primeiro chip interno de treinamento de IA

Logotipo da Meta em placa exposta, representando a identidade visual da empresa, que atua em diversas áreas da tecnologia e redes sociais.

Por Katie Paul e Krystal Hu

NOVA IORQUE (Reuters) – Proprietária do Facebook, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial, um marco importante à medida que busca reduzir a dependência de fornecedores externos como a Nvidia, disseram duas fontes à Reuters.

A maior empresa de mídia social do mundo iniciou uma pequena implantação do chip e planeja aumentar a produção para uso em larga escala se o teste for bem-sucedido, disseram as fontes.

O esforço para desenvolver chips internamente faz parte de um plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, à medida que a empresa faz apostas altas em ferramentas de IA.

A Meta, que também é dona do Instagram e do WhatsApp, prevê despesas totais de US$114 bilhões a US$119 bilhões em 2025, incluindo até US$65 bilhões em despesas de capital, impulsionadas principalmente por gastos em infraestrutura de IA.

Uma das fontes disse que o novo chip de treinamento da Meta é um acelerador dedicado, o que significa que ele foi projetado para lidar apenas com tarefas específicas de IA. Isso pode torná-lo mais eficiente em termos de energia do que as unidades de processamento gráfico integradas (GPUs), geralmente usadas para cargas de trabalho de IA.

A Meta está trabalhando com o fabricante de chips TSMC, sediado em Taiwan, para produzir o chip, disse essa fonte.

A implantação do teste começou depois que a Meta concluiu seu primeiro “tape-out” do chip — um marcador significativo de sucesso no trabalho de desenvolvimento de silício, que envolve o envio de um projeto inicial por uma fábrica de chips, disse a outra fonte.

Um tape-out típico custa dezenas de milhões de dólares e leva de três a seis meses para ser concluído, sem garantia de que o teste será bem-sucedido. Uma falha exigiria que a Meta diagnosticasse o problema e repetisse a etapa de tape-out.

A Meta e a TSMC não quiseram comentar.

O chip é o mais recente da série Meta Training and Inference Accelerator (MTIA) da empresa. O programa teve um começo instável e em um momento descartou um chip numa fase similar de desenvolvimento.

No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência — o processo envolvido na execução de um sistema de IA enquanto os usuários interagem com ele — nos sistemas de recomendação que determinam qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.

Executivos da Meta disseram que querem começar a usar seus próprios chips até 2026 para treinamento, ou seja, para o processo intensivo de computação de alimentar o sistema de IA com grandes quantidades de dados para “ensiná-lo” a executar suas funções.

Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação e depois passar para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos.

“Estamos trabalhando em como faríamos o treinamento para sistemas de recomendação e, eventualmente, como pensaríamos sobre treinamento e inferência para IA generativa”, disse na semana passada o diretor de produtos da Meta, Chris Cox, na conferência de tecnologia, mídia e telecomunicações do Morgan Stanley.

Cox descreveu os esforços de desenvolvimento do chip da Meta como “uma espécie de situação de andar, engatinhar e correr” até agora, mas disse que os executivos consideraram o chip de inferência de primeira geração para recomendações um “grande sucesso”.

Anteriormente, a Meta desistiu de um chip de inferência personalizado interno após ele fracassar em uma implantação de teste em pequena escala, semelhante à que está fazendo agora para o chip de treinamento.

A empresa de mídia social continua sendo uma das maiores clientes da Nvidia desde então, acumulando um arsenal de GPUs para treinar seus modelos, incluindo recomendações e sistemas de anúncios e sua série de modelos Llama. As unidades também realizam inferência para mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.

O valor dessas GPUs foi questionado neste ano, à medida que pesquisadores de IA expressam cada vez mais dúvidas sobre quanto progresso pode ser feito ao se continuar a “ampliar” grandes modelos de linguagem adicionando cada vez mais dados e poder de computação.

Essas dúvidas foram reforçadas com o lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek, que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos tradicionais.

(Reportagem de Katie Paul em Nova York e Krystal Hu em São Francisco)

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Tags: 

Mais lidas

Post Relacionado

Mulher sorridente usando fones de ouvido sem fio e consultando smartphone, destacando tendência de tecnologia e estilo moderno. Ela está em um ambiente moderno, perfeito para ilustrar a conexão com a inovação e lançamentos

Lançamentos de Março da Editora Revista dos Tribunais

Que tal aproveitar o mês do consumidor para atualizar sua biblioteca jurídica? Em março de 2025, a Editora Revista dos Tribunais apresenta uma ampla seleção de livros imperdíveis no universo do Direito. Entre os destaques, estão clássicos consagrados como “Manual do Processo Civil” (7ª ed.) e “Código de Processo Civil

Imagem representativa da inteligência artificial com letras em uma placa-mãe. A palavra 'Artificial Intelligence' está destacada com fundo eletrônico e iluminação vibrante.

Espanha vai impor multas pesadas a quem não rotular conteúdo gerado por IA

MADRI (Reuters) – O governo espanhol aprovou nesta terça-feira um projeto de lei que impõe multas pesadas a empresas que usam conteúdo gerado por inteligência artificial (IA) sem rotulá-lo adequadamente como tal, em uma tentativa de coibir o uso das chamadas “deepfakes”. O projeto adota diretrizes da histórica Lei de