thomson reuters

BLOG | REVISTA DOS TRIBUNAIS

Generic selectors
Exact matches only
Search in title
Search in content
Post Type Selectors

Meta começa a testar primeiro chip interno de treinamento de IA

Logotipo da Meta em placa exposta, representando a identidade visual da empresa, que atua em diversas áreas da tecnologia e redes sociais.

Por Katie Paul e Krystal Hu

NOVA IORQUE (Reuters) – Proprietária do Facebook, a Meta está testando seu primeiro chip interno para treinamento de sistemas de inteligência artificial, um marco importante à medida que busca reduzir a dependência de fornecedores externos como a Nvidia, disseram duas fontes à Reuters.

A maior empresa de mídia social do mundo iniciou uma pequena implantação do chip e planeja aumentar a produção para uso em larga escala se o teste for bem-sucedido, disseram as fontes.

O esforço para desenvolver chips internamente faz parte de um plano de longo prazo da Meta para reduzir seus enormes custos de infraestrutura, à medida que a empresa faz apostas altas em ferramentas de IA.

A Meta, que também é dona do Instagram e do WhatsApp, prevê despesas totais de US$114 bilhões a US$119 bilhões em 2025, incluindo até US$65 bilhões em despesas de capital, impulsionadas principalmente por gastos em infraestrutura de IA.

Uma das fontes disse que o novo chip de treinamento da Meta é um acelerador dedicado, o que significa que ele foi projetado para lidar apenas com tarefas específicas de IA. Isso pode torná-lo mais eficiente em termos de energia do que as unidades de processamento gráfico integradas (GPUs), geralmente usadas para cargas de trabalho de IA.

A Meta está trabalhando com o fabricante de chips TSMC, sediado em Taiwan, para produzir o chip, disse essa fonte.

A implantação do teste começou depois que a Meta concluiu seu primeiro “tape-out” do chip — um marcador significativo de sucesso no trabalho de desenvolvimento de silício, que envolve o envio de um projeto inicial por uma fábrica de chips, disse a outra fonte.

Um tape-out típico custa dezenas de milhões de dólares e leva de três a seis meses para ser concluído, sem garantia de que o teste será bem-sucedido. Uma falha exigiria que a Meta diagnosticasse o problema e repetisse a etapa de tape-out.

A Meta e a TSMC não quiseram comentar.

O chip é o mais recente da série Meta Training and Inference Accelerator (MTIA) da empresa. O programa teve um começo instável e em um momento descartou um chip numa fase similar de desenvolvimento.

No ano passado, no entanto, a Meta começou a usar um chip MTIA para realizar inferência — o processo envolvido na execução de um sistema de IA enquanto os usuários interagem com ele — nos sistemas de recomendação que determinam qual conteúdo aparece nos feeds de notícias do Facebook e do Instagram.

Executivos da Meta disseram que querem começar a usar seus próprios chips até 2026 para treinamento, ou seja, para o processo intensivo de computação de alimentar o sistema de IA com grandes quantidades de dados para “ensiná-lo” a executar suas funções.

Assim como o chip de inferência, o objetivo do chip de treinamento é começar com sistemas de recomendação e depois passar para produtos de IA generativa, como o chatbot Meta AI, disseram os executivos.

“Estamos trabalhando em como faríamos o treinamento para sistemas de recomendação e, eventualmente, como pensaríamos sobre treinamento e inferência para IA generativa”, disse na semana passada o diretor de produtos da Meta, Chris Cox, na conferência de tecnologia, mídia e telecomunicações do Morgan Stanley.

Cox descreveu os esforços de desenvolvimento do chip da Meta como “uma espécie de situação de andar, engatinhar e correr” até agora, mas disse que os executivos consideraram o chip de inferência de primeira geração para recomendações um “grande sucesso”.

Anteriormente, a Meta desistiu de um chip de inferência personalizado interno após ele fracassar em uma implantação de teste em pequena escala, semelhante à que está fazendo agora para o chip de treinamento.

A empresa de mídia social continua sendo uma das maiores clientes da Nvidia desde então, acumulando um arsenal de GPUs para treinar seus modelos, incluindo recomendações e sistemas de anúncios e sua série de modelos Llama. As unidades também realizam inferência para mais de 3 bilhões de pessoas que usam seus aplicativos todos os dias.

O valor dessas GPUs foi questionado neste ano, à medida que pesquisadores de IA expressam cada vez mais dúvidas sobre quanto progresso pode ser feito ao se continuar a “ampliar” grandes modelos de linguagem adicionando cada vez mais dados e poder de computação.

Essas dúvidas foram reforçadas com o lançamento, no final de janeiro, de novos modelos de baixo custo da startup chinesa DeepSeek, que otimizam a eficiência computacional ao depender mais da inferência do que a maioria dos modelos tradicionais.

(Reportagem de Katie Paul em Nova York e Krystal Hu em São Francisco)

 

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Mais lidas

Post Relacionado

Reunião dos Ministros das Relações Exteriores do G7 em Kananaskis, Charlevoix, no ano de 2025, destacando líderes globais em ambiente natural.

G7 alerta Rússia sobre novas sanções se não houver acordo de cessar-fogo

LA MALBAIE, Canadá (Reuters) – As nações do G7 enfatizaram nesta sexta-feira a necessidade de “acordos de segurança” robustos para garantir um cessar-fogo entre a Ucrânia e a Rússia, alertando Moscou para seguir Kiev no acordo de cessar-fogo ou enfrentará novas sanções, de acordo com um rascunho final do comunicado.