OpenAI está insatisfeita com chips da Nvidia, diz reportagem

Tecnologia
Resumo
  • A OpenAI está insatisfeita com o desempenho dos chips da Nvidia para inferência no ChatGPT, buscando alternativas com mais memória SRAM.
  • Rumores de tensão entre OpenAI e Nvidia surgiram, mas ambas as empresas negam desacordo; Sam Altman elogia os chips da Nvidia.
  • A OpenAI considera parcerias com startups como Cerebras e Groq para melhorar a velocidade de inferência, tendo fechado um acordo com a Cerebras.

A OpenAI não está contente com o desempenho dos modelos mais recentes de chips da Nvidia para inteligência artificial. O problema está especificamente no uso desse hardware para inferência — isto é, para executar as tarefas solicitadas pelos usuários.

A informação foi obtida pela agência de notícias Reuters junto a oito fontes com conhecimento do assunto, que falaram em condição de anonimato.

A reportagem reforçam os rumores de tensão entre as duas empresas. Na última sexta-feira (30/01), o Wall Street Journal publicou uma matéria sobre uma possível reavaliação nos investimentos de US$ 100 bilhões da Nvidia na OpenAI.

Oficialmente, as duas empresas negam qualquer desacordo. Em nota, a Nvidia afirmou que os consumidores escolhem seus chips porque eles entregam o melhor desempenho e o melhor custo-benefício.

Do lado da OpenAI, Sam Altman, CEO da empresa, usou sua conta no X para dizer que a Nvidia faz os melhores chips de IA do mundo e que espera que a OpenAI continue sendo uma compradora gigante por muito tempo.

Por que a OpenAI não está gostando dos chips da Nvidia?

Segundo a Reuters, sete das oito pessoas consultadas disseram que a OpenAI não está satisfeita com o tempo que os chips da Nvidia levam para dar respostas aos usuários do ChatGPT em questões específicas, como desenvolvimento de software e comunicação com outras inteligências artificiais.

Para resolver o problema, ela precisa de um novo hardware, que seria responsável por 10% das necessidades computacionais de inferência da OpenAI.

A questão seria limitada à inferência — processo em que os modelos de IA atendem às solicitações dos usuários. Na parte de treinamento, quando os modelos processam quantidades enormes de dados para identificar padrões e conexões neles, a Nvidia continua sendo dominante.

O que a OpenAI pretende fazer a respeito?

De acordo com a reportagem, a desenvolvedora do ChatGPT avalia trabalhar com startups do setor de chips, como Cerebras e Groq (sem relação com o chatbot de IA do X, o Grok), podendo inclusive adquirir uma companhia desse tipo.

A Reuters apurou que o interesse da companhia liderada por Sam Altman é encontrar chips com grandes quantidades de SRAM na mesma peça de silício que as próprias placas, visando oferecer velocidades maiores de inferência. As GPUs da Nvidia e da AMD usam memórias externas.

A OpenAI fechou um acordo com a Cerebras para adicionar 750 MW de potência computacional a seus data centers. Já as conversas com a Groq foram interrompidas depois de a própria Nvidia anunciar um acordo de licenciamento com a companhia.

Com informações da Reuters

OpenAI está insatisfeita com chips da Nvidia, diz reportagem