
Resumo
- A OpenAI está insatisfeita com o desempenho dos chips da Nvidia para inferência no ChatGPT, buscando alternativas com mais memória SRAM.
- Rumores de tensão entre OpenAI e Nvidia surgiram, mas ambas as empresas negam desacordo; Sam Altman elogia os chips da Nvidia.
- A OpenAI considera parcerias com startups como Cerebras e Groq para melhorar a velocidade de inferência, tendo fechado um acordo com a Cerebras.
A OpenAI não está contente com o desempenho dos modelos mais recentes de chips da Nvidia para inteligência artificial. O problema está especificamente no uso desse hardware para inferência — isto é, para executar as tarefas solicitadas pelos usuários.
A informação foi obtida pela agência de notícias Reuters junto a oito fontes com conhecimento do assunto, que falaram em condição de anonimato.
A reportagem reforçam os rumores de tensão entre as duas empresas. Na última sexta-feira (30/01), o Wall Street Journal publicou uma matéria sobre uma possível reavaliação nos investimentos de US$ 100 bilhões da Nvidia na OpenAI.
Oficialmente, as duas empresas negam qualquer desacordo. Em nota, a Nvidia afirmou que os consumidores escolhem seus chips porque eles entregam o melhor desempenho e o melhor custo-benefício.
Do lado da OpenAI, Sam Altman, CEO da empresa, usou sua conta no X para dizer que a Nvidia faz os melhores chips de IA do mundo e que espera que a OpenAI continue sendo uma compradora gigante por muito tempo.
Por que a OpenAI não está gostando dos chips da Nvidia?

Segundo a Reuters, sete das oito pessoas consultadas disseram que a OpenAI não está satisfeita com o tempo que os chips da Nvidia levam para dar respostas aos usuários do ChatGPT em questões específicas, como desenvolvimento de software e comunicação com outras inteligências artificiais.
Para resolver o problema, ela precisa de um novo hardware, que seria responsável por 10% das necessidades computacionais de inferência da OpenAI.
A questão seria limitada à inferência — processo em que os modelos de IA atendem às solicitações dos usuários. Na parte de treinamento, quando os modelos processam quantidades enormes de dados para identificar padrões e conexões neles, a Nvidia continua sendo dominante.
O que a OpenAI pretende fazer a respeito?
De acordo com a reportagem, a desenvolvedora do ChatGPT avalia trabalhar com startups do setor de chips, como Cerebras e Groq (sem relação com o chatbot de IA do X, o Grok), podendo inclusive adquirir uma companhia desse tipo.
A Reuters apurou que o interesse da companhia liderada por Sam Altman é encontrar chips com grandes quantidades de SRAM na mesma peça de silício que as próprias placas, visando oferecer velocidades maiores de inferência. As GPUs da Nvidia e da AMD usam memórias externas.
A OpenAI fechou um acordo com a Cerebras para adicionar 750 MW de potência computacional a seus data centers. Já as conversas com a Groq foram interrompidas depois de a própria Nvidia anunciar um acordo de licenciamento com a companhia.
Com informações da Reuters
OpenAI está insatisfeita com chips da Nvidia, diz reportagem

