
Resumo
- A Qualcomm lançou os chips AI200 e AI250 para inferência em data centers, visando competir com a Nvidia.
- Os chips utilizam a tecnologia Hexagon NPU e podem operar até 72 unidades em um rack, simulando um supercomputador.
- O AI200 será lançado em 2026 com 768 GB de memória LPDDR, enquanto o AI250 chegará em 2027 com arquitetura de memória aprimorada e refrigeração líquida.
A Qualcomm revelou nesta segunda-feira (27/10) dois novos chips voltados para inteligência artificial, em uma tentativa de conquistar espaço em um setor amplamente controlado pela Nvidia. Os modelos AI200 e AI250 são projetados para execução de modelos já treinados — um tipo de processamento conhecido como inferência — e não para o treinamento de redes neurais.
O lançamento representa uma guinada estratégica para a companhia, historicamente associada à fabricação de processadores móveis e componentes de telecomunicações. Agora, a Qualcomm quer consolidar sua presença também nos data centers e no mercado de infraestrutura de IA, ampliando a concorrência com gigantes como Nvidia e AMD.
O que os novos chips da Qualcomm oferecem?
Segundo a CNBC, os novos processadores são baseados na tecnologia Hexagon NPU, utilizada em dispositivos móveis e notebooks da marca, e agora adaptada para aplicações em larga escala. Além disso, até 72 chips podem operar em conjunto dentro de um mesmo rack, simulando o funcionamento de um supercomputador — estrutura semelhante à empregada pelas GPUs da Nvidia.
O AI200, previsto para chegar ao mercado em 2026, contará com 768 GB de memória LPDDR por placa e desempenho otimizado para inferência de modelos generativos e multimodais. Já o AI250, que deve estrear em 2027, trará uma nova arquitetura de memória com eficiência aprimorada e menor consumo de energia. Ele será capaz de entregar até dez vezes mais largura de banda efetiva de memória, além de oferecer refrigeração líquida direta, suporte a PCIe e Ethernet para escalabilidade, e potência total de até 160 kW por rack.

Qualcomm pode realmente competir com a Nvidia?
Com a Nvidia dominando o mercado de chips para IA — especialmente em soluções de treinamento —, a aposta da Qualcomm recai sobre o segmento de inferência, etapa cada vez mais relevante à medida que modelos generativos passam a ser amplamente utilizados em empresas e serviços.
“Com o AI200 e o AI250, estamos redefinindo o que é possível para a inferência de IA em escala de rack”, afirmou Durga Malladi, vice-presidente sênior e gerente geral de Soluções de Borda e Data Center da Qualcomm Technologies. “Essas novas e inovadoras soluções de infraestrutura de IA permitem que os clientes implantem IA generativa com um custo total de propriedade sem precedentes, mantendo a flexibilidade e a segurança exigidas pelos data centers modernos.”
Os novos processadores fazem parte do plano da Qualcomm de lançar gerações anuais de soluções de IA para data centers, reforçando sua estratégia de oferecer alternativas mais eficientes e econômicas às opções dominadas pela Nvidia. O foco da empresa está em garantir alto desempenho de inferência com baixo consumo de energia e excelente custo-benefício.

