Por que o Gemini tem vários modelos? Especialista em IA do Google explica

Tecnologia

O modelo de linguagem do Gemini pode ser encontrado com diferentes nomes, como Nano, Flash e Pro, na hora de pedir um prompt para a IA. Essa divisão tem um motivo: ajudar a entender qual é a melhor variação para o pedido de cada pessoa.

Quem explica isso é o líder da equipe de Developer Advocacy do Google DeepMind nas Américas, Luciano Martins. O DeepMind é a divisão de IA da Big Tech por trás do desenvolvimento de diversas ferramentas da companhia, como o Veo 3 e o próprio Gemini. 

Luciano Martins esteve no evento AI Conference, realizado nesta quarta-feira em São Paulo (13) com cobertura do Canaltech, e detalhou o processo.


Entre no Canal do WhatsApp do Canaltech e fique por dentro das últimas notícias sobre tecnologia, lançamentos, dicas e tutoriais incríveis.

Uma versão para cada demanda

A segmentação do Gemini 2.5 tem o objetivo de atender aos diferentes níveis de complexidade de cada prompt. A versão Pro, mais poderosa, consegue compreender tarefas mais detalhadas e exigentes, enquanto o modelo Flash garante menor tempo de resposta.

A diferença ajuda a garantir a melhor experiência em cenários específicos, aponta o especialista do Google. 

“Se você trabalha com pesquisa acadêmica, faz análise e resolução de problema de códigos maiores, você tem o 2.5 Pro, que é maior e mais robusto. Qual é o contraponto? Um tempo de resposta um pouco maior, porque ele passa mais tempo processando o seu pedido”, explica.

Esse “poder de fogo” não precisa ser usado em prompts mais simples, como fazer uma busca rápida — então a versão 2.5 Flash entra em cena. “Para cenários específicos, ele [2.5 Pro] dá respostas melhores, mas não é necessariamente o melhor modelo para mandar um ‘oi’ ou perguntar sobre um time de futebol”, completa Martins.

Luciano Martins discursa durante o evento IA Conference Brasil (Imagem: André Magalhães/Canaltech)

Os ajustes que garantem a família de LLMs são feitos a partir de mudanças ou diminuições na arquitetura da IA, o que garante a escolha por maior poder de resposta ou maior velocidade.

Porém, Martins ressalta que até mesmo os modelos Flash dão conta do recado na maior parte das tarefas diárias. Nesse caso, ele faz uma analogia entre as variantes e dicionários de tamanhos diferentes.

Quando era criança, eu tinha um dicionário pequeno que ficava na mochila e meu avô tinha um maior. Tinha coisa que eu só encontrava no dicionário dele, não no meu. Então, quando eu tinha que pesquisar alguma coisa mais específica, usava o livro dele para procurar, mas para 90% das dúvidas que eu tinha, o livro de bolso resolvia.

ChatGPT tentou unificar, mas voltou atrás

Criadora do ChatGPT, a OpenAI tentou acabar com a divisão de modelos no lançamento do GPT-5 — no lugar de escolher entre uma opção rápida e uma voltada para raciocínios mais demorados, a própria IA interpretaria o comando para decidir o nível de “esforço”.

No entanto, a decisão gerou polêmicas e até fez com que o chatbot voltasse a liberar acesso aos modelos antecessores. Por fim, o CEO da empresa, Sam Altman, afirmou que o próprio GPT-5 vai contar com uma opção “Fast” para respostas rápidas, “Thinking” para comandos mais elaborados e um caminho automático.

Leia também:

VÍDEO: qual IA escolher?

Leia a matéria no Canaltech.