Enquanto o mundo observa os lançamentos oficiais, os verdadeiros segredos do Google costumam vazar de forma silenciosa e técnica.
Desta vez, a análise do código do aplicativo revelou uma movimentação massiva nos bastidores da inteligência artificial da empresa.
O que essas novas mentes digitais podem fazer pelo seu assistente de voz nos próximos meses?
Os bastidores do Google App
> "A descoberta sugere que o Google está explorando múltiplas alternativas ao atual modelo Gemini 3.1 Flash Live."
Uma análise profunda (teardown) do Google App v17.18.22 trouxe à tona um seletor de modelos oculto dentro do sistema.
De acordo com a fonte original, foram identificados sete novos modelos de IA para o Gemini Live.
Essa ferramenta de voz permite conversas fluidas e naturais, mas hoje opera com opções limitadas para o usuário final.
As novas variantes indicam que o Google quer oferecer escolhas entre velocidade, precisão e personalização profunda.
Sete mentes em teste
Os modelos encontrados no código possuem codinomes que ainda não haviam aparecido em documentações oficiais anteriores.
Essa estratégia de testes internos é comum antes de grandes eventos, como o Google I/O 2026.
Lista de novos modelos detectados:
Confira os detalhes encontrados no seletor oculto:
- Capybara: Um novo codinome para processamento ainda não especificado.
- Nitrogen: Sugere uma variante focada em eficiência ou velocidade de resposta.
- Personalization: Um modelo ajustado para aprender preferências específicas do usuário.
- Thinking: Focado em raciocínio complexo e respostas mais elaboradas.
- RC2 (duas versões): Modelos em estágio de "Release Candidate", indicando que estão quase prontos.
- A2A: Sigla para Audio-to-Audio, processamento direto de som sem conversão intermediária.
Segundo o portal de Breaking News, esses modelos podem mudar como interagimos com celulares.
O mistério do "Thinking"
O modelo batizado de "Thinking" é um dos que mais chama a atenção de pesquisadores e desenvolvedores.
Ele indica que o Google está seguindo a tendência de modelos de "raciocínio", que pensam antes de responder.
Na prática, isso significa que a IA pode resolver problemas matemáticos ou lógicos mais complexos via voz.
Hoje, assistentes de voz costumam priorizar a velocidade, o que às vezes compromete a profundidade da resposta.
Com o seletor, o usuário poderia escolher entre uma resposta instantânea ou uma análise mais cuidadosa.
A revolução do Audio-to-Audio
O prefixo "A2A" encontrado no código aponta para uma mudança técnica fundamental na arquitetura da IA.
A maioria dos assistentes atuais converte sua voz em texto, processa o texto e depois gera uma voz artificial.
O processamento Audio-to-Audio elimina essas etapas intermediárias, lidando diretamente com as ondas sonoras.
Isso permite que a IA entenda melhor entonações, emoções e até interrupções durante a conversa.
O resultado é uma experiência muito mais próxima de falar com um ser humano real.
> "Essa capacidade poderia permitir que usuários escolham entre respostas rápidas ou mais ponderadas no Gemini Live."
Contexto e mercado
Para entender a importância desse vazamento, é preciso olhar para o histórico do Google no setor de IA.
Desde o lançamento do Bard, que depois evoluiu para Gemini, a empresa tem acelerado seus ciclos de atualização.
A competição com a OpenAI e a Apple forçou o Google a abrir os bastidores de seus laboratórios mais cedo.
Se você quiser ficar por dentro dessas mudanças, pode assinar newsletters especializadas sobre o tema.
A existência desses sete modelos sugere que o Google não quer apenas uma IA geral, mas especialistas para cada tarefa.
O que esperar no Google I/O
Embora o seletor esteja escondido atrás de flags de servidor, sua presença indica testes em estágio avançado.
Especialistas acreditam que o anúncio oficial ocorrerá durante o próximo Google I/O.
A possibilidade de o usuário escolher o "cérebro" da sua IA seria um diferencial enorme contra concorrentes.
Isso também abre portas para modelos premium, onde versões mais potentes como o "Thinking" poderiam ser pagas.
Se você tiver informações adicionais sobre esses testes, pode enviar uma dica de notícia para os investigadores.
O veredito
O Google está preparando o terreno para uma personalização sem precedentes no uso de assistentes de voz.
A transição de uma IA única para um ecossistema de modelos especializados é o próximo grande passo.
Não se trata mais apenas de responder perguntas, mas de como a IA pensa para chegar até elas.
Qual desses novos modelos você ativaria primeiro no seu celular?