Gemini, Agents e Vibe Coding: o Day 2 do Next’25 provou que, em IA, o Google não joga — dita as regras

O segundo dia do Google Cloud Next 2025 foi mais do que uma sequência de lançamentos — foi um convite direto à próxima fase da computação inteligente. Com foco em aplicações práticas da inteligência artificial generativa, a programação abordou como desenvolvedores, engenheiros de dados e líderes corporativos podem adotar agentes autônomos, modelos com janelas de contexto ampliadas, e ferramentas integradas com IA para transformar não apenas código, mas operações inteiras.

O evento revelou uma visão sistêmica da IA, onde agentes conversam entre si, desenvolvem tarefas completas de forma autônoma, aprendem com feedbacks e se integram aos fluxos reais de negócios e produtos. O Gemini deixou de ser apenas um modelo: virou infraestrutura, copiloto, gerente de projeto e até juiz de campeonato.

Este artigo traz uma análise aprofundada das principais inovações do Day 2, com foco no impacto técnico e estratégico das soluções anunciadas. Vamos explorar como o Google está redefinindo o papel da IA na criação de software, gestão de dados, automação de processos e até mesmo no esporte.

1. IA no controle: Gemini assume o Google Workspace

A inteligência artificial deixou de ser uma ferramenta paralela para se tornar parte do fluxo principal de trabalho. Com as atualizações apresentadas no Day 2, o Gemini está profundamente integrado ao Google Workspace, atuando como um copiloto ativo em ferramentas como Gmail, Docs, Meet e Calendar.

O destaque não está apenas na automação de tarefas, mas na forma como a IA entende o contexto contínuo das atividades, oferecendo suporte personalizado com base em dados passados, interações recentes e preferências do usuário. O Gemini escreve e-mails, responde mensagens, resume documentos, agenda reuniões e ainda sugere ações — tudo com base em um entendimento real da dinâmica de trabalho da equipe.

Essa evolução traz um impacto direto e mensurável para empresas:

  • Redução de tempo em tarefas operacionais
  • Menos dispersão entre aplicativos e fluxos
  • Aumento de produtividade e foco nas decisões estratégicas

Mais do que um assistente, o Gemini agora atua como um coautor e organizador do dia a dia digital, moldando um novo padrão de trabalho inteligente, contextual e proativo.

2. Educação inteligente: NotebookLM como tutor corporativo

O NotebookLM evoluiu para se tornar mais do que um repositório de notas com IA — ele agora atua como um verdadeiro tutor inteligente, com memória de longo prazo, capacidade de raciocínio e compreensão profunda de documentos complexos.

A Google apresentou o NotebookLM com suporte a até 1 milhão de tokens de contexto, o que significa que a ferramenta consegue lidar com conteúdos extensos — como apostilas, apresentações, manuais ou conjuntos de relatórios — mantendo coerência entre perguntas, respostas e raciocínios sucessivos.

Essa nova capacidade transforma o NotebookLM em um ativo estratégico para:

  • Treinamentos técnicos e capacitação de times
  • Onboarding inteligente com guias personalizados por área ou projeto
  • Acompanhamento contínuo de aprendizado com base em interações anteriores

Além de responder perguntas, o modelo justifica, explica e até gera materiais de apoio — como apresentações, quizzes ou planos de estudo. Em outras palavras, empresas agora podem escalar conhecimento com qualidade e contexto, substituindo PDFs estáticos por experiências de aprendizado orientadas por IA.

O NotebookLM deixa claro: a IA não apenas responde — ela ensina, acompanha e evolui com os usuários.

3. Gemini Agents: IA sem código e para todos

A promessa de criar agentes autônomos com inteligência artificial parecia, até pouco tempo atrás, restrita a times de engenharia altamente especializados. A Google quebrou essa barreira ao apresentar uma estrutura simples e poderosa para a criação de agentes baseados no Gemini, sem a necessidade de código ou configurações complexas.

Esses agentes são capazes de:

  • Executar tarefas corporativas com lógica e autonomia, como gerar orçamentos, preencher formulários, consultar permissões ou enviar requisições.
  • Atuar como pontes entre sistemas, conectando APIs, bancos de dados e documentos.
  • Aprender com interações anteriores, se adaptando ao estilo e necessidades do usuário.

Tudo isso é orquestrado por meio do Vertex AI, que centraliza o ciclo de vida dos agentes — da construção ao monitoramento. Com a introdução do Agent Development Kit (ADK), a criação de agentes passa a seguir uma lógica de três elementos: instruções, ferramentas e modelo. Isso permite que qualquer profissional, com conhecimento de negócio e linguagem natural, consiga prototipar soluções inteligentes de forma escalável.

Na prática, o que o Google mostrou foi uma nova camada de software, onde tarefas antes manuais passam a ser delegadas para agentes com raciocínio próprio — abrindo espaço para pessoas focarem no que realmente importa: estratégia, análise e decisão.

4. Gemini 2.5 Pro: memória, raciocínio e contexto de verdade

O lançamento do Gemini 2.5 Pro marcou um salto significativo na capacidade cognitiva dos modelos de linguagem. Com uma janela de contexto de até 1 milhão de tokens, o modelo consegue analisar documentos longos, grandes bases de código, múltiplos anexos e históricos complexos — sem perder o fio da meada.

Essa profundidade contextual abre possibilidades reais para casos como:

  • Análise jurídica com milhares de páginas e pareceres.
  • Debugging avançado com rastreio de múltiplos arquivos e interações.
  • Arquitetura de sistemas, revisando integrações, dependências e decisões técnicas.
  • Geração de documentos técnicos ou relatórios executivos, com base em materiais extensos.

Além da capacidade de memória, o Gemini 2.5 Pro se destaca pelo seu raciocínio incremental e uso de Search Grounding — ou seja, ele pode buscar dados atualizados via Google Search e fundamentar suas respostas com fontes reais e recentes.

Outro diferencial é a multimodalidade: o modelo pode entender e gerar texto, código, imagens, planilhas e até vídeos. Isso transforma o Gemini 2.5 Pro em uma plataforma de raciocínio generalista, adaptável a qualquer tipo de problema ou contexto.

Se antes os modelos de IA eram ferramentas de apoio pontual, agora se tornam parceiros de resolução profunda, com visão de longo prazo, memória funcional e capacidade de pensar em escala.

5. Gemini Code Assist Kanban Board: IA que programa e gerencia

O desenvolvimento de software está mudando — e o Google mostrou como. Com o lançamento do Gemini Code Assist Kanban Board, o ciclo de vida da engenharia passa a ser gerenciado, executado e acompanhado por agentes de IA, com uma nova interface visual orientada por tarefas.

No lugar de interações isoladas em editores de código, o Kanban Board transforma o desenvolvimento em uma experiência coordenada:

  • A IA recebe tarefas a partir de comentários em documentos, issues em repositórios ou mensagens em chats corporativos.
  • Essas tarefas viram cards visuais, com rastreabilidade, histórico e execução acompanhada em tempo real.
  • Cada etapa do desenvolvimento — da geração de código ao teste, revisão, documentação ou migração — pode ser delegada a agentes especializados.

Um dos grandes diferenciais é o chamado “Backpack”, um repositório de contexto técnico associado ao desenvolvedor ou projeto. Ele armazena:

  • Estilo de codificação
  • Padrões de segurança
  • Convenções de formatação
  • Feedbacks anteriores e histórico de decisões

Isso permite que a IA trabalhe de forma alinhada com a cultura do time, reduzindo retrabalho e garantindo consistência técnica.

Mais do que um copiloto, o Gemini se posiciona aqui como um gestor de sprint invisível, capaz de distribuir tarefas, priorizar bugs, revisar pull requests e entregar software de forma autônoma e interativa. Um novo paradigma para equipes que buscam velocidade, qualidade e governança em escala.

6. Vertex AI Agent Engine + Agentspace: infraestrutura para agentes

Para que agentes autônomos funcionem em escala corporativa, é preciso mais do que modelos inteligentes — é necessário infraestrutura de execução, controle e governança. Foi exatamente isso que o Google apresentou com o lançamento do Vertex AI Agent Engine e do Agentspace.

O Agent Engine é um ambiente gerenciado onde agentes podem ser implementados, executados e monitorados com:

  • Segurança corporativa embutida
  • Logs, rastreamento e métricas de performance
  • Avaliação contínua de qualidade
  • Suporte a múltiplos frameworks de agentes, incluindo o novo Agent Development Kit (ADK)

Essa base permite que as empresas não apenas testem agentes, mas os coloquem em produção com confiabilidade e controle, como qualquer outro microserviço.

Já o Agentspace funciona como um marketplace interno e colaborativo, onde agentes podem ser:

  • Registrados e publicados por desenvolvedores
  • Compartilhados com equipes ou toda a organização
  • Acessados com base em permissões e políticas corporativas
  • Descobertos por outros usuários de forma intuitiva, com descrição de capacidades e casos de uso

A combinação entre Engine e Agentspace dá origem a um novo ciclo de vida de software: agora, times podem construir, versionar, publicar, rodar e monitorar agentes de IA como ativos da organização, com governança e colaboração integrada.

É o início de uma nova camada de abstração na nuvem: a plataforma de agentes corporativos.

7. Sistemas Multiagentes + A2A Protocol: IAs que colaboram entre si

À medida que agentes de IA ganham autonomia e capacidades especializadas, surge um novo desafio: fazer com que eles colaborem entre si de forma coordenada e confiável. A resposta do Google para isso foi a introdução de sistemas multiagentes, suportados pelo Vertex AI Agent Engine, e o lançamento do novo A2A Protocol (Agent2Agent).

Durante o Day 2, o Google demonstrou como um sistema completo pode ser construído com múltiplos agentes, cada um com uma função específica:

  • Um agente para geração de propostas técnicas
  • Outro para verificação de permissões e regulamentações
  • E um terceiro para orquestrar pedidos e entregas de materiais

Esses agentes são orquestrados por um agente raiz, que entende o objetivo maior e distribui tarefas com base em instruções escritas em linguagem natural. O resultado é uma arquitetura modular, extensível e altamente escalável — sem dependência de código rígido.

Para facilitar ainda mais a interoperabilidade, foi lançado o A2A Protocol, um padrão aberto que permite que agentes:

  • Conversem entre si, mesmo sendo construídos com diferentes frameworks e fornecedores.
  • Negociem objetivos, compartilhem contexto e coordenem decisões.
  • Operem em ecossistemas híbridos, como cloud, edge e on-premises.

Complementando essa estrutura, o Google apresentou o recurso Cloud Assist Investigations, que permite investigar falhas em sistemas de agentes com logs inteligentes, geração de hipóteses e até sugestões de correção via Gemini — tudo integrado ao ciclo de vida do agente.

Com isso, a Google inaugura um novo momento da computação distribuída: não mais entre máquinas, mas entre inteligências.

8. Data Science Agents + TimesFM: IA que entende séries temporais

Se antes os cientistas de dados dependiam de notebooks manuais, longas sessões de codificação e um bom tempo de exploração para gerar insights, o Google mostrou que isso está mudando — rápido. Com os novos Data Science Agents, integrados ao BigQuery Notebooks e ao Colab, profissionais agora contam com um parceiro inteligente de análise, capaz de transformar dados brutos em produtos analíticos prontos para o negócio.

Esses agentes atuam diretamente nos ambientes de dados e permitem:

  • Geração automática de queries, visualizações e transformações.
  • Explicações dos resultados em linguagem natural.
  • Criação de análises preditivas com modelos de última geração — sem precisar sair do notebook.

O grande destaque foi o lançamento do TimesFM, um modelo de forecasting treinado com grandes volumes de séries temporais, disponível diretamente no BigQuery. Ele permite gerar previsões robustas com pouca engenharia de features, o que acelera ciclos de experimentação e simplifica o uso por equipes menos técnicas.

Além disso, com poucos cliques, os dados podem ser transformados em Data Apps interativos, que gestores e usuários de negócio podem acessar para gerar previsões personalizadas — sem escrever uma linha de código.

O resultado é um novo fluxo de valor para times de dados:

  1. O agente prepara os dados.
  2. O modelo gera as previsões.
  3. A IA monta um app com os resultados.
  4. O stakeholder consome a previsão em tempo real.

Essa é a IA não substituindo o cientista de dados, mas elevando sua capacidade de entrega e multiplicando seu impacto em escala.

9. Vibe Coding: desenvolvimento com Gemini nos seus próprios termos

Codar com IA deixou de ser apenas sobre receber sugestões em uma linha de código. O conceito de Vibe Coding, apresentado no evento, amplia essa experiência para algo mais natural, interativo e fluido — onde o desenvolvedor conversa com a IA em tempo real, dentro da ferramenta que já usa no dia a dia.

O Gemini 2.5 Pro agora está integrado a uma série de IDEs, como:

  • Windsurf, voltado à criação de agentes com um fluxo visual e enxuto
  • Cursor, ideal para análise e refatoração de bases de código extensas
  • IntelliJ + Copilot, com suporte a múltiplos idiomas (inclusive prompts em português)
  • Visual Studio Code, Tabnine, Cognition, Aider, entre outros

Essas experiências não apenas completam código — elas:

  • Geram micro serviços completos
  • Realizam validações e refatorações contextuais
  • Criam testes unitários e sugerem melhorias
  • Entendem o projeto como um todo, não apenas o trecho atual

Além disso, o Google levou o Gemini também para o Firebase Studio, criando uma experiência IA-first no desenvolvimento de apps web e mobile. Com isso, o desenvolvedor pode:

  • Receber sugestões baseadas em dados reais de uso do app
  • Criar componentes com foco em UX e performance
  • Construir jornadas personalizadas com base no comportamento do usuário

O Vibe Coding representa uma mudança de mentalidade: codar com IA não é só acelerar o que já fazíamos, é fazer de um jeito completamente novo — mais criativo, interativo, leve e contextualizado. E o desenvolvedor continua no centro da experiência, agora com um parceiro que entende o que está sendo construído.

10. Esporte e IA: Gemini como comentarista, analista e juiz

O Day 2 também provou que a IA não se limita a planilhas, código e análises corporativas. A integração entre Gemini e Vertex AI está abrindo espaço para casos de uso no esporte que mostram o potencial da tecnologia em contextos com alto volume de dados, necessidade de decisões em tempo real e impactos diretos na experiência humana.

MLB + Google Cloud

A Major League Baseball está utilizando Gemini para processar 25 milhões de dados por jogo com a infraestrutura do Vertex AI. Isso permite:

  • Comparar jogadas em tempo real com bases históricas (Statcast)
  • Gerar insights técnicos sobre performance de atletas
  • Alimentar painéis ao vivo com métricas de difícil percepção visual

Além disso, a parceria rendeu um hackathon, onde foi desenvolvido um agente com capacidade de analisar a biomecânica de arremessos com base em vídeo — e tudo isso, sem precisar de câmeras de alta velocidade ou equipamentos especiais. Com poucos prompts e uso de Computer Vision via Gemini, qualquer atleta pode receber análises personalizadas, seja amador ou profissional.

X-Games: IA como juiz e comentarista

Outro exemplo impactante foi nos X-Games, onde a IA atuou como comentarista e juíza das competições, analisando manobras, pontuação e desempenho técnico de forma imparcial. Em apenas oito semanas, uma equipe construiu:

  • Um agente comentarista com linguagem natural e tom de narrador esportivo
  • Um sistema de scoring assistido por IA, capaz de avaliar manobras com base em padrões técnicos
  • Um modelo preditivo que acertou os três primeiros colocados com base em análises de treino

A mensagem foi clara: a IA pode operar em tempo real, com precisão e imparcialidade, complementando o julgamento humano com dados e consistência.

Esses cases mostram que a IA não está apenas automatizando — está ampliando o que é possível em ambientes que exigem velocidade, julgamento técnico e experiência. O campo de jogo mudou. E a IA agora está na arbitragem.

Conclusão

O Day 2 do Google Cloud Next 2025 deixou claro que a IA generativa não é mais uma aposta futura — ela já está moldando a forma como trabalhamos, desenvolvemos, analisamos e decidimos. O que vimos foi uma virada de chave: o Gemini não é mais apenas um modelo. Ele é um agente, um gerente, um parceiro técnico, um tutor e um analista — operando dentro dos fluxos reais de trabalho, com contexto, autonomia e escala.

Combinando interfaces naturais, modelos robustos, agentes modulares e infraestrutura de execução, o Google apresentou uma nova arquitetura de produtividade — uma em que toda função pode ser potencializada por IA, desde o código até a reunião de diretoria.

Se a primeira onda da IA generativa foi sobre experimentação, a segunda — liderada pelo que vimos no ontem — é sobre aplicação sistemática, governada e integrada à operação.

Categorias

Sauter Internal Cases

setembro 17

Case | Escola Mais

julho 7

Case - Malwee

julho 7

Case - BRF

julho 4

Case - IMC

junho 30

Case - Zamp | Migração e DevOps

junho 30

Case - Zamp | Migração e Modernização

Newsletter

Quero saber mais

Descubra mais sobre Sauter Digital

Assine agora mesmo para continuar lendo e ter acesso ao arquivo completo.

Continue reading