Google I/O 2025: Da pesquisa à realidade 20 de maio de 2025

Normalmente, nas semanas que antecedem o I/O, falamos pouco, porque guardamos nossos melhores modelos de Inteligência Artificial para o palco. Mas, na era Gemini, estamos tão dispostos a lançar nosso modelo mais avançado numa terça-feira de março quanto a anunciar uma inovação como o AlphaEvolve uma semana antes do evento.
Queremos colocar nossos melhores modelos nos produtos que você utiliza o quanto antes possível. E por isso estamos anunciando novidades mais rápido do que nunca.

Progresso implacável dos modelos
Estou especialmente empolgado com o ritmo acelerado de evolução dos modelos. A pontuação Elo — uma medida desse progresso — aumentou mais de 300 pontos desde o Gemini Pro de primeira geração. Hoje, o Gemini 2.5 Pro lidera o ranking do LMArena em todas as categorias.
Esse avanço só é possível graças à nossa infraestrutura líder no setor. Nosso TPU de sétima geração, o Ironwood, foi o primeiro desenvolvido especificamente para tarefas inferenciais e cognitivas em larga escala. Ele oferece 10 vezes mais desempenho que a geração anterior e chega a impressionantes 42,5 exaflops por pod – é impressionante.
Nossa força em infraestrutura — até o nível das TPUs — é o que nos permite oferecer modelos muito mais rápidos, mesmo com uma redução significativa nos custos. Repetidamente, conseguimos entregar os melhores modelos com a melhor relação custo-benefício. O Google não só está na dianteira da Pareto Frontier, nós fundamentalmente redefinimos os limites dessa fronteira.

O mundo está adotando a IA
A inteligência artificial está mais acessível — para todos, em todos os lugares. E o mundo está respondendo: a adoção da IA nunca foi tão rápida.
Veja alguns marcos importantes:
- No ano passado, processávamos 9,7 trilhões de tokens por mês em nossos produtos e APIs. Agora, são mais de 480 trilhões — um aumento de 50 vezes.
- Mais de 7 milhões de desenvolvedores já estão criando com o Gemini — cinco vezes mais que no ano passado. O uso do Gemini no Vertex AI cresceu 40 vezes.
- O app do Gemini tem agora mais de 400 milhões de usuários ativos mensais. Estamos vendo um crescimento forte e alto engajamento com a série 2.5, especialmente o Pro. Para aqueles que usam este modelo no app do Gemini, o uso aumentou 45%.
De Project Starline a Google Beam + tradução de voz
Apresentamos o Project Starline, nossa tecnologia de vídeo 3D revolucionária, no I/O, há alguns anos. O objetivo era criar a sensação de estar na mesma sala que outra pessoa, mesmo à distância.
Hoje, damos o próximo passo com o Google Beam, uma nova plataforma de comunicação por vídeo baseada em IA. Usando seis câmeras e modelos avançados de vídeo, o Beam transforma transmissões 2D em experiências 3D realistas usando seis câmeras e IA para mesclar diferentes vídeos e criar uma visualização 3D em um display. Essa tecnologia faz um mapeamento de cabeça praticamente perfeito, até o nível do milímetro, com qualidade de 60 quadros por segundo, tudo em tempo real. Em parceria com a HP, os primeiros dispositivos estarão disponíveis para os primeiros clientes ainda este ano.

A tradução entre inglês e espanhol já está sendo disponibilizada em versão beta para assinantes do Google AI Pro e Ultra, com mais idiomas previstos nas próximas semanas. A funcionalidade também chegará para clientes empresariais do Workspace testarem ainda este ano.
De Project Astra ao Gemini Live
O Project Astra, apresentado em um I/O anterior, vislumbrava um assistente universal de IA capaz de compreender o mundo ao redor. Agora, o Gemini Live incorpora essas capacidades de câmera e compartilhamento de tela, com usos diversos: de preparação para entrevistas a treinamentos para maratonas. Já está disponível para Android e, a partir de hoje, começa a ser liberado para iOS.
Também estamos levando recursos como esses para produtos como a Busca.
Do Project Mariner ao Agent Mode
Nós enxergamos os agentes como sistemas que combinam a inteligência de modelos avançados de IA com acesso a ferramentas, permitindo que eles realizem ações em seu nome — sempre sob seu controle.
Nosso protótipo de pesquisa inicial, o Project Mariner, representa um primeiro passo nesse caminho: um agente com capacidade de usar o computador para interagir com a web e realizar tarefas por você. Lançado em dezembro como um protótipo de pesquisa, ele já avançou bastante desde então, com novas habilidades de multitarefa e um método chamado “ensinar e repetir”, no qual você demonstra uma tarefa uma vez e ele aprende a replicar esse padrão em tarefas semelhantes no futuro. As capacidades de uso de computador do Project Mariner estão sendo disponibilizadas para desenvolvedores via a API do Gemini. Parceiros confiáveis como a Automation Anywhere e a UiPath já começaram a construir com a tecnologia, que será lançada de forma mais ampla nos próximos meses.
O uso do computador é apenas um dos vários recursos necessários para que um ecossistema de agentes prospere.
Estamos investindo também em padrões abertos, como o Agent2Agent Protocol, que permite que agentes se comuniquem entre si, e o Model Context Protocol, desenvolvido pela Anthropic, que possibilita que os agentes acessem outros serviços. E hoje temos o prazer de anunciar que nossa API e o SDK do Gemini agora são compatíveis com as ferramentas baseadas no MCP.
Estamos começando a levar essas capacidades também para o Chrome, a Busca e o app do Gemini. Um exemplo é o novo “Agent Mode” no app do Gemini, que ajudará você a fazer ainda mais. Se você estiver procurando um apartamento, o agente pode encontrar anúncios que correspondem aos seus critérios em sites como o Zillow, ajustar filtros, usar o MCP para acessar os anúncios e até agendar visitas. Uma versão experimental do Agent Mode será lançada em breve para assinantes. E isso também é uma ótima notícia para empresas como o Zillow, pois atrai novos clientes e melhora as taxas de conversão.
Essa é uma área nova e em constante evolução, e estamos animados para explorar como levar os benefícios dos agentes para os usuários e para o ecossistema de forma mais ampla.
O poder da personalização
A melhor forma de transformar pesquisa em realidade é torná-la realmente útil — na sua realidade. É aí que a personalização ganha força. Estamos trabalhando para tornar isso possível com algo que chamamos de contexto pessoal. Com a sua permissão, os modelos do Gemini poderão usar contextos pessoais relevantes, a partir dos apps Google que você usa, de forma privada, transparente e totalmente sob seu controle.
Um exemplo de como isso vai funcionar e os resultados mais imediatos são as novas respostas inteligentes personalizadas no Gmail. Se um amigo enviar um e-mail pedindo dicas sobre uma viagem que você já fez, o Gemini pode buscar, por você, e-mails antigos e arquivos no Google Drive — como roteiros salvos no Google Docs — para sugerir uma resposta com detalhes específicos e relevantes. Ele vai adaptar a saudação ao seu estilo, refletir seu tom, sua maneira de escrever e até suas palavras favoritas, criando uma resposta mais útil e que realmente soe como você. As respostas inteligentes personalizadas estarão disponíveis para assinantes ainda este ano.
E dá para imaginar o quanto o contexto pessoal pode ser útil também na Busca, no Gemini e muito mais.
AI Mode na Busca
Nossos modelos Gemini estão tornando a Busca do Google mais inteligente, proativa e personalizada.
Desde o lançamento no ano passado, o AI Overviews já chegaram a mais de 1,5 bilhão de pessoas em 200 países e territórios. E quanto mais as pessoas usam, mais satisfeitas ficam com os resultados — e mais usam a Busca. Em mercados como os EUA e a Índia, o AI Overviews estão impulsionando um crescimento superior a 10% no volume de buscas do tipo que ativa esses resumos, e esse número só aumenta com o tempo.
É um dos lançamentos mais bem-sucedidos da Busca na última década.
Para quem quer uma experiência totalmente orientada por IA, estamos lançando um novo AI Mode — uma reformulação completa da experiência de busca. Com raciocínio mais avançado, você pode fazer perguntas mais longas e complexas. Na prática, os primeiros usuários estão fazendo buscas de duas a três vezes mais longas do que o padrão, e podem continuar explorando com perguntas complementares. Tudo isso está disponível em uma nova aba dentro da própria Busca.
Tenho usado bastante, e isso mudou completamente a forma como eu busco informações. E estou animado em anunciar que o AI Mode começa a ser disponibilizado hoje para todos nos EUA. Com os modelos mais recentes do Gemini, as respostas de IA atingem o padrão de qualidade e precisão que você já espera da Busca — e com a velocidade mais alta do setor. E a partir desta semana, o Gemini 2.5 também começa a chegar à Busca nos EUA.
Gemini 2.5: avanços importantes
Nosso modelo mais eficiente e poderoso, o Gemini 2.5 Flash, tem feito muito sucesso entre os desenvolvedores, que apreciam sua velocidade e baixo custo. E a nova versão do 2.5 Flash está ainda melhor em praticamente todos os aspectos — com avanços importantes em benchmarks de raciocínio, multimodalidade, programação e contexto longo. Ele ocupa o segundo lugar no ranking da LMArena, ficando atrás apenas do 2.5 Pro.
Estamos também aprimorando o 2.5 Pro com a introdução de um novo modo de raciocínio avançado chamado Deep Think. Esse modo utiliza as pesquisas mais recentes em pensamento e raciocínio, incluindo técnicas de pensamento paralelo.
Gemini mais pessoal e poderoso
Estamos tornando o Deep Research ainda mais pessoal, permitindo que você envie seus próprios arquivos e, em breve, conecte sua conta do Google Drive e Gmail — ampliando a capacidade da ferramenta de gerar relatórios personalizados de pesquisa. Também estamos integrando o recurso ao Canvas, permitindo a criação, com apenas um clique, de infográficos dinâmicos, quizzes e até podcasts em vários idiomas.
Além disso, o uso do vibe coding com o Canvas tem ganhado força, permitindo que mais pessoas criem aplicativos funcionais apenas conversando com o Gemini.
E no Gemini Live — recurso que teve ótima aceitação entre os usuários — estamos liberando gratuitamente as funções de câmera e compartilhamento de tela para todos, inclusive no iOS, e em breve ele será conectado aos seus apps favoritos do Google para uma assistência ainda mais fluida.
Avanços em nossos modelos generativos de mídia
Estamos lançando nosso mais avançado modelo de vídeo, o Veo 3, que agora conta com geração nativa de áudio. Também estamos apresentando o Imagen 4, nosso modelo mais avançado para geração de imagens. Ambos estão disponíveis no app do Gemini — abrindo um novo mundo de possibilidades criativas.
E estamos levando essas ferramentas para cineastas com uma nova solução chamada Flow. Com ela, é possível criar clipes cinematográficos e até estender um vídeo curto em uma cena mais longa.
Um futuro com mais possibilidades
A oportunidade que a IA nos oferece é, de fato, uma das maiores que já vimos. E caberá a esta nova geração de desenvolvedores, criadores de tecnologia e solucionadores de problemas garantir que seus benefícios alcancem o maior número possível de pessoas. É especialmente inspirador pensar nas pesquisas em que estamos trabalhando hoje — desde robótica até computação quântica, AlphaFold e Waymo — e que formarão a base da realidade de amanhã.
Essa possibilidade de melhorar vidas não é algo que eu considere garantido. E uma experiência recente me fez lembrar disso. Estava em San Francisco com meus pais. A primeira coisa que eles quiseram fazer foi andar em um Waymo, que, pelo que percebo, está se tornando uma das principais atrações turísticas da cidade. Eu já tinha andado em Waymos antes, mas meu pai, que está na casa dos 80 anos, ficou completamente maravilhado — e, naquele momento, eu enxerguei o progresso sob uma nova perspectiva.
Foi um lembrete do poder extraordinário da tecnologia para inspirar, surpreender e nos fazer avançar. E mal posso esperar para ver as coisas incríveis que ainda vamos construir juntos.