Google I/O 2025: Gemini ganha novidades no modelo 2.5 e função Live gratuita
20 de maio de 2025


Por Luã Souzada Redação


Google I/O 2025 aconteceu nesta terça (20) em São Francisco, na Califórnia, e anunciou novidades sobre o Gemini e outras ferramentas. Assim como em edições passadas, o evento anual focou em compartilhar novos recursos de inteligência artificial (IA). Agora, usuários da assistente virtual da marca poderão usar o Gemini Live gratuitamente em celulares Android e iPhone (iOS). Além disso, o Gemini 2.5 Pro e o Gemini 2.5 Flash também tiveram mais funcionalidades reveladas. A bigtech divulgou, ainda, o lançamento de duas novas assinaturas, o Google Al Pro e Google Al Ultra, com a incorporação de um conjunto completo de produtos de IA.

Novos modelos de IA generativa — como o Imagen 4, que cria imagens fotorrealistas a partir de comandos de texto —, também foram anunciados. O Google anunciou, ainda, o “Veo 3”, novo modelo de geração de vídeo que, segundo a empresa, é o primeiro no mundo a ter suporte nativo para efeitos sonoros, ruídos de fundo e diálogos entre personagens. Pensando nisso, o TechTudo criou um “resumão” sobre tudo que foi anunciado no evento. Confira, a seguir, tudo o que você precisa saber sobre o Google I/O 2025.

Google I/O 2025: Gemini ganha novidades no modelo 2.5 e função Live gratuita — Foto: Reprodução/YouTube

Google I/O 2025: Gemini ganha novidades no modelo 2.5 e função Live gratuita — Foto: Reprodução/YouTube

O que você vai ver nesta matéria?

  1. Gemini Live gratuito para Android e iPhone (iOS)
  2. Google anuncia planos pagos de IA; entenda
  3. Google Al Pro e Google Al Ultra: conheça os preços dos planos
  4. Gemini 2.5 Pro e Flash recebem novos recursos
  5. Integração com o Google Chrome e gratuidade para estudantes
  6. Produção de Imagens e Vídeos com o “Imagen 4” e “Ve0.3”
  7. Recurso de conversão de texto em fala agora está disponível no Gemini APL
  8. Deep Research permitirá insights mais profundos
  9. Crie com o Canvas
  10. Deep Think em desenvolvimento
  11. Saída de áudio nativa e melhorias na API Live

1. Gemini Live gratuito para Android e iPhone (iOS)

Gemini Live chega gratuitamente para todos os usuários de celulares Android e iPhone (iOS). Com a tecnologia, é possível usar a câmera do smartphone para obter ajuda visual em tempo real para resolver uma tarefa complexa, seja para solucionar problemas de um eletrodoméstico quebrado ou obter dicas personalizadas de compras, por exemplo. Segundo a empresa, a ferramenta já é usada para conversas pelo menos cinco vezes mais longas em comparação a escritas textuais. Além disso, o modelo “Imagen 4”, integrado ao Gemini, entrega uma qualidade de imagem maior com melhor renderização de texto.

Nas próximas semanas, é esperado também que o Gemini Live se integre completamente ao ecossistema do Google, e ajude em demandas específicas, como um planejamento para sair com os amigos. O usuário poderá discutir os detalhes no aplicativo e criar eventos automáticos no Google Agenda. Até mesmo para decidir um lugar para comer, ele responde às perguntas e manda novidades do Google Maps para o usuário.

Gemini Live lança busca pela câmera e compartilhamento de tela; entenda — Foto: Divulgação/Google
Gemini Live lança busca pela câmera e compartilhamento de tela; entenda — Foto: Divulgação/Google

Segundo Josh Woodward, o objetivo final é integrar o Google Maps, o Agenda, o Tarefas e o Keep, com mais conexões planejadas para o ecossistema do Google. Por isso, o usuário poderá gerenciar essas conexões de aplicativos e suas informações a qualquer momento nas configurações do Gemini Live.

2. Google anuncia planos pagos de IA; entenda

O Google anunciou o lançamento de duas novas assinaturas, o Google Al Pro e Google Al Ultra. Com o plano Pro, o usuário terá um conjunto completo de produtos de IA com limites de taxa mais altos e recursos especiais em comparação com a versão gratuita, incluindo o aplicativo Gemini. Além disso, produtos como Flow e NotebookLM também serão disponibilizados com recursos especiais e limites de taxa mais altos.

Já com o Google AI Ultra, o usuário terá acesso aos modelos mais avançados, com maiores limites de taxa, e acesso antecipado aos produtos experimentais de IA do Google. Para usuários avançados do aplicativo Gemini, será possível acessar o mais alto nível de acesso com o plano Ultra, com recursos exclusivos e acesso aos melhores modelos primeiro, incluindo o Veo 3 e o futuro modo Deep Think do 2.5 Pro quando for lançado.

Ao atualizar o Gemini para o plano Ultra, será possível acessar antecipadamente o Modo Agente, um novo recurso experimental que chegará em breve ao desktop. Ele combina recursos avançados com os aplicativos do Google, permitindo que ele gerencie tarefas complexas e multietapas do início ao fim com o mínimo de supervisão do usuário, como navegação na web em tempo real, pesquisa aprofundada e integrações inteligentes.

3. Google Al Pro e Google Al Ultra: conheça os preços dos planos

Preços do Google Al Pro e Google Al Ultra

Preços
Google Al Pro Preço a ser divulgado
Google Al Ultra US$ 249,99/mês (cerca de R$ 1.414,56 com a cotação atual)

4. Gemini 2.5 Pro e Flash recebem novos recursos

O Gemini 2.5 Pro recebeu novos recursos, incluindo o Deep Think, um modo experimental de raciocínio aprimorado. A novidade chega para aprimorar o modelo, que já é considerado o líder mundial nas tabelas de classificação da WebDey Arena e da LMArena.

Já o Flash 2.5, modelo de trabalho projetado para entregar respostas de forma mais rápida e com um custo menor, foi aprimorado em benchmarks importantes de raciocínio, multimodalidade, código e contexto longo. Agora, a tecnologia é mais eficiente, usando de 20% a 30% menos tokens nas avaliações da equipe de desenvolvimento. A atualização já está disponível para pré-visualização no Google AL Studio para desenvolvedores, no Vertex AI para empresas e no Gemini App para todos. O recurso chega no início de junho, de acordo com o Google.

Além disso, para auxiliar no aprendizado, novos recursos foram adicionados ao 2.5 Pro e ao 2.5 Flash: saída de áudio nativa para uma experiência de conversação mais natural, salvaguardas de segurança avançadas e os recursos de uso do computador do Projeto Mariner.

Google I/O 2025 — Foto: Reprodução/Youtube

Google I/O 2025 — Foto: Reprodução/Youtube

O vice-presidente do Google Labs e responsável pelo Gemini, Josh Woodward, afirmou que sua equipe está focada em continuar os investimentos na experiência do desenvolvedor. Entre as novidades estão os resumos de pensamento na API Gemini e no Vertex AI, para maior transparência; a ampliação dos orçamentos de pensamento no 2.5 Pro, para maior controle; e a adição de suporte a ferramentas MCP na API Gemini e no SDK, possibilitando acesso a mais ferramentas de código aberto.

5. Integração com o Google Chrome e gratuidade para estudantes

A integração entre o Gemini e o Google Chrome é outra novidade da marca, implementada inicialmente no desktop somente para assinantes do Google Al Pro e Google Al Ultra nos EUA, que usam o inglês como idioma do Chrome no Windows e macOS. Esta primeira versão permitirá pedidos ao Gemini para esclarecer informações complexas em qualquer página da web que o usuário esteja lendo ou resumir informações. Futuramente, o Gemini poderá trabalhar em várias abas e navegar em sites por conta própria.

Outra novidade para os estudantes do mundo inteiro é que agora será possível criar questionários interativos e universitários em alguns países como: EUA, Brasil, Indonésia, Japão e Reino Unido têm direito a um ano letivo gratuito do plano Gemini PRO. Outro ponto em destaque é que surgiu um novo plano premium, o Google AI Ultra, voltado para quem deseja acessar um limite maior de taxa de processamento e acesso antecipado a novos recursos no aplicativo Gemini. Além disso, o modelo Flash 2.5 passa a ser o modelo padrão do Gemini.

Google I/O 2025 — Foto: Reprodução/Youtube
Google I/O 2025 — Foto: Reprodução/Youtube

6. Produção de Imagens e Vídeos com o “Imagen 4” e “Ve0.3”

Seja para criar elementos gráficos para redes sociais ou criar convites para eventos, o Imagen 4 consegue oferecer visuais com detalhes realistas e resultados de texto e tipografia aprimorados dentro do Google Gemini. Graças ao “Ve0.3”, os usuários conseguem gerar não apenas uma cena de vídeo, mas também os sons movimentados da cidade, o sutil farfalhar das folhas ou até mesmo diálogos de personagens, tudo a partir de simples instruções de texto.

Google I/O 2025: vídeos criados pelo Veo impressionam — Foto: Reprodução/YouTube

Google I/O 2025: vídeos criados pelo Veo impressionam — Foto: Reprodução/YouTube

7. Recurso de conversão de texto em fala agora está disponível no Gemini APL

Alguns recursos de uso de computadores do Projeto Mariner estão sendo aproveitados para o Gemini Ali e o Vertex AI. Algumas empresas como Automation Anywhere, UiPath, Browserbase, Autotab, The Interaction Company e Cartwheel estão explorando o potencial da ferramenta e a expectativa é que os desenvolvedores possam experimentá-la no período do verão norte-americano, entre junho e agosto.

Além disso, a proteção contra ameaças à segurança foi reforçada para se proteger de eventuais ataques, como injeções indiretas de prompt. Isso ocorre quando instruções maliciosas são incorporadas aos dados recuperados por um modelo de IA. Essa nova abordagem de segurança ajudou a aumentar significativamente a taxa de proteção do Gemini contra ataques de injeção indireta de prompt durante o uso da ferramenta, tornando o Gemini 2.5 a família de modelos mais segura até o momento, segundo Josh Woodward .

8. Deep Research permitirá insights mais profundos

Além das fontes do próprio Google Gemini, os usuários serão capazes de obter um relatório completo e personalizado de pesquisa aprofundada que combina dados públicos com seus PDFs e imagens privadas. Ou seja, será possível ter uma compreensão total, cruzando seu conhecimento específico com tendências mais amplas, tudo em um só lugar, economizando tempo e revelando conexões que poderiam ser perdidas.

Por exemplo: um pesquisador de mercado agora pode enviar dados de vendas internas (em PDF) para referência cruzada com as tendências do mercado público, tudo dentro do Deep Research. Ou um acadêmico pode extrair artigos de periódicos específicos e difíceis de encontrar para enriquecer sua revisão bibliográfica. Com o objetivo de tornar o fluxo de trabalho ainda mais fluido, algumas integrações diretas com o Google Drive e Gmail devem ser lançadas em breve, segundo Koray Kavukcuoglu, CTO do Google DeepMind e Tulsee Doshi, Diretor Sênior de Gerenciamento de Produtos.

9. Crie com o Canvas

O Canvas é o espaço criativo dentro do aplicativo Gemini, e recebeu novidades com a chegada dos modelos Gemini 2.5. Agora, é possível criar infográficos interativos, quizzes e até mesmo áudios de podcast em 45 idiomas. Além disso, usuários podem dar vida a aplicativos inteiros a partir de descrições simples, a partir de uma interface mais amigável.

10. Deep Think em desenvolvimento

O Deep Think é um modelo de raciocínio aprimorado que está em fase inicial de testes e utiliza novas técnicas de pesquisa que permitem a ele considerar diversas hipóteses antes de entregar uma resposta. O Pro Deep Think obtém uma pontuação impressionante no USAMO de 2025, uma competição matemática de alto nível para estudantes do ensino médio nos Estados Unidos, atualmente um dos benchmarks matemáticos mais difíceis. Também lidera no LiveCodeßench, um benchmark difícil para codificação em nível competitivo, e pontua 84,0% no MMMU, que testa o raciocínio multimodal.

Como o grupo de pesquisa ainda está definindo as fronteiras com o 2.5 Pro Deep Think, diversas avaliações de segurança de fronteira e obtenção de mais informações de especialistas em segurança digital estão sendo coletadas. Como parte desse estudo, o produto será disponibilizado para testadores confiáveis ​​por meio da API Gemini para obter feedback antes de disponibilizá-lo amplamente.

Google I/O 2025: Gemini recebe Deep Think; entenda — Foto: Reprodução/Youtube
Google I/O 2025: Gemini recebe Deep Think; entenda — Foto: Reprodução/Youtube

11. Saída de áudio nativa e melhorias na API Live

Hoje, o Live AI apresenta uma versão de pré-visualização com entrada audiovisual e diálogos com saída de áudio nativa, para que você possa criar experiências de conversação diretamente, com um Gemini mais natural e expressivo. O usuário também consegue controlar o tom, o sotaque e o estilo de fala. Por exemplo, você pode instruir o modelo a usar uma voz dramática ao contar uma história. O API Live agora também suporta o uso de ferramentas para que você possa pesquisar por conta própria.

Agora é possível experimentar um conjunto de recursos iniciais, incluindo:

  • Diálogo Afetivo, no qual o modelo detecta emoção na voz do usuário e responde adequadamente.
  • Áudio proativo, em que o modelo ignora conversas em segundo plano e sabe quando responder.
  • Pensando no APL ao vivo, no qual o modelo aproveita as capacidades de pensamento dos Gêmeos para dar suporte a tarefas mais complexas.

Também serão lançadas novas prévias para conversão de texto em voz nas versões 2.5 Pro e 2.5 Flash. Elas oferecem suporte inédito para múltiplos falantes, permitindo conversão de texto em voz com duas vozes via saída de áudio nativo. Assim como o diálogo com áudio nativo, a conversão de texto em voz é expressiva e consegue capturar nuances realmente sutis, como sussurros. Funciona em mais de 24 idiomas e alterna entre eles de forma otimizada.