Gemini 2.0 já está disponível para todos
No mês passado, nós iniciamos a era dos agentes lançando uma versão experimental do Gemini 2.0 Flash — nosso modelo altamente eficiente para desenvolvedores com baixa latência e desempenho aprimorado. No início deste ano, atualizamos o 2.0 Flash Thinking Experimental no Google AI Studio, o que melhorou seu desempenho combinando a velocidade do Flash com a capacidade de raciocinar em problemas mais complexos.
E na semana passada, nós disponibilizamos o 2.0 Flash para todos os usuários do aplicativo Gemini em desktop e celular, ajudando todos a descobrir novas maneiras de criar, interagir e colaborar com o Gemini.
Hoje, estamos tornando essa atualização do Gemini 2.0 Flash disponível para todos por meio da API Gemini no Google AI Studio e Vertex AI. Agora, os desenvolvedores podem construir aplicativos de produção com o 2.0 Flash.
Nós também estamos lançando uma versão experimental do Gemini 2.0 Pro, nosso melhor modelo até agora para desempenho em codificação e prompts complexos. Ele estará disponível no Google AI Studio e Vertex AI, e no aplicativo Gemini para usuários do Gemini Advanced.
Estamos lançando um novo modelo, Gemini 2.0 Flash-Lite, o mais econômico até agora, disponível em pré-visualização pública no Google AI Studio e Vertex AI.
Por fim, o 2.0 Flash Thinking Experimental estará disponível no app do Gemini, no menu suspenso, tanto do desktop como do celular.
Todos esses modelos terão a capacidade de receber entradas multimodais e fornecer saídas de texto, com suporte para mais modalidades nos próximos meses. Mais informações, incluindo detalhes sobre preços, podem ser encontradas no blog do Google para Desenvolvedores. Olhando para o futuro, estamos trabalhando em mais atualizações e capacidades aprimoradas para a família de modelos Gemini 2.0.
2.0 Flash: Uma nova atualização disponível para todos
Apresentada pela primeira vez no I/O 2024, a série de modelos Flash é popular entre os desenvolvedores como um modelo de trabalho poderoso, ideal para tarefas de alto volume e de alta frequência em escala, e altamente capaz de raciocínio multimodal em grandes quantidades de informações com uma janela de contexto de 1 milhão de tokens. Ficamos animados ao ver sua recepção pela comunidade de desenvolvedores.
O 2.0 Flash agora está amplamente disponível para mais pessoas em nossos produtos de IA, oferecendo desempenho aprimorado em benchmarks-keys, como LiveCodeBench e MMMU. Em breve, também contará com geração de imagens e conversão de texto em fala.
Experimente o Gemini 2.0 Flash no Gemini ou na API Gemini no Google AI Studio e Vertex AI. Detalhes de preços podem ser encontrados no blog do Google para Desenvolvedores.
2.0 Pro Experimental: Nosso melhor modelo para desempenho de codificação e prompts complexos até o momento
À medida que continuamos a compartilhar versões experimentais do Gemini 2.0, como o Gemini-Exp-1206, recebemos excelente feedback dos desenvolvedores sobre seus pontos fortes e melhores casos de uso, como codificação.
Hoje, estamos lançando uma versão experimental do Gemini 2.0 Pro que responde a esse feedback. Ele tem o desempenho de codificação mais robusto e a capacidade de lidar com prompts complexos, com melhor compreensão e raciocínio do conhecimento mundial do que qualquer modelo que lançamos até agora. Ele vem com nossa maior janela de contexto de 2 milhões de tokens, o que permite analisar e compreender de forma abrangente vastas quantidades de informações, bem como a capacidade de conectar a ferramentas como a Busca do Google e a execução de código.
O Gemini 2.0 Pro está disponível agora como um modelo experimental para desenvolvedores no Google AI Studio e Vertex AI e para usuários do Gemini Advanced no menu suspenso de modelos em desktop e celular.
2.0 Flash-Lite: Nosso modelo mais econômico até agora
Recebemos muito feedback positivo sobre o preço e a velocidade do 1.5 Flash. Queríamos continuar melhorando a qualidade, mantendo o custo e a velocidade. Então, hoje, estamos apresentando o 2.0 Flash-Lite, um novo modelo que tem melhor qualidade do que o 1.5 Flash, com a mesma velocidade e custo. Ele supera o 1.5 Flash na maioria dos benchmarks.
Como o 2.0 Flash, ele tem uma janela de contexto de 1 milhão de tokens e entrada multimodal. Por exemplo, ele pode gerar uma legenda relevante de uma linha para cerca de 40.000 fotos exclusivas, custando menos de um dólar na versão paga do AI Studio.
O Gemini 2.0 Flash-Lite está disponível no Google AI Studio e Vertex AI em pré-visualização pública.
Nosso trabalho de responsabilidade e segurança
À medida que a família de modelos Gemini se torna mais hábil, continuaremos a investir em medidas que permitam o uso seguro e protegido. Por exemplo, nossa linha Gemini 2.0 foi construída com novas técnicas de aprendizado por reforço que usam o próprio Gemini para criticar suas respostas. Isso resultou em feedback mais preciso e direcionado e melhorou a capacidade do modelo de lidar com prompts sensíveis, por sua vez.
Em breve, compartilharemos detalhes sobre o uso de técnicas adicionais de red teaming que desenvolvemos para avaliar riscos de segurança, incluindo indirect prompt injection — um tipo de ataque cibernético em que invasores ocultam instruções maliciosas em dados.