Acesse o menu principal
Blog do Google Brasil

Google Cloud

Google Cloud expande acesso aos modelos Gemini

Google Cloud expande acesso a Gemini
Google Cloud expande acesso a Gemini

Em dezembro, o Google anunciou o Gemini, seu maior e mais hábil modelo de IA até agora. Desde então, clientes selecionados como Samsung e Palo Alto Networks vêm construindo agentes sofisticados de IA com modelos Gemini no Vertex AI, desbloqueando novos níveis de produtividade, aprendizagem personalizada e muito mais para seus usuários. Hoje, estamos trazendo mais modelos Gemini aos nossos clientes com novas atualizações e disponibilidade ampliada:

  • Gemini 1.0 Pro: nosso melhor modelo para dimensionamento de tarefas de IA, agora está disponível para todos os clientes do Vertex AI. A partir de hoje, qualquer desenvolvedor pode começar a construir com o Gemini Pro em produção. A versão 1.0 Pro oferece o melhor equilíbrio entre qualidade, desempenho e custo para a maioria das tarefas de IA, como geração, edição, resumo e classificação de conteúdo.
  • Gemini 1.0 Ultra: nosso modelo mais sofisticado e capaz para tarefas complexas, agora está disponível no Vertex AI para clientes por meio da lista de permissões. A versão 1.0 Ultra foi projetada para tarefas complexas, apresentando desempenho especialmente forte em áreas como instruções complexas, código, raciocínio e multilinguismo, e é otimizado para resultados de alta qualidade.

Além disso, estamos entusiasmados em apresentar uma nova geração de modelos Gemini com o Gemini 1.5, que oferece melhor desempenho em uma arquitetura mais eficiente.

O primeiro modelo Gemini 1.5 que estamos lançando para testes iniciais é o Gemini 1.5 Pro, que agora está na versão preview no Vertex AI. É um modelo multimodal de tamanho médio, otimizado para escalabilidade em uma ampla gama de tarefas e com desempenho semelhante ao 1.0 Ultra, nosso maior modelo até o momento. O 1.5 Pro apresenta um recurso experimental inovador na compreensão de contexto longo – a janela de contexto mais longa de qualquer modelo base em grande escala até agora. Os aplicativos agora podem executar até 1 milhão de tokens em produção. Isso significa que o 1.5 Pro pode processar grandes quantidades de informações de uma só vez – incluindo 1 hora de vídeo, 11 horas de áudio, bases de código com mais de 30 mil linhas de código ou mais de 700 mil palavras.

Janelas de contexto maiores permitem que os modelos façam referência a mais informações, compreendam o fluxo narrativo, mantenham a coerência em passagens mais longas e gerem respostas contextualmente mais ricas. Por exemplo, com o 1.5 Pro, as empresas podem:

  • Analisar com precisão uma biblioteca de código inteira em um único prompt, sem a necessidade de ajustar o modelo, incluindo compreensão e raciocínio sobre pequenos detalhes que um desenvolvedor pode facilmente perder, como erros, ineficiências e inconsistências no código.
  • Raciocinar em documentos muito longos, desde a comparação de detalhes de contratos até a síntese e análise de temas e opiniões em relatórios de analistas, estudos de pesquisa ou até mesmo uma série de livros.
  • Analisar e comparar o conteúdo de horas de vídeo, como encontrar detalhes específicos em filmagens esportivas ou obter informações detalhadas de resumos de videoconferências que suportam respostas precisas a perguntas.
  • Permitir que os chatbots mantenham longas conversas sem esquecer detalhes, mesmo em tarefas complexas ou em muitas interações de acompanhamento.
  • Possibilitar experiências hiper personalizadas, inserindo informações relevantes do usuário no prompt, sem a complexidade de ajustar um modelo.

Como os clientes estão inovando com os modelos Gemini

O Vertex AI teve uma forte adesão , com as solicitações de API aumentando quase 6 vezes na comparação do primeiro com o segundo semestre de 2023. Estamos realmente impressionados com tudo o que os clientes estão fazendo com os modelos Gemini, especialmente porque eles são multimodais e podem lidar muito bem com raciocínios complexos.

  • Samsung: A Samsung anunciou recentemente que sua série Galaxy S24 é o primeiro smartphone equipado com modelos Gemini. Começando com aplicativos nativos da Samsung, os clientes podem aproveitar as vantagens dos recursos de resumo do Notes e do Gravador de Voz. A Samsung está confiante de que seus usuários finais estão protegidos de forma integrada no Vertex AI.
  • Palo Alto Networks: A Palo Alto Networks está testando modelos Gemini em uma variedade de casos de uso, incluindo agentes de produtos inteligentes que permitem que seus clientes interajam com seu portfólio de produtos de uma forma mais intuitiva e reduzam o tempo gasto com suporte ao cliente.
  • Jasper: Na Jasper, uma IA está usando modelos Gemini para gerar automaticamente conteúdo de blog e descrições de produtos para seus clientes, auxiliando equipes de marketing empresarial a criar e reempacotar conteúdo. As equipes agora podem avançar mais rapidamente, mantendo um padrão de alta qualidade de conteúdo, garantindo a voz da marca e as diretrizes de marketing.
  • Quora: Popular plataforma de perguntas e respostas, a Quora está usando o Gemini para ajudar a potencializar a monetização dos criadores em sua plataforma de chat, Poe, onde os usuários podem explorar uma ampla variedade de bots com tecnologia de IA. O Gemini está permitindo que os criadores de Poe desenvolvam bots personalizados em uma variedade de casos de uso, incluindo assistência na escrita, geração de código, aprendizagem personalizada e muito mais.

Crie aplicativos prontos para produção com a API Gemini no Vertex AI

A API Gemini no Vertex AI permite que os desenvolvedores criem a próxima geração de agentes e aplicativos de IA, que podem processar informações simultaneamente em modalidades como texto, código, imagens e vídeo. Para aproveitar o poder dos modelos Gemini, as organizações e os desenvolvedores precisam ser capazes de criar aplicativos de nível empresarial e colocá-los em produção. O Vertex AI é a única solução de IA na nuvem que oferece uma plataforma única e integrada para modelos, ferramentas e infraestrutura, garantindo que, uma vez criados com modelos Gemini, os aplicativos possam ser facilmente implantados e mantidos. Com o Vertex AI, os clientes podem:

Personalizar modelos Gemini para necessidades comerciais específicas. A API Gemini no Vertex AI agora oferece suporte a ajustes baseados em adaptadores, como Low-Rank Adaptation (LoRA), que permite aos desenvolvedores personalizar o modelo de maneira eficiente e de baixo custo. Técnicas adicionais de personalização, como aprendizado por reforço a partir de feedback humano (RLHF) e destilação, chegarão à API Gemini nos próximos meses.

Aumentar a resposta dos modelos Gemini com informações atualizadas e permitir que o modelo tome medidas no mundo real. Com suporte para grounding totalmente gerenciado, os desenvolvedores podem melhorar a precisão e a relevância das respostas do modelo Gemini, usando os dados da própria empresa. Com function calling, agora com disponibilidade geral, os desenvolvedores podem conectar o modelo Gemini a APIs externas para transações e outras ações.

Gerenciar e dimensionar o Gemini em produção com ferramentas específicas para ajudar a garantir que, uma vez criados, os aplicativos possam ser facilmente implantados e mantidos. O Vertex AI oferece uma ferramenta de avaliação automatizada para modelos de IA generativa: Automatic Side by Side. Esse recurso compara as respostas dos modelos por um conjunto padrão de critérios, o que ajuda os desenvolvedores a entender o desempenho do Gemini e ajustar os prompts com base nesse feedback.

Criar agentes de pesquisa e conversação com modelos Gemini com o mínimo de conhecimento de codificação necessário, em horas e dias, ao invés de semanas e meses:

  • O Vertex AI Search oferece aos desenvolvedores um sistema pronto para uso de recuperação de informações e geração de respostas com a qualidade de busca do Google. Com suporte para modelos Gemini, os desenvolvedores podem criar aplicativos de busca com bases ainda mais robustas, citações precisas e respostas satisfatórias.
  • O Vertex AI Conversation agora oferece aos desenvolvedores a capacidade de construir chatbots conversacionais sofisticados com tecnologia de IA usando modelos Gemini. Com o raciocínio avançado e os recursos multimodais do Gemini, os desenvolvedores podem conduzir experiências de IA conversacional mais personalizadas, informativas e envolventes em seus aplicativos.

A era Gemini está apenas começando – fique na vanguarda

Os desenvolvedores podem criar aplicativos de nível de produção no Vertex AI, que oferece ferramentas de aumento, teste, implantação e gerenciamento de modelos de nível empresarial. Além disso, os desenvolvedores podem experimentar os modelos Gemini com a API do Google AI Studio, uma ferramenta gratuita baseada na Web usada para criar protótipos e lançar aplicativos rapidamente com uma chave de API. Com todos os nossos novos modelos Gemini agora nas mãos dos nossos clientes, mal podemos esperar para ver a nova geração de aplicativos e agentes inteligentes que eles criarão. No entanto, a era Gemini está apenas começando – se sua organização quiser permanecer na vanguarda, trabalhe com sua equipe de conta para garantir que você esteja inscrito para ser um trusted tester dos próximos modelos Gemini. Junte-se a nós em Las Vegas, em abril, no Google Cloud Next '24, para receber as últimas notícias sobre IA e explorar nossos próximos eventos para se aprofundar em produtos e estratégias.