Tornando a Vertex AI a plataforma de IA generativa mais preparada para organizações
Tem sido incrível ver tudo o que os nossos clientes estão fazendo com a IA generativa. Há menos de três meses, compartilhamos 101 casos de uso real de IA generativa das principais organizações do mundo. Desde então, para permitir que as empresas implementem agentes de IA atraentes com mais rapidez, o Google DeepMind continuou a ser pioneiro em avanços de modelo, em particular com Gemini e o Imagen, e entregamos dezenas de recursos inovadores em nossa plataforma de IA empresarial, a Vertex AI.
Os clientes estão fazendo grandes coisas com a nossa IA generativa, incluindo UberEats, Ipsos, Jasper, Shutterstock, Quora. Outras organizações estão acelerando as implementações de casos de uso de IA generativa usando as soluções de Google Cloud.
Por exemplo, antes do Gemini 1.5 Pro, era impossível prosseguir com a maioria dos casos de uso multimodais, como enviar um vídeo e simplesmente fazer perguntas sobre ele. Mas, desde o seu lançamento, temos visto exemplos inovadores de clientes conversando com seus dados, como:
Um varejista de fast food está usando o Gemini para analisar vídeos de suas lojas para identificar períodos de pico de tráfego e otimizar o layout dos espaços para melhorar a experiência do cliente. O varejista também planeja combinar esta análise de vídeo com dados de vendas para compreender melhor os fatores que impulsionam um serviço eficiente e bem-sucedido.
Uma instituição financeira está processando imagens digitalizadas de identificação com formulários de dados enviados, aproveitando a multimodalidade do Gemini para processar automaticamente (e rapidamente) imagens e texto. O objetivo é comparar informações quanto à precisão e ajudar os clientes a abrir e acessar contas de maneira mais conveniente.
Uma empresa esportiva está aproveitando o Gemini para analisar a desenvoltura ” de um jogador. Ao sobrepor os insights do Gemini em seu aplicativo existente, a análise da IA aprimora a funcionalidade de sua ferramenta de análise de desempenho.
Uma companhia de seguros está analisando imagens de acidentes, usando o Gemini para entender e descrever melhor os cenários. Esta análise pode ajudar a calcular pontuações de risco e até fornecer dicas de condução personalizadas com base nos comportamentos observados.
Uma empresa de serviços de publicidade e marketing está revolucionando as soluções de descrição de vídeo ao desenvolver recursos de streaming em tempo real para descrição e narração. Esta inovação agiliza a criação de vídeos, aumenta a eficiência e permite conteúdo personalizado.
E isso é apenas um olhar multimodal juntamente com janelas de contexto longo - o Gemini é igualmente poderoso com bases de código, documentos longos com imagens incorporadas, entrevistas em áudio e muito mais.
Além da recepção dos clientes, tem sido encorajador ver os analistas do setor nos reconhecerem. Por exemplo, apenas nos últimos dois meses, a Forrester Research nomeou o Google como líder no The Forrester Wave™: AI Foundation Models for Language, Q2 2024 e o Gartner ® nomeou o Google como líder no 2024 Magic Quadrant™ for Cloud AI Developer 1 e o 2.
Hoje, para acelerar esse impulso, estamos anunciando avanços significativos em modelos e recursos de plataformas empresariais com a Vertex AI.
Vamos começar pelos modelos.
Gemini 1.5 Flash: Relação Custo-desempenho líder no mercado e baixa latência
Anunciado no mês passado em versão public preview pública e agora disponível para o público geral, o Gemini 1.5 Flash combina baixa latência, preços competitivos e nossa inovadora janela de contexto de 1 milhão de tokens, tornando-o uma excelente opção para uma ampla variedade de casos de uso em escala, que vão desde agentes de bate-papo de varejo e processamento de documentos, aos agentes de pesquisa que podem sintetizar repositórios inteiros.
O mais importante é que os fortes recursos, a baixa latência e a eficiência de custos do Gemini 1.5 Flash rapidamente se tornaram os favoritos de nossos clientes, oferecendo muitas vantagens atraentes em relação a modelos comparáveis, como o GPT 3.5 Turbo:
- Janela de contexto de 1 milhão de tokens, que é aproximadamente 60x maior que a janela de contexto fornecida pelo GPT-3.5 Turbo 3
- Preço de entrada até 4 vezes menor que o GPT-3.5 Turbo, com cache de contexto habilitado para entradas maiores que 32.000 caracteres
“Na UberEats, estamos reimaginando ativamente a maneira como as pessoas conseguem o que desejam e precisam”, disse Narendran Thangarajan, engenheiro de software da equipe da Uber . “Como resultado, construímos o assistente de IA da Uber Eats, que permite que nossos usuários aprendam, idealizem, descubram e comprem itens de nosso catálogo de forma integrada por meio de conversas em linguagem natural. Com o Gemini 1.5 Flash, observamos tempos de resposta quase 50% mais rápidos, o que é fundamental para a experiência geral do cliente. Estamos ansiosos pelo impacto que o modelo terá na eficiência e na satisfação do cliente e pelas novas oportunidades que ele abre com a multimodalidade e janelas de contexto mais longas.”
“O Gemini 1.5 Flash torna mais fácil para nós continuarmos nossa fase de expansão de aplicação de IA generativa em tarefas de alto volume, sem as compensações na qualidade da saída ou na janela de contexto, mesmo para casos de uso multimodais”, disse JC. Escalante, chefe global de IA generativa da empresa de pesquisa de mercado Ipsos . “O Gemini Flash cria oportunidades para gerenciar melhor o ROI.”
“Como uma empresa que prioriza a IA e se concentra em capacitar as equipes de marketing empresarial para realizar o trabalho com mais rapidez, é imperativo que usemos modelos multimodais de alta qualidade que sejam econômicos, mas rápidos, para que nossos clientes possam criar conteúdo incrível com rapidez e facilidade e reimaginar os ativos existentes”, disse Suhail Nimji, diretor de estratégia da Jasper.ai.“Com o Gemini 1.5 Pro e agora o 1.5 Flash, continuaremos elevando o nível de geração de conteúdo, garantindo a adesão à voz da marca e às diretrizes de marketing, ao mesmo tempo em que impulsionamos a produtividade no processo.”
Empresas e desenvolvedores podem clicar aqui para começar agora a usar o Gemini 1.5 Flash na Vertex AI.
Gemini 1.5 Pro: com recursos de contexto de 2 milhões de tokens líderes do setor
Agora disponível com uma janela de contexto líder do setor de até 2 milhões de tokens, o Gemini 1.5 Pro está equipado para desbloquear casos de uso multimodais exclusivos que nenhum outro modelo pode lidar.
O processamento de apenas seis minutos de vídeo requer mais de 100.000 tokens e grandes bases de código podem exceder 1 milhão de tokens – quer o caso de uso envolva encontrar bugs em inúmeras linhas de código, localizar as informações corretas em bibliotecas de pesquisa ou analisar horas de áudio ou vídeo. A janela de contexto expandida do Gemini 1.5 Pro está ajudando as organizações a abrir novos caminhos.
Empresas e desenvolvedores podem clicar aqui para começar a usar agora o Gemini 1.5 Pro com recursos de contexto de 2 milhões de tokens.
Imagen 3 : Geração de imagem mais rápida, compreensão imediata superior
O Imagen 3 é o modelo básico de geração de imagens mais recente do Google. Ele oferece excelente qualidade de imagem juntamente com várias melhorias em relação ao Imagen 2 - incluindo uma geração 40% mais rápida para prototipagem e iteração rápidas, melhor compreensão imediata e seguimento de instruções, gerações fotorrealistas de grupos de pessoas e maior controle sobre a renderização de texto dentro de uma imagem.
Lançado em versão preview para clientes Vertex AI com acesso antecipado, o Imagen 3 também inclui suporte multilíngue, recursos de segurança integrados, como a marca d’água digital - SynthID do Google DeepMind -, e suporte para múltiplos tamanhos.
Imagem gerada pelo Imagen 3
“Os primeiros resultados dos modelos Imagen 3 nos surpreenderam agradavelmente com sua qualidade e velocidade em nossos testes”, disse Gaurav Sharma, chefe de pesquisa de IA da Typeface, uma startup especializada em alavancar IA generativa para criação de conteúdo empresarial. “Eles trouxeram melhorias na geração de detalhes, bem como imagens de estilo de vida dos humanos. Como parceiros iniciais dos modelos fundacionais do Google, estamos ansiosos para explorar os novos modelos do Imagen e Gemini ainda mais na jornada que temos pela frente juntos.”
“Tornamos mais fácil para nossos usuários transformarem suas ideias em apresentações, sites e outros documentos visuais atraentes, gerados com o poder da IA. Para permitir ainda mais personalização e criatividade e, ao mesmo tempo, reduzir tarefas manuais, oferecemos os recursos de conversão de texto em imagem de alta qualidade através do Imagen”, disse Jon Noronha, cofundador da Gamma . “Nossos usuários já geraram mais de 4 milhões de imagens com o Imagen e estamos entusiasmados com a forma como o Imagen 3 lhes permitirá criar imagens ainda mais rapidamente, incluir texto nas imagens e melhorar com segurança a geração de imagens fotorrealistas com pessoas.”
“Desde que adicionamos o Imagen ao nosso gerador de imagens de IA, nossos usuários geraram milhões de imagens com o modelo. Estamos entusiasmados com as melhorias que o Imagen 3 promete, pois permite que nossos usuários executem suas ideias com mais rapidez, sem sacrificar a qualidade. Como uma melhoria importante para o lançamento do primeiro gerador de imagens de IA de origem ética da Shutterstock, também apreciamos como a segurança é incorporada e que o conteúdo criado é protegido pela indexação do Google Cloud para IA generativa”, disse Justin Hiza, vice-presidente de dados. Serviços, Shutterstock .
Os clientes podem clicar aqui para solicitar acesso ao Imagen 3 na Vertex AI.
Modelos abertos e de terceiros: oferecendo mais opções de modelos com a Vertex AI
No Google Cloud, temos o compromisso de capacitar a escolha e a inovação do cliente por meio de nossa coleção selecionada de modelos próprios, abertos e de terceiros disponíveis na Vertex AI. É por isso que estamos entusiasmados por termos adicionado, recentemente, o modelo recém-lançado da Anthropic, Claude 3.5 Sonnet , à Vertex AI. Os clientes podem começar a testar ou implantar o Claude 3.5 Sonnet em produção no Google Cloud . Nos próximos meses, aprofundaremos nossa parceria com a Mistral com a adição de Mistral Small, Mistral Large e Mistral Codestral à Vertex AI Model Garden.
Continuando nosso esforço para atender os clientes onde eles estão, no início deste ano apresentamos o Gemma, uma família de modelos abertos, leves e de última geração, construídos a partir da mesma pesquisa e tecnologia usadas para criar os modelos Gemini. Agora, estamos lançando oficialmente o Gemma 2 para pesquisadores e desenvolvedores em todo o mundo. Disponível em tamanhos de parâmetros de 9 bilhões e 27 bilhões , o Gemma 2 é muito mais poderoso e eficiente do que a primeira geração, com avanços de segurança significativos integrados. A partir do próximo mês, os clientes poderão acessar o Gemma 2 na Vertex AI. Os clientes podem clicar aqui para acessar o Gemma 2 na Vertex AI.
Custos mais baixos: cache de contexto para Gemini 1.5 Pro e Flash
Para ajudar os nossos clientes a aproveitar com eficiência as vastas janelas de contexto do Gemini, a partir de hoje estamos lançando o cache de contexto , em visualização pública, para 1.5 Pro e Flash. À medida que o comprimento do contexto aumenta, pode ser caro e lento obter respostas para aplicativos de contexto longo, dificultando a implantação na produção. O cache de contexto da Vertex AI ajuda os clientes a reduzir significativamente os custos de entrada, em 75%, aproveitando dados armazenados em cache de contexto usado com frequência. Hoje, o Google é o único fornecedor que oferece API de cache de contexto.
Desempenho previsível: rendimento provisionado para modelos Gemini
Com disponibilidade para todos nossos clientes a partir de hoje e com lista de permissões, a taxa de transferência provisionada permite que os clientes dimensionem de forma responsável o uso de modelos primários do Google, como o 1.5 Flash, oferecendo garantias de capacidade e preço. Esse recurso da Vertex AI traz previsibilidade e confiabilidade às cargas de trabalho de produção dos clientes, oferecendo-lhes a garantia necessária para dimensionar agressivamente as cargas de trabalho de IA generativa.
Fornecendo a verdade empresarial: a na Busca do Google e, agora, também em dados de terceiros
A preparação empresarial exige mais do que o modelo. As empresas precisam maximizar a factualidade e minimizar drasticamente as alucinações, o que significa fundamentar a saída do modelo em verdades e dados da Web, próprios e de terceiros, ao mesmo tempo em que atendem a padrões rigorosos de prontidão empresarial, como governança e soberania de dados.
No Google I/O deste ano, anunciamos a disponibilidade geral do Ancoramento com Google Search na Vertex AI. Com o serviço agora disponível para todos, empresas de diferentes tipos podem aumentar os resultados do Gemini com base na Busca do Google, dando aos modelos acesso a informações atualizadas e de alta qualidade. Assim, os clientes podem integrar facilmente os modelos aprimorados do Gemini em seus agentes de IA.
“O Gemini 1.5 Flash cria oportunidades para gerenciar melhor o ROI no futuro. Com a capacidade de fundamentar respostas de modelos na Busca do Google, podemos aumentar melhor a relevância dos resultados da nossa experiência de conversação, Ipsos Facto, com dados novos”, disse JC Escalante da Ipsos. “Essa capacidade é um componente chave em nossos esforços para melhorar a qualidade dos resultados e a experiência do pesquisador.”
"A base da Busca do Google se traduz em respostas mais precisas, atualizadas e confiáveis", disse Spencer Chan, líder de produto do Quora, que oferece Ancoramento com Google Search em sua plataforma Poe. “Ficamos muito satisfeitos com o feedback positivo até o momento, já que os usuários agora podem interagir com os bots Gemini com ainda mais confiança.”
Os clientes podem clicar aqui para começar a usar o Ancoramento com Google Search.
Além disso, anunciamos hoje que, a partir do próximo trimestre, a Vertex AI oferecerá um novo serviço que irá permitir aos clientes ancorar seus agentes de IA com dados especializados de terceiros. Isso ajudará as empresas a integrar dados de terceiros em seus agentes de IA generativa para desbloquear casos de uso exclusivos e promover maior verdade empresarial em suas experiências de IA. Estamos trabalhando com fornecedores importantes como Moody's, MSCI, Thomson Reuters e Zoominfo para trazer seus dados para este serviço.
“As ofertas de dados de terceiros do Google Cloud abrirão novas aplicações para a KPMG e nossos clientes”, disse Brad Brown, CTO Global Fiscal e Jurídico da KPMG . “Ao integrar perfeitamente dados especializados de terceiros de líderes do setor em nossas ofertas de IA generativa, podemos reduzir o tempo de obtenção de insights, conduzir tomadas de decisão mais informadas e, em última análise, agregar maior valor usando fontes de dados altamente confiáveis.”
Clique aqui para saber mais sobre Ancoramento.
Respostas mais factuais: Ancoramento com modo de alta fidelidade
Em setores com uso intensivo de dados, como serviços financeiros, saúde e seguros, os casos de uso de IA generativa geralmente exigem que a resposta gerada seja proveniente apenas do contexto fornecido, e não do conhecimento mundial do modelo. O Ancoramento com Alta Fidelidade, anunciado na visualização experimental, foi desenvolvido especificamente para dar suporte a esses casos de uso de ancoramento, incluindo resumo em vários documentos, extração de dados em um conjunto de dados financeiros ou processamento em um conjunto predefinido de documentos. O modo de alta fidelidade é alimentado por uma versão do Gemini 1.5 Flash que foi ajustada para usar apenas conteúdo fornecido pelo cliente para gerar respostas e garantir altos níveis de factualidade nas respostas.
Melhores opções para soberania de dados: residência de dados para dados armazenados em repouso e limitação do processamento de machine learning à região
Os clientes, especialmente aqueles de setores regulamentados, exigem controle sobre onde seus dados armazenados e processados ao usar recursos de IA generativa. Para atender a esses requisitos de soberania de dados, oferecemos garantias de residência de dados para dados armazenados em repouso em 23 países, com garantias adicionais em torno da limitação relacionada ao processamento de machine learning para os EUA e a UE. Desses 23 países, 13 foram adicionados em 2024 e incluem Espanha, Itália, Israel, Suíça, Polônia, Finlândia, Brasil, Índia, Taiwan, Hong Kong, Austrália, KSA e Catar. Estamos também trabalhando na expansão dos nossos compromissos de processamento de machine learning para mais oito países, começando com quatro países em 2024.
Comece a usar a Vertex AI hoje mesmo
Como demonstram as histórias de clientes que compartilhamos hoje, a Vertex AI ajuda as empresas a transformar o poder da IA generativa em resultados tangíveis e transformadores. Esperamos continuar trazendo inovações como Gemini 1.5 Flash e Ancoramento com Google Search para nossos clientes e tornar a Vertex AI a plataforma de IA generativa mais pronta para empresas.
Para saber mais sobre como a Vertex AI pode ajudar sua organização, clique aqui e, para saber mais sobre como os clientes do Google Cloud estão inovando com IA generativa, leia Como 7 empresas estão colocando as inovações de IA do Google Cloud para funcionar.