Przejdź do głównego menu
Blog Google Polska

Google Cloud

Vertex AI: platforma dla przedsiębiorstw wykorzystujących generatywną AI

Grafika

Niecałe trzy miesiące temu udostępniliśmy 101 przykładów zastosowania generatywnej sztucznej inteligencji zrealizowanych przez wiodące firmy na świecie. Od tego czasu Google DeepMind kontynuuje prace nad modelami sztucznej inteligencji, skupiając się na Gemini i Imagen, aby umożliwić firmom szybsze wdrażanie wirtualnych agentów AI. W tym samym czasie dostarczyliśmy również dziesiątki nowych funkcji na platformie Vertex AI.

Firmy z różnych branż, takie jak UberEats, Ipsos, Jasper, Shutterstock czy Quora, wykorzystują generatywną sztuczną inteligencję do tworzenia nieszablonowych rozwiązań. Dzięki Google Cloud mogą one szybciej wdrażać i skalować swoje projekty AI, co pozwala im na osiąganie o wiele lepszych rezultatów.

Od czasu wprowadzenia Gemini 1.5 Pro możliwości AI znacząco poszerzyły się, a my obserwujemy szereg kreatywnych rozwiązań u klientów, którzy odkrywają nowe sposoby na pracę ze swoimi danymi. Oto kilka przykładów:

  • Sieć restauracji fast food korzysta z Gemini do analizy nagrań wideo z monitoringu swoich placówek. Celem jest identyfikacja szczytowych godzin ruchu i optymalizacja pracy sklepów w celu poprawy obsługi klienta. W planach jest również integracja analizy wideo z danymi sprzedażowymi, co pozwoli na lepsze zrozumienie czynników wpływających na efektywność i sukces obsługi.
  • Instytucja finansowa wykorzystuje możliwości multimedialne Gemini do automatycznego i szybkiego przetwarzania zeskanowanych obrazów dokumentów tożsamości z przesłanych formularzy danych. Celem jest porównanie informacji z obrazów i tekstu w celu weryfikacji ich dokładności. To rozwiązanie usprawnia proces otwierania i dostępu do kont dla klientów, zapewniając im większą wygodę.
  • Firma sportowa korzysta z Gemini do pogłębionej analizy techniki uderzeń zawodników. Dzięki integracji wniosków uzyskanych z Gemini z istniejącą aplikacją analityczną, firma wzmacnia funkcjonalność narzędzia.
  • Firma ubezpieczeniowa wykorzystuje Gemini do analizy nagrań z kamer samochodowych z wypadków, co pozwala na lepsze zrozumienie i opisanie scenariuszy zdarzeń. Analiza ta może pomóc w obliczeniu oceny ryzyka, a nawet zapewnić spersonalizowane wskazówki dotyczące jazdy w oparciu o zaobserwowane zachowania.

Oprócz pozytywnego odbioru ze strony klientów, Gemini cieszy się również uznaniem ze strony analityków branżowych. W ciągu ostatnich dwóch miesięcy firma Forrester Research uznała Google za lidera w raporcie o podstawowych modelach językowych, a firma Gartner® uznała Google za lidera w Magic w raporcie Quadrant 2024™ – AI w usługach dla deweloperów.

Kontynuujemy rozwój i ogłaszamy znaczące ulepszenia naszych modeli i możliwości platformy Vertex AI.

Gemini 1.5 Flash: najlepszy na rynku stosunek ceny do wydajności i niskie opóźnienia

Zapowiedziany w zeszłym miesiącu w wersji demo, a teraz ogólnie dostępny, Gemini 1.5 Flash łączy niskie opóźnienia, konkurencyjne ceny i nasze przełomowe okno kontekstowe o pojemności 1 miliona tokenów, co czyni go doskonałą opcją dla szerokiej gamy przypadków użycia na dużą skalę, od agentów czatu detalicznego, przez przetwarzanie dokumentów, po agentów badawczych, którzy mogą syntetyzować całe repozytoria.

Co najważniejsze, silne możliwości Gemini 1.5 Flash, niskie opóźnienia i efektywność kosztowa szybko stały się ulubionymi przez naszych klientów, oferując wiele przekonujących zalet w porównaniu z porównywalnymi modelami, takimi jak GPT 3.5 Turbo:

  • Okno kontekstowe o rozmiarze 1 miliona tokenów, które jest około 60 razy większe niż okno kontekstowe zapewniane przez GPT-3.5 Turbo
  • Średnio o 40% szybszy niż GPT-3.5 Turbo przy danych wejściowych składających się z 10 000 znaków3.
  • Do 4 razy niższa cena danych wejściowych niż w przypadku GPT-3.5 Turbo, z włączonym buforowaniem kontekstu dla danych wejściowych większych niż 32 000 znaków.

Firmy i deweloperzy mogą rozpocząć korzystanie z Gemini 1.5 Flash na platformie Vertex AI, klikając w link.

Gemini 1.5 Pro: z wiodącym w branży oknem kontekstowym obsługującym nawet 2 miliony tokenów

Gemini 1.5 Pro, z wiodącym w branży oknem kontekstowym do 2 milionów tokenów, ma możliwość wykonywania bardziej złożonych i szczegółowych instrukcji, których nie obsługuje żaden inny model.

Przetworzenie zaledwie 6 minut filmu wymaga ponad 100 000 tokenów, a obsługa dużych baz danych może pochłonąć ponad milion tokenów. Niezależnie od tego, czy dany przypadek obejmuje wyszukiwanie błędów w niezliczonych linijkach kodu, zlokalizowanie odpowiednich informacji w zbiorach z wynikami badań czy też przeanalizowanie wielogodzinnych nagrań audio lub wideo, dzięki Gemini 1.5 Pro można osiągnąć przełomowe wyniki.

Firmy i deweloperzy mogą rozpocząć korzystanie z Gemini 1.5 Pro, klikając w link.

Imagen 3: szybsze generowanie obrazu, lepsza interpretacja promptów

Imagen 3 to najnowszy model generowania obrazów Google. Zapewnia on znakomitą jakość obrazów oraz szereg ulepszeń względem Imagen 2, w tym ponad 40% szybsze generowanie obrazów (w celu szybkiego prototypowania i iteracji), lepsze zrozumienie promptów i przestrzeganie instrukcji, fotorealistyczne generowanie (w tym grup ludzi), oraz większą kontrolę nad renderowaniem tekstu w obrazie.

Imagen 3, uruchomiony w wersji demo dla klientów Vertex AI z wczesnym dostępem, obejmuje również obsługę wielu języków, wbudowane funkcje bezpieczeństwa, takie jak cyfrowy znak wodny SynthID Google DeepMind oraz obsługę wielu współczynników proporcji.

Po prawej stronie obrazu, znajduje się grafika wygenerowana przez Imagen 3 przedstawiająca dmuchawca w ręku na tle łąki.

Klienci mogą ubiegać się o dostęp do Imagen 3 na platformie Vertex AI, klikając w link.

Modele zewnętrzne i otwarte: zapewnienie większego wyboru modeli dzięki Vertex AI

W Google Cloud jesteśmy zaangażowani w umożliwianie klientom wyboru i innowacji poprzez naszą starannie dobraną kolekcję modeli własnych, otwartych i zewnętrznych dostępnych w Vertex AI. Z przyjemnością informujemy, że niedawno dodaliśmy do Vertex AI nowo wydany model Anthropic, Claude 3.5 Sonnet. Klienci mogą zacząć eksperymentować z Claude 3.5 Sonnet w Google Cloud lub wdrażać go w środowisku produkcyjnym. Jeszcze tego lata rozszerzymy współpracę z firmą Mistral, wzbogacając Vertex AI Model Garden o modele Mistral Small, Mistral Large i Mistral Codestral.

Konsekwentnie dbając o zaspokajanie potrzeb klientów na początku tego roku wprowadziliśmy Gemma, rodzinę lekkich, najnowocześniejszych otwartych modeli zbudowanych w oparciu o te same badania i technologie, które zostały wykorzystane do stworzenia modeli Gemini. Oficjalnie udostępniamy Gemma 2 badaczom i deweloperom na całym świecie. Dostępna w wariantach 9 miliardów (9B) i 27 miliardów (27B) parametrów. Gemma 2 oferuje znaczące ulepszenia w zakresie mocy, wydajności i bezpieczeństwa w porównaniu do poprzedniej generacji. Dostęp do modelu w Vertex AI będzie możliwy dla klientów od początku lipca.

Niższe koszty: buforowanie kontekstowe dla Gemini 1.5 Pro i 1.5 Flash

Aby wesprzeć naszych klientów w efektywnym wykorzystaniu obszernych okien kontekstowych Gemini, od dziś udostępniamy buforowanie kontekstu w publicznej wersji demo zarówno dla modelu 1.5 Pro, jak i Flash. Wraz ze wzrostem długości kontekstu uzyskiwanie odpowiedzi dla aplikacji o długim kontekście może być kosztowne i powolne, co utrudnia ich wdrożenie w środowisku produkcyjnym. Buforowanie kontekstu w Vertex AI pomaga klientom znacznie obniżyć koszty wejściowe nawet o 75%, poprzez wykorzystanie buforowanych danych często używanego kontekstu. Obecnie Google jest jedynym dostawcą oferującym interfejs API buforowania kontekstowego.

Przewidywalna wydajność: zapewnienie przepustowości dla modeli Gemini

Dostępna już dziś, z listą oczekujących, funkcja zarządzania przepustowością pozwala klientom na odpowiedzialne korzystanie z funkcji skalowania AI, takich jak Gemini 1.5 Flash. Dzięki niej klienci mają pewność zarówno co do wydajności, jak i kosztów. Platforma Vertex AI zapewnia przewidywalność i niezawodność dla obciążeń produkcyjnych klientów, zapewniając niezbędną przepustowość do dynamicznego skalowania zadań związanych z generatywną sztuczną inteligencją.

Dostarczanie wiarygodnych informacji dla przedsiębiorstw: grounding w wynikach wyszukiwania Google, a teraz także w danych zewnętrznych

Gotowość przedsiębiorstwa do wdrożenia sztucznej inteligencji to coś więcej niż tylko posiadanie modelu. Firmy muszą zadbać o maksymalną rzetelność generowanych informacji i znacząco zminimalizować ryzyko tzw. halucynacji, czyli sytuacji, gdy model generuje nieprawdziwe lub bezpodstawne treści. Oznacza to konieczność oparcia działania modelu na wiarygodnych danych pochodzących z różnych źródeł, zarówno wewnętrznych, jak i zewnętrznych, przy jednoczesnym spełnieniu rygorystycznych standardów korporacyjnych, takich jak ład informacyjny czy suwerenność danych.

Dostarczanie wiarygodnych informacji dla przedsiębiorstw: grounding w wynikach wyszukiwania Google, a teraz także w danych zewnętrznych

Gotowość przedsiębiorstwa do wdrożenia sztucznej inteligencji to coś więcej niż tylko posiadanie modelu. Firmy muszą zadbać o maksymalną rzetelność generowanych informacji i znacząco zminimalizować ryzyko tzw. halucynacji, czyli sytuacji, gdy model generuje nieprawdziwe lub bezpodstawne treści. Oznacza to konieczność oparcia działania modelu na wiarygodnych danych pochodzących z różnych źródeł, zarówno wewnętrznych, jak i zewnętrznych, przy jednoczesnym spełnieniu rygorystycznych standardów korporacyjnych, takich jak ład informacyjny czy suwerenność danych.

Podczas konferencji Google I/O ogłosiliśmy powszechną dostępność funkcji groundingu na podstawie wyszukiwarki Google w Vertex AI. Dzięki temu przedsiębiorstwa każdej wielkości mogą teraz wzbogacać wyniki generowane przez modele Gemini o informacje pochodzące z wyszukiwarki Google, zapewniając modelom dostęp do aktualnych i wysokiej jakości danych. Klienci mogą łatwo zintegrować te ulepszone modele Gemini ze swoimi agentami AI.

Klienci mogą kliknąć tutaj, aby rozpocząć korzystanie z funkcji grounding w wynikach wyszukiwania Google.

Dodatkowo, ogłaszamy, że od przyszłego kwartału Vertex AI zaoferuje nową usługę, która umożliwi klientom korzystanie z wyspecjalizowanych danych zewnętrznych w celu zwiększenia wiarygodności odpowiedzi generowanych przez ich agentów AI. Pomoże to przedsiębiorstwom zintegrować dane zewnętrzne z ich generatywnymi agentami AI, aby odblokować unikalne przypadki użycia i zapewnić większą wiarygodność informacji generowanych przez AI w ramach ich doświadczeń. Współpracujemy z wiodącymi dostawcami, takimi jak Moody's, MSCI, Thomson Reuters i Zoominfo, aby udostępnić ich dane w ramach tej usługi.

Więcej o możliwościach groundingu tutaj.

Bardziej rzetelne odpowiedzi: grounding w trybie wysokiej zgodności

W branżach intensywnie wykorzystujących dane, takich jak usługi finansowe, opieka zdrowotna czy ubezpieczenia, przypadki użycia generatywnej sztucznej inteligencji często wymagają, aby generowana odpowiedź była oparta wyłącznie na dostarczonym kontekście, a nie na wiedzy ogólnej modelu. Funkcja grunding w trybie wysokiej zgodności, ogłoszona w wersji demo, została stworzona specjalnie z myślą o takich przypadkach użycia, w tym o podsumowywaniu wielu dokumentów, ekstrakcji danych z określonego zbioru danych finansowych czy przetwarzaniu w ramach predefiniowanego zestawu dokumentów. Tryb wysokiej wierności działa w oparciu o wersję modelu Gemini 1.5 Flash, która została dopracowana tak, aby generować odpowiedzi wyłącznie na podstawie treści dostarczonych przez klienta, co zapewnia wysoki poziom rzetelności odpowiedzi.

Najlepsze opcje dla suwerenności danych: rezydencja danych dla danych przechowywanych w spoczynku, ograniczenie przetwarzania ML do regionu

Klienci, zwłaszcza ci z branż regulowanych, wymagają kontroli nad miejscem przechowywania i przetwarzania ich danych podczas korzystania z możliwości generatywnej sztucznej inteligencji. Aby sprostać tym wymaganiom dotyczącym suwerenności danych, oferujemy gwarancję rezydencji danych dla danych przechowywanych w spoczynku w 23 krajach (w tym 13 dodanych w 2024 roku: Hiszpania, Włochy, Izrael, Szwajcaria, Polska, Finlandia, Brazylia, Indie, Tajwan, Hongkong, Australia, Arabia Saudyjska, Katar), z dodatkowymi gwarancjami dotyczącymi ograniczenia związanego z tym przetwarzania ML do USA i UE. Pracujemy również nad rozszerzeniem naszych zobowiązań dotyczących przetwarzania ML na osiem kolejnych krajów, zaczynając od czterech krajów w 2024 roku.

Rozpocznijcie pracę z Vertex AI już dziś

Vertex AI pomaga firmom przekształcić potencjał generatywnej sztucznej inteligencji w wymierne, rewolucyjne rezultaty. Z niecierpliwością czekamy na dalsze dostarczanie naszym klientom innowacji takich jak Gemini 1.5 Flash i grounding w wynikach wyszukiwania Google, a także na uczynienie z Vertex AI najbardziej przyjaznej dla przedsiębiorstw platformy generatywnej sztucznej inteligencji.

Aby rozpocząć korzystanie z Gemini 1.5 Flash na Vertex AI, kliknijcie tutaj.

Aby dowiedzieć się więcej o tym, jak Vertex AI może pomóc Waszej organizacji, kliknijcie tutaj, a żeby poznać więcej historii o tym, jak klienci Google Cloud wprowadzają innowacje dzięki generatywnej sztucznej inteligencji, przeczytajcie artykuł „Jak 7 firm wykorzystuje innowacje AI od Google Cloud".