Google Cloud rozszerza dostęp do modeli Gemini dla klientów Vertex AI
W grudniu Google zaprezentował Gemini, najbardziej zaawansowany i wielozadaniowy model do tej pory. Od tego momentu wybrani klienci, w tym Samsung i Palo Alto Networks, tworzą zaawansowanych agentów AI na bazie modeli Gemini w Vertex AI, odblokowując nowe poziomy produktywności, dostęp do spersonalizowanej nauki i nie tylko. Dzisiaj udostępniamy naszym klientom kolejne zaktualizowane modele Gemini o szerszej dostępności:
- Gemini 1.0 Pro, nasz najlepszy model do skalowania zadań AI, jest teraz dostępny dla wszystkich klientów Vertex AI. Od dzisiaj każdy deweloper może tworzyć rozwiązania produkcyjne oparte na Gemini Pro. Model 1.0 Pro oferuje najlepszy stosunek jakości, wydajności i kosztów w przypadku większości zadań AI, takich jak generowanie treści, edycja, streszczanie i klasyfikacja.
- Gemini 1.0 Ultra, nasz najbardziej zaawansowany i zróżnicowany model do złożonych zadań, jest teraz dostępny w Vertex AI dla wybranych klientów. Model 1.0 Ultra został zaprojektowany z myślą o złożonych zadaniach i wykazuje się wyjątkową wydajnością w obszarach takich jak: wykonywanie skomplikowanych instrukcji, kodowanie, rozumowanie i wielojęzyczność. Jest też zoptymalizowany pod kątem generowania wysokiej jakości danych wyjściowych.
Oprócz tego wprowadzamy nową generację modeli Gemini z Gemini 1.5, który zapewnia jeszcze większą wydajność dzięki ulepszonej architekturze.
Pierwszy model Gemini 1.5, który udostępniamy do wczesnego testowania, to Gemini 1.5 Pro, który jest teraz dostępny w prywatnej wersji zapoznawczej w Vertex AI. To model multimodalny średniej wielkości, zoptymalizowany pod kątem skalowania w szerokim zakresie zadań. Działa na podobnym poziomie co 1.0 Ultra nasz największy model. 1.5 Pro wprowadza przełomową eksperymentalną funkcję rozumienia obszernego kontekstu i oferuje najdłuższe okno kontekstowe ze wszystkich powstałych do tej pory wielkoskalowych modeli bazowych. Aplikacje mogą teraz obsługiwać do miliona tokenów. Oznacza to, że 1.5 Pro może jednorazowo przetwarzać ogromne ilości danych – w tym 1 godzinę wideo, 11 godzin nagrań dźwiękowych, ponad 30 000 linii kodu lub ponad 700 000 słów.
Bardziej obszerne okna kontekstowe umożliwiają modelom odwoływanie się do większej liczby informacji, zrozumienie przepływu narracji, utrzymanie spójności dłuższych fragmentów oraz generowanie bogatszych odpowiedzi. Na przykład model 1.5 Pro pozwala firmom:
- Dokładnie analizować całą bibliotekę kodu za pomocą pojedynczego promptu, bez potrzeby dostrajania modelu – obejmuje to rozumowanie i wyciąganie wniosków na podstawie drobnych szczegółów, które programista może łatwo przeoczyć, takich jak błędy, nieefektywne rozwiązania i niespójności w kodzie.
- Wyciągać wnioski na podstawie bardzo długich dokumentów: od porównywania zapisów w umowach po streszczanie i analizowanie tematów oraz opinii przedstawionych w raportach analitycznych, badaniach naukowych czy nawet seriach książek.
- Analizować i porównywać treści obejmujące wielogodzinne nagrania, na przykład odnajdywać konkretne szczegóły w materiałach z wydarzeń sportowych lub identyfikować w nagraniach ze spotkań zadane pytania i precyzyjne odpowiedzi na pytania.
- Umożliwić czatbotom prowadzenie długich rozmów bez pomijania drobnych szczegółów, nawet w przypadku skomplikowanych zadań lub wielu interakcji następujących po sobie.
- Umożliwić hiperpersonalizację poprzez dodawanie do promptu odpowiednich informacji o użytkowniku bez konieczności dostrajania modelu.
Jak klienci wprowadzają innowacje dzięki modelom Gemini
Vertex AI zostało bardzo dobrze przyjęte, a liczba zadań API – od pierwszej do drugiej połowy ubiegłego roku – wzrosła niemalże sześciokrotnie. Jesteśmy pod wrażeniem ciekawych rozwiązań, które klienci tworzą za pomocą modeli Gemini, wykorzystując ich multimodalność i zaawansowane zdolności złożonego rozumowania.
Samsung: Firma Samsung niedawno ogłosiła, że telefony z serii Galaxy S24 to pierwsze smartfony wyposażone w model Gemini. Ich użytkownicy mogą korzystać z funkcji streszczania w natywnych aplikacjach Notatki i Dyktafon. Samsung zapewnia, że dane użytkowników są bezpieczne dzięki wbudowanym zabezpieczeniom i ochronie prywatności w Vertex AI.
Palo Alto Networks: Firma Palo Alto Networks testuje różne zastosowania modeli Gemini, w tym w inteligentnych agentach produktowych, które zapewniają użytkownikom bardziej intuicyjną interakcję z usługami i skracają czas konsultacji z obsługą klienta.
Jasper: Jasper to usługa AI ułatwiająca zespołom marketingowym tworzenie i dostosowywanie treści. Usługa używa modeli Gemini do automatycznego generowania postów na blogi i opisów produktów. Działy marketingu mogą teraz działać szybciej, jednocześnie utrzymując wysoki poziom jakości treści oraz dbając o ich zgodność z głosem marki i wytycznymi marketingowymi.
Quora: Quora, popularna platforma do zadawania pytań i udzielania odpowiedzi, korzysta z Gemini, by pomagać w zarabianiu przez twórców na czacie AI - Poe, na którym użytkownicy mogą rozmawiać z wieloma botami bazującymi na AI. Gemini umożliwia twórcom korzystającym z Poe budowanie niestandardowych botów do różnych zastosowań, w tym pomagających pisać, generować kod, uczyć się i w wielu innych zadaniach.
Twórz aplikacje gotowe do produkcji dzięki Gemini API w Vertex AI
Gemini API w Vertex AI umożliwia programistom tworzenie kolejnej generacji agentów AI i aplikacji – takich, które mogą jednocześnie przetwarzać informacje w różnych formach, w tym: tekst, kod, obrazy i wideo. Aby wykorzystać potencjał modeli Gemini, organizacje i programiści muszą być w stanie budować aplikacje biznesowe i wprowadzać je do produkcji. Vertex AI to jedyna dostępna w chmurze, jednolita i zintegrowana platforma modeli AI, oferująca narzędzia i infrastrukturę, które umożliwiają łatwe wdrażanie aplikacji z modelami Gemini i zarządzanie nimi. Vertex AI pozwala klientom na:
Dostosowywanie modeli Gemini do konkretnych potrzeb biznesowych. Gemini API w Vertex AI teraz obsługuje dostrajanie oparte na adapterach, w tym Low-Rank Adaptation (LoRA), które umożliwia programistom bardziej wydajne i mniej kosztowne dostosowywanie modelu. W nadchodzących miesiącach umożliwią to dodatkowe elementy w Gemini API, takie jak uczenie się przez wzmocnienie na podstawie informacji zwrotnych (RLHF) i destylacja.
Rozszerzanie odpowiedzi modeli Gemini o bieżące informacje i umożliwienie modelowi podejmowania działań w świecie rzeczywistym. Dzięki wsparciu dla w pełni zarządzanego ugruntowania programiści mogą doprecyzować odpowiedzi modelu Gemini, używając danych własnych firmy. Ogólnodostępna możliwość wywoływania funkcji pozwala programistom łączyć model Gemini z zewnętrznymi interfejsami API w celu realizacji transakcji i wykonywania innych działań.
Skalowanie Gemini w produkcji z użyciem specjalnych narzędzi dla łatwego wdrażania i utrzymania aplikacji. Vertex AI oferuje zautomatyzowane narzędzie do oceny modeli generatywnej AI: Automatic Side by Side. Ta funkcja porównuje odpowiedzi modeli według standardowego zestawu kryteriów, co pomaga programistom ocenić wydajność Gemini oraz dostosować prompty i dostroić model na podstawie informacji zwrotnych.
Tworzenie wyszukiwarek i czatbotów opartych na modelach Gemini szybko i bez konieczności posiadania rozległej wiedzy programistycznej.
- Vertex AI Search zapewnia programistom gotowy system wyszukiwania informacji i generowania odpowiedzi, których jakość jest na poziomie wyszukiwarki Google. Dzięki modelom Gemini programiści mogą tworzyć aplikacje, które są jeszcze solidniej ugruntowane i zapewniają dokładne cytaty oraz satysfakcjonujące odpowiedzi.
- Vertex AI Conversation oferuje możliwość budowania zaawansowanych czatbotów bazujących na generatywnej AI przy użyciu modeli Gemini. Zaawansowana umiejętność wyciągania wniosków i multimodalność pozwalają programistom tworzyć bardziej spersonalizowane, pomocne i angażujące aplikacje wykorzystujące konwersacyjną AI.
Era Gemini dopiero się zaczyna – nie zostawaj w tyle
Programiści mogą tworzyć aplikacje gotowe do produkcji w Vertex AI – usłudze, która oferuje narzędzia klasy biznesowej do augmentacji, testowania i wdrażania modeli oraz zarządzania nimi. Mogą też wypróbować modele Gemini, korzystając z API dostępnego w Google AI Studio, czyli darmowym, działającym w przeglądarce narzędziu dla programistów służącym do tworzenia prototypów i szybkiego wdrażania aplikacji za pomocą klucza API. Nie możemy doczekać się nowej generacji inteligentnych aplikacji i rozwiązań, które stworzą nasi klienci w oparciu o te nowe modele Gemini.
Era Gemini dopiero się zaczyna, jednak jeśli Twoja organizacja nie chce zostać z tyłu, upewnij się, że jest zarejestrowana jako zaufany tester nadchodzących modeli Gemini (aby to zrobić, skontaktuj się z zespołem obsługi klienta).
Koniecznie dołącz do organizowanego w kwietniu w Las Vegas wydarzenia Google Cloud Next ‘24, aby poznać najnowsze informacje o generatywnej AI. Sprawdź wszystkie nadchodzące wydarzenia by być na bieżąco z dokładnymi analizami produktów oraz strategiami.