10 najważniejszych momentów AI
Bez wątpienia sztuczna inteligencja to ostatnio głośny temat. Jednak w Google, już od samego początku poświęcaliśmy jej dużo uwagi. AI może ułatwiać wykonywanie rutynowych zadań i pomagać w rozwiązywaniu największych problemów społeczeństwa. Z okazji 25-lecia przyjrzyjmy się 10 najważniejszym do tej pory wydarzeniom związanym ze sztuczną inteligencją w Google. Zrobiliśmy już dużo, ale wiemy, że jeszcze wiele przed nami.
2001: Korzystanie z systemów uczących się do sprawdzania pisowni w wyszukiwarce
Współzałożyciel Google, Larry Page, powiedział kiedyś: „Idealna wyszukiwarka powinna dokładnie zrozumieć, co masz na myśli, i dać Ci dokładnie to, czego potrzebujesz”. W 2001 roku zrobiliśmy duży krok w kierunku realizacji tej wizji, kiedy po raz pierwszy zaczęliśmy używać prostej wersji systemów uczących się, aby sugerować poprawki pisowni podczas wpisywania zapytań do wyszukiwarki. Dzięki temu każdy mógł znaleźć potrzebne informacje w internecie, nawet jeśli nie był mistrzem ortografii.
2006: Przełamywanie barier językowych dzięki Tłumaczowi Google
Pięć lat później, w 2006 roku, wprowadziliśmy na rynek Tłumacza Google, który wykorzystuje systemy uczące się do automatycznego tłumaczenia treści w innych językach. Zaczęliśmy od tłumaczeń z języka arabskiego na język angielski i odwrotnie, ale dziś Tłumacz Google obsługuje 133 języki, którymi posługują się 3 miliardy osób na całym świecie. Dzięki temu możecie tłumaczyć tekst, obrazy, a nawet rozmowę w czasie rzeczywistym, co znacznie ułatwia komunikację i zwiększa dostęp do informacji bardziej niż kiedykolwiek wcześniej.
2015: TensorFlow demokratyzuje sztuczną inteligencję
Wprowadzenie TensorFlow, nowej platformy uczenia maszynowego typu open source, sprawiło, że sztuczna inteligencja stała się bardziej dostępna, skalowalna i wydajna. Pomogło to również przyspieszyć tempo badań i rozwoju sztucznej inteligencji na całym świecie. TensorFlow jest obecnie jednym z najpopularniejszych frameworków uczenia maszynowego i został wykorzystany do opracowania szerokiej gamy aplikacji bazujących na sztucznej inteligencji, od rozpoznawania obrazów po przetwarzanie języka naturalnego i tłumaczenie maszynowe.
2016: AlphaGo pokonuje mistrza świata w Go
W ramach Google DeepMind Challenge Match, ponad 200 milionów ludzi oglądało online, jak AlphaGo stał się pierwszym programem AI, który pokonał mistrza świata w Go - złożonej grze planszowej, wcześniej uważanej za niedostępną dla maszyn. To przełomowe zwycięstwo pokazało potencjał głębokiego uczenia się do rozwiązywania złożonych problemów, które kiedyś uważano za niemożliwe do rozwiązania przez komputery. Zwycięstwo AlphaGo nad Lee Sedolem, jednym z najlepszych graczy Go na świecie, wywołało globalną dyskusję na temat przyszłości sztucznej inteligencji i pokazało, że systemy AI mogą teraz nauczyć się opanowywać złożone gry wymagające strategicznego myślenia i kreatywności.
2016: Jednostki TPU umożliwiają szybsze i bardziej wydajne wdrażanie sztucznej inteligencji
Jednostki przetwarzania tensorowego (TPU) to specjalnie zaprojektowane układy krzemowe, które opracowaliśmy z myślą o uczeniu maszynowym i zoptymalizowaliśmy pod kątem TensorFlow. Mogą one trenować i uruchamiać modele AI znacznie szybciej niż tradycyjne chipy, co czyni je idealnymi do zastosowań AI na dużą skalę. Wersja v5e, ogłoszona w sierpniu, jest jak dotąd najbardziej opłacalną, wszechstronną i skalowalną jednostką Cloud TPU.
2017: Opracowanie Transformera
W naszym artykule badawczym z 2017 roku pt.: Attention Is All You Need („Potrzebujemy jedynie uwagi”) przedstawiliśmy nową architekturę sieci neuronowej Transformer, która pomaga w zrozumieniu języka. Wcześniej maszyny nie do końca radziły sobie z rozumieniem znaczenia długich zdań, ponieważ nie widziały powiązań między słowami, które były od siebie oddalone w danym zdaniu. Transformer rozwiązał ten problem i od tego czasu jest używany do poprawy wydajności tłumaczeń maszynowych, podsumowań tekstu i systemów odpowiadania na pytania. Stanowi nawet podstawę współczesnych systemów generatywnej AI, np. Barda.
2019: BERT - rozumienia zapytań łatwiejsze dla wyszukiwarki
Nasze badania nad transformatami doprowadziły do wprowadzenia BERT (czyli Bidirectional Encoder Representations from Transformer), które pomogły wyszukiwarce zrozumieć zapytania użytkowników lepiej niż kiedykolwiek wcześniej. Zamiast starać się zrozumieć pojedyncze słowa, nasze algorytmy BERT pomogły Google zrozumieć cały kontekst. Doprowadziło to do znaczącej poprawy jakości w całej wyszukiwarce i ułatwiło ludziom zadawanie pytań w naturalny sposób, a nie poprzez łączenie słów kluczowych.
2020: Rozwiązanie problemu zwijania białek dzięki modelowi AlphaFold
W 2020 r, laboratorium DeepMind dokonało kolejnego skoku w dziedzinie AI, wprowadzając model systemów uczących się zwany AlphaFold. W 2020 roku ten model został uznany za rozwiązanie „problemu zwijania się białek”. Białka są elementami składowymi organizmów żywych, a sposób, w jaki się zwijają, determinuje ich funkcję. Nieprawidłowo zwinięte białko może powodować choroby. Przez 50 lat naukowcy próbowali przewidzieć sposób zwinięcia białka, aby pomóc w zrozumieniu i leczeniu chorób. Model AlphaFold właśnie to umożliwił. W 2022 r. udostępniliśmy naukowcom 200 milionów struktur białkowych AlphaFold - obejmujących prawie każdy organizm na planecie, który miał sekwencjonowany genom - za pośrednictwem Bazy Danych Struktur Białkowych AlphaFold. Ponad milion badaczy wykorzystało już tę bazę do pracy. Dzięki temu m.in. przyspieszone zostały prace nad nową szczepionką na malarię, dokonany został postęp w odkrywaniu leków przeciwnowotworowych, opracowany został enzym zjadający plastik.
2023: Pomoc we współpracy z generatywną AI dzięki Bardowi
LaMDA, konwersacyjny duży model językowy stworzony przez Google Research w 2021 roku, utorował drogę wielu systemom generatywnej sztucznej inteligencji, które zawładnęły wyobraźnią świata, w tym Barda. Uruchomiony w marcu tego roku Bard jest teraz dostępny w większości krajów świata i w ponad 40 językach, dzięki czemu można go używać do zwiększania produktywności, przyspieszania pomysłów i podsycania ciekawości. Najmądrzejszy i najbardziej wydajny model Barda połączyliśmy z usługami Google, z których korzystacie na co dzień, takimi jak Gmail, Dokumenty, Dysk, Loty, Mapy i YouTube. To wszystko po to, by jeszcze bardziej pomóc Wam w zadaniach, takich jak planowanie podróży, sprawdzanie i podsumowywanie wiadomości e-mail lub dokumentów.
2023: Postępy w kwestii przyszłości AI dzięki modelowi PaLM 2
W maju wprowadziliśmy PaLM 2 – nasz duży model językowy nowej generacji, który zwiększył możliwości wielojęzyczności, rozumowania i kodowania. Jest szybszy i wydajniejszy niż jego poprzednicy i obsługuje już ponad 25 usług i funkcji Google, w tym Barda i funkcje generatywnej AI w Gmailu i Workspace. Modelu PaLM 2 używamy również do wewnętrznego wspierania badań we wszystkich dziedzinach, od zdrowia po cyberbezpieczeństwo.
To tylko niektóre z innowacji Google w zakresie AI, które mają zastosowanie w wielu usługach używanych codziennie przez miliardy ludzi. Przestrzegając Zasad dotyczących AI, stosujemy odważne i odpowiedzialne podejście do sztucznej inteligencji. Pracujemy już nad Gemini, czyli naszym kolejnym modelem stworzonym z myślą o przyszłych innowacjach, które wprowadzimy w ciągu następnych 25 lat.