Przejdź do głównego menu
Blog Google Polska

Sztuczna inteligencja

Zapytaj eksperta: czym jest generatywna sztuczna inteligencja?



Mapa koncepcyjna z różnymi pomarańczowymi, niebieskimi i zielonymi kształtami, połączonymi cienkimi czarnymi liniami.

Ekspert Google zajmujący się AI rozkłada tę technologię na czynniki pierwsze. 

Ostatnio poszerzyliśmy dostęp do Barda, wczesnej fazy eksperymentu umożliwiającego współpracę z generatywną AI. Bard opiera się na dużym modelu językowym (LLM), będącym rodzajem modelu systemów uczących się. Zdolność takich technologii do generowania naturalnie brzmiącego języka jest powszechnie znana. Z tego względu często zamiennie używana jest nazwa „generatywna AI”. Tak jak w przypadku wielu nowych technologii pojawia się tu mnóstwo pytań, co jest zupełnie normalne. Ludzie zastanawiają się chociażby, czym generatywna AI tak naprawdę jest. 

O odpowiedź na najczęstsze pytania o generatywną AI, duże modele językowe (LLM), systemy uczące się i inne zagadnienia poprosiliśmy Douglasa Ecka, starszego dyrektora ds. badań w Google. Doug działa na pierwszej linii frontu w projektach związanych z AI, ale ma również doświadczenie w badaniach nad literaturą i muzyką. To połączenie obszaru technicznego i kreatywnego szczególnie uprawnia go do wyjaśnienia, jak działa generatywna AI i jakie może mieć znaczenie dla przyszłości technologii i kreatywności. Oto co miał do powiedzenia. 

Zanim zgłębimy tajniki generatywnej AI, musimy porozmawiać bardziej ogólnie o samej sztucznej inteligencji. To jedno z tych intrygujących, ale często dość nieprecyzyjnych pojęć. Czym dokładnie jest AI?

AI to termin ogólny, stosowany do opisywania wszystkich rodzajów zaawansowanych systemów komputerowych. Wolę mówić bardziej konkretnie o „systemach uczących się”. Większość tego, co dziś obserwujemy w odniesieniu do AI, to tak naprawdę zastosowanie systemów uczących się: obdarzanie systemów komputerowych umiejętnością uczenia się na przykładach. 

Maszyny zaprogramowane pod kątem uczenia się na przykładach nazywamy sieciami neuronowymi. Jednym z podstawowych sposobów uczenia tych sieci jest podawanie mnóstwa przykładów, z których mogą wyciągać wnioski, czyli na przykład pytanie ich, co widać na obrazku. Nazywamy to klasyfikacją. Jeśli chcemy nauczyć sieć, jak rozpoznać słonia, potrzebny będzie człowiek, który wprowadzi do niej dużo przykładów wyglądu słoni – zdjęć z odpowiednimi tagami. W ten sposób model uczy się odróżniać słonia od innych elementów zdjęcia. Modele językowe to kolejny typ sieci neuronowej. 

Jak działają modele językowe?

Zasadniczo modele językowe przewidują, jakie słowo będzie następne w sekwencji. Trenujemy te modele z wykorzystaniem dużych ilości tekstu, aby lepiej rozumiały, jakie słowo prawdopodobnie się pojawi. Jednym ze sposobów na ulepszenie modelu językowego, choć nie jedynym, jest podanie mu większej liczby zasobów do „czytania” – czyli trenowanie go z użyciem większej ilości danych. To tak jak zadaje się materiał uczniom czy studentom. Jeśli zaczniesz wpisywać wyrażenie „Marysia kopnęła…”, model językowy wytrenowany z użyciem dostatecznej ilości danych powinien przewidzieć zdanie „Marysia kopnęła piłkę”. Bez wystarczającego treningu zaproponuje tylko „okrągły obiekt¨ lub tylko jego kolor „żółty”. Im więcej danych zostanie wykorzystanych do trenowania modelu językowego, tym bardziej zniuansowany się on stanie. Tym większa również szansa, że będzie wiedział, co najprawdopodobniej kopnęła Marysia. 

W ostatnich latach nastąpiło kilka poważnych przełomów w dziedzinie ulepszania modeli językowych – od skalowania ich rozmiaru po ograniczanie ilości danych niezbędnych do wykonania określonych zadań. 

Modele językowe weszły już do powszechnego użycia i pomagają użytkownikom i użytkowniczkom. Znajdziesz je między innymi w Inteligentnym tworzeniu wiadomości i Inteligentnej odpowiedzi w Gmailu. Na modelach językowych opiera się oczywiście również Bard. 

OK. Zdefiniowaliśmy pojęcia AI oraz modeli językowych. A co z generatywną AI?

Model generatywny może wykorzystać to, czego nauczył się z przykładów, które mu pokazano, a potem na podstawie tych informacji stworzyć coś zupełnie nowego. Dlatego właśnie jest „generatywny”. Duże modele językowe (LLM) stanowią jeden z typów generatywnej AI, ponieważ generują nowe kombinacje tekstów w formie naturalnie brzmiącego języka. Możemy też budować modele językowe umożliwiające generowanie innych rodzajów treści, na przykład nowe obrazy, dźwięki, a nawet filmy, jak w projektach Imagen, AudioLM czy Phenaki.

U wielu osób rodzi to ważne pytanie: co generatywna AI oznacza dla dziedzin kreatywnych i ogólnie dla kreatywności? 

Myślę, że jeśli chodzi o dziedziny kreatywne, mamy do czynienia z dużym potencjałem. Spójrzmy na to pod kątem eliminacji części niewdzięcznych, powtarzalnych i nieciekawych zadań, takich jak tworzenie kolejnych wersji roboczych. Nie musimy widzieć w AI czegoś, co zawłaszcza obszar wrodzonej kreatywności. Jako badacz zajmujący się muzyką podchodzę do generatywnej AI tak samo jak kiedyś postrzegano wprowadzenie automatu perkusyjnego. Automat perkusyjny generował rytm odmienny od tego, jak brzmiała gra perkusistów, i to przyczyniło się do powstania zupełnie nowych gatunków muzyki. 

Na przykład mnóstwa utworów w latach 80.

Oczywiście. Automat perkusyjny pomógł też rozwinąć się hip-hopowi na Bronksie. Dzięki temu nowemu rozwiązaniu technologicznemu w muzyce narodził się cały nowy gatunek. Automat perkusyjny nie zastąpił perkusistów, po prostu ustawił się obok nich. 

Jak najbardziej tkwi w tym sporo możliwości. Co jednak z potencjalnymi wyzwaniami? 

Wychowałem dwoje dzieci i zdobyłem dyplom z literatury, zanim zająłem się informatyką, dlatego sam zadaję sobie pytania, jak tak naprawdę nauczyciele będą oceniać uczniów w świecie, w którym generatywna AI może napisać całkiem dobre wypracowanie na przyzwoity stopień. 

Jeśli jednak sięgniemy wstecz, do czasów, gdy pojawiły się kalkulatory, skąd nauczyciele mieli wiedzieć, czy uczniowie samodzielnie rozwiązują zadania z matematyki? Edukacja rozwijała się dzięki zrozumieniu, jakimi narzędziami dysponują uczniowie, i wymaganiu od nich prezentowania swojej pracy w nowy sposób. 

Firmy – w tym nasza – mają obowiązek dokładnie przeanalizować, do czego te modele będą służyć i jak zadbać o to, aby doszło do ewolucji, a nie do zniszczenia. 

Cieszę się, że wypłynęła kwestia odpowiedzialności. Możesz powiedzieć coś na temat podejścia Google do rozwijania systemów uczących się? 

Jak zawsze nie spieszymy się, tylko staramy się działać z głową. Jeśli tworzymy produkt lub usługę, chcemy być pewni, że będzie to przydatne i nie będzie nikomu szkodzić. W 2018 roku jako jedna z pierwszych firm opracowaliśmy i opublikowaliśmy zasady dotyczące AI. Wprowadziliśmy też wewnętrzne mechanizmy ułatwiające przestrzeganie tych zasad. Dzisiaj w naszych pracach nad sztuczną inteligencją uczestniczy grupa działająca w Google na rzecz odpowiedzialnej AI oraz wiele innych zespołów skupiających się na unikaniu uprzedzeń, toksyczności oraz innych szkodliwych zachowań podczas rozwijania nowych technologii. 

Wspomniałeś, że te ogromne skoki technologiczne przekładają się już na drobne, pomocne rozwiązania. A jak dużym skokiem dla społeczeństwa może być generatywna AI? 

Wiemy już, że maszyny mogą rozwiązywać proste problemy, czyli klasyfikować obrazy i generować dokumenty. Myślę jednak, że jesteśmy gotowi na bardziej ambitne zadania, na przykład rozwiązywanie problemów wymagających złożonego rozumowania. Obecnie generatywna AI może pomóc napisać list seryjny. W przyszłości być może usprawni procesy kreatywne i przepływy pracy, odciążając użytkownika, aby mógł zająć się rozwiązywaniem zupełnie nowych problemów z całkiem innym nastawieniem. Dzięki współpracy i eksperymentowaniu z czasem odkryjemy jeszcze więcej korzyści związanych z generatywną AI.