Zásady a principy při výběru a kontrole webového obsahu
Letos jsme na konferenci Google I/O představili nové produkty a experimenty založené na umělé inteligenci, které vycházejí z našeho dlouholetého výzkumu v této oblasti. Zavázali jsme se vyvíjet AI odpovědně s cílem maximalizovat pozitivní přínos pro společnost a současně překonávat související výzvy. Dodržujeme přitom naše zásady pro AI a dbáme našeho závazku chránit soukromí uživatelů .
Věříme, že pestrý obsahový ekosystém slouží ku prospěchu všem. Klíčové proto je, aby mohli provozovatelé webů spravovat a kontrolovat svůj obsah, a aby jim webový ekosystém nadále přinášel užitek. Uvědomujeme si, že stávající mechanismy správy webů byly vytvořeny ještě před nástupem nových způsobů využití umělé inteligence a souvisejícího bádání.
Nástup nových technologií představuje pro webovou komunitu příležitost vytvořit standardy a protokoly potřebné pro další rozvoj webových stránek. Jeden takový standard, robots.txt , byl vyvinut webovou komunitou před téměř 30 lety. Provozovatelům webů se osvědčil jako jednoduchý a transparentní nástroj, jak kontrolovat vyhledávače při procházení jejich obsahu. Věříme, že nastal čas, aby webové a AI komunity prozkoumaly další nástroje pro výběr a kontrolu obsahu webů s ohledem na nové příklady využití umělé inteligence.
Rádi bychom tímto otevřeli veřejnou diskusi a vyzvali členy webových a AI komunit, aby se k návrhům nových doplňkových protokolů vyjádřili. Uvítáme, když se do diskuse zapojí co nejširší škála hlasů z řad provozovatelů webů, občanské společnosti, akademické obce a dalších oborů z celého světa. Zájemce o účast v této diskusi v následujících měsících oslovíme.
Po registraci na našich webových stránkách se můžete zapojit do diskuse a už brzy se dozvíte další informace o tomto procesu.