Toegankelijkheid
The Keyword Nederland

Publiek beleid

Hoe we samenwerken met de industrie, overheden en het maatschappelijk middenveld om AI vooruit te helpen

Creatieve afbeelding van Google AI

AI is een transformatie. Zelfs na twee decennia van ongekende innovatie onderscheidt AI zich nog steeds als iets bijzonders en een keerpunt voor mensen overal ter wereld. We zien steeds vaker hoe dit kan helpen de ontwikkeling van farmaceutische geneesmiddelen te versnellen, het energieverbruik te optimaliseren, cyberbeveiliging te verbeteren en de toegankelijkheid te vergroten.

Terwijl we gebruiksscenario's blijven uitbreiden en technische vooruitgang boeken, weten we dat het belangrijker dan ooit is dat we ons werk niet afgezonderd doen van de rest; de industrie, overheden, onderzoekers en het maatschappelijk middenveld moeten samenwerken en verantwoordelijk zijn. Alleen zo kunnen we kennis uitbreiden en delen, manieren identificeren om nieuwe risico's te beperken en misbruik te voorkomen, en de ontwikkeling bevorderen van instrumenten om de transparantie van de inhoud voor mensen overal ter wereld te vergroten.

Sinds het begin is dat onze aanpak geweest. Hieronder volgt een overzicht van samenwerkingen, toezeggingen en codes waaraan Google deelneemt om het potentieel van AI op een verantwoorde manier vorm te geven.

Industriecoalities, partnerschappen en raamwerken

  • Frontier Model Forum: Google lanceerde samen met Anthropic, Microsoft en OpenAI het Frontier Model Forum om de veilige en verantwoorde ontwikkeling van frontier AI-modellen te bevorderen. De Forum-partners hebben samen met filantropische partners ook meer dan $ 10 miljoen toegezegd voor een nieuw AI-veiligheidsfonds om onderzoek te bevorderen naar manieren waarop de samenleving de meest capabele AI-modellen effectief kan testen en evalueren.
  • Partnership on AI (PAI): We hebben PAI helpen ontwikkelen als onderdeel van een gemeenschap van experts die zich inzetten voor het bevorderen van verantwoorde praktijken bij de ontwikkeling, creatie en het delen van AI, inclusief media die zijn gemaakt met generatieve AI.
  • MLCommons: Wij maken deel uit van MLCommons, een collectief dat tot doel heeft machine learning-innovatie te versnellen en de positieve impact ervan op de samenleving te vergroten.
  • Secure AI Framework (SAIF): We hebben een raamwerk geïntroduceerd voor veilige AI-systemen om de risico's te beperken die specifiek zijn voor AI-systemen, zoals het stelen van modelgewichten, het vergiftigen van de trainingsgegevens en het injecteren van kwaadaardige input door middel van snelle injectie. Ons doel is om samen te werken met industriële partners om het raamwerk in de loop van de tijd toe te passen.
  • Coalition for Content Provenance and Authenticity (C2PA): We zijn onlangs toegetreden tot de C2PA als lid van de stuurgroep. De coalitie is een sectoroverschrijdende inspanning om mensen meer transparantie en context te bieden op het gebied van digitale inhoud. Google zal helpen bij het ontwikkelen van zijn technische standaard en het verder invoeren van Content Credentials, manipulatiebestendige metadata, die laten zien hoe inhoud in de loop van de tijd is gemaakt en bewerkt.

Ons werk met overheden en het maatschappelijk middenveld

  • Vrijwillige AI-toezeggingen van het Witte Huis: samen met andere bedrijven in het Witte Huis hebben we ons gezamenlijk gecommitteerd aan het bevorderen van verantwoorde praktijken bij de ontwikkeling en het gebruik van kunstmatige intelligentie om ervoor te zorgen dat AI iedereen helpt. En we hebben aanzienlijke vooruitgang geboekt bij het nakomen van onze verplichtingen.
  • G7-gedragscode: Wij ondersteunen de vrijwillige gedragscode van de G7, die tot doel heeft veilige, betrouwbare en beveiligde AI wereldwijd te bevorderen.
  • US AI Safety Institute Consortium: We nemen deel aan het AI Safety Institute Consortium van NIST , waar we onze expertise zullen delen terwijl we allemaal werken aan het wereldwijd bevorderen van veilige en betrouwbare AI.
  • UK AI Safety Institute: Het UK AI Safety Institute heeft toegang tot enkele van onze meest capabele modellen voor onderzoeks- en veiligheidsdoeleinden om expertise en capaciteit voor de lange termijn op te bouwen. We werken actief samen om robuustere evaluaties voor AI-modellen op te bouwen, en om consensus te bereiken over best practices naarmate de sector vooruitgang boekt.
  • National AI Research Resource ( NAIRR ) pilot: We dragen onze geavanceerde tools, reken- en databronnen bij aan de NAIRR-pilot van de National Science Foundation, die tot doel heeft AI-onderzoek in de VS te democratiseren.