Ons Ads Veiligheidsrapport van 2023
Miljarden mensen over de hele wereld vertrouwen op de diensten van Google om hen te voorzien van relevante en betrouwbare informatie, waaronder advertenties. Dat is waarom we duizenden mensen hebben die 24 uur per dag werken om ons ecosysteem van digitale advertenties te bewaken. Vandaag geven we ons jaarlijkse Ads Veiligheidsrapport uit om te delen wat voor vooruitgang we hebben geboekt in het handhaven op ons beleid voor adverteerders en uitgevers en om onszelf verantwoordelijk te houden in ons werk om een gezond advertentie-ondersteunend internet te behouden.
In 2023 hebben we 5,5 miljard advertenties geblokkeerd of verwijderd, 6,9 miljard advertenties beperkt en meer dan 12,7 miljoen advertentieaccounts opgeschort. Dit representeert een toename op accountniveau van bijna het dubbele van het voorgaande jaar. Daarbij hebben we advertenties geblokkeerd of beperkt van weergave op meer dan 2,1 miljard publicatiepagina's, terwijl dit 1,5 miljard pagina’s waren in 2022. We hebben ook bredere handhavingsacties uitgevoerd op meer dan 395.000 uitgeverssites, waar dit er in 2022 nog 143.000 waren.
Generatieve AI als Game Changer
In 2023 heeft generatieve AI significante en spannende veranderingen aan de digitale advertentie-industrie geïntroduceerd: van AI-aangedreven asset-generatie en foto-editing, tot prestatie-optimalisatie. Natuurlijk brengt generatieve AI ook nieuwe uitdagingen met zich mee. We nemen deze uitdagingen zeer serieus en zijn toegewijd om deze direct aan te pakken. Dit betekent het maken van grote investeringen in onze vaardigheid om snel beleid overtredende AI-gegenereerde content op te sporen en te blokkeren en om nieuwe transparantie-initiatieven in verkiezingsadvertenties toe te passen.
Net zo belangrijk is dat generatieve AI een enorme kans biedt om onze inspanningen omtrent handhaving naar een nieuw niveau te tillen. Onze teams omarmen deze transformatieve technologie, specifiek Large Language Models (LLMs), om de manier waarop we mensen online veilig houden te revolutioneren.
Onze veiligheidscondities hebben lange tijd AI-gedreven machine learning systemen gebruikt om ons beleid op grote schaal te handhaven. Dit is hoe we al jaren miljarden slechte advertenties hebben kunnen opsporen en verwijderen voordat iemand deze ook maar te zien krijgt. Hoewel deze machine learning modellen nog steeds zeer verfijnd zijn, hebben ze historisch gezien honderdduizenden, of zelfs miljoenen, uren aan training nodig met voorbeelden van overschrijdende content.
LLMs, aan de andere kant, kunnen snel een hoog volume aan content beoordelen, terwijl ze tegelijkertijd belangrijke nuances binnen die content kunnen vastleggen. Deze geavanceerde redeneervermogens hebben al op grote schaal geresulteerd in meer nauwkeurige handhavingskeuzes op enkele van onze complexere beleidsstukken. Neem bijvoorbeeld ons beleid tegen onbetrouwbare financiële claims, die advertenties bevatten snel-rijk-worden trucjes. De slechte actoren achter deze typen advertenties zijn verfijnder geworden. Ze passen hun tactieken aan en maken advertenties op maat rond nieuwe financiële producten of diensten, zoals investeringsadvies of digitale valuta’s, om gebruikers op te lichten.
We kijken ernaar uit om dit essentiële werk voort te zetten, met name door de bredere implementatie van Gemini, om te werken aan een veiligere digitale omgeving voor iedereen.
Traditionele machine learning modellen zijn getraind om deze beleidsschendingen op te sporen. Toch zorgt de snelle en continu veranderende aard van financiële advertenties ervoor dat het soms moeilijker is om te differentiëren tussen legitieme en neppe diensten en om onze geautomatiseerde handhavingssystemen op te schalen om oplichters tegen te gaan. LLMs zijn beter in staat om snel nieuwe trends te zien in financiële diensten, patronen te herkennen van slechte actoren die deze trends misbruiken en een legitiem bedrijf zonder snel-rijk-worden trucjes te herkennen. Dit heeft onze teams geholpen om nog handiger te worden in het confronteren van opkomende bedreigingen in elke vorm.
Om de impact van AI op ons veiligheidswerk in perspectief te stellen: vorig jaar startte 90% van onze handhaving op pagina niveau met het gebruik van machine learning modellen, waaronder onze nieuwste LLMs. Natuurlijk kan elke adverteerder of publisher nog steeds bezwaar maken tegen een handhavingsactie als ze denken dat we het fout hadden. Onze teams bekijken dit en, wanneer er fouten gevonden worden, gebruiken we dit om onze systemen te verbeteren.
We zijn pas net begonnen om de kracht van LLMs te benutten voor onze veiligheid. Gemini, wat vorig jaar werd gepubliceerd, is Google’s meest capabele AI model, en we zijn erg blij dat we de verfijnde redeneringsvaardigheden kunnen inzetten in onze advertentieveiligheid en handhaving inspanningen.
"In de dynamische wereld van digitale reclame zet Google zich in voor het creëren van een veiliger en betrouwbaarder online ecosysteem', zegt Stephanie Lap-Peels, Communicatiemanager voor Google Ads in Noord-Europa. "We streven naar een veiliger internet en in 2023 konden we dankzij technologische vooruitgang en hard werk miljarden ongewenste advertenties blokkeren. We kijken ernaar uit om dit essentiële werk voort te zetten, met name door de bredere implementatie van Gemini, om te werken aan een veiligere digitale omgeving voor iedereen."
Mensen beschermen tegen fraude en oplichting
In 2023 namen oplichting en fraude toe op alle online platforms. Slechte actoren ontwikkelen voortdurend hun tactieken om digitale advertenties te manipuleren om zowel mensen als bedrijven op te lichten. Om deze steeds veranderende dreigingen het hoofd te bieden, hebben we het beleid snel bijgewerkt, snelle handhavingsteams ingezet en onze detectietechnieken aangescherpt.
In november hebben we ons beleid gelanceerd omtrent beperkte advertentieweergave, dat is ontworpen om gebruikers te beschermen door het bereik van adverteerders waarmee we minder bekend zijn te beperken. Op basis van dit beleid hebben we een kennismakingsperiode geïmplementeerd voor adverteerders die nog niet hebben bewezen goed gedrag te vertonen. Gedurende deze periode kunnen vertoningen van hun advertenties onder bepaalde omstandigheden beperkt zijn, bijvoorbeeld wanneer er een onduidelijke relatie bestaat tussen de adverteerder en een merk waarnaar hij verwijst. Uiteindelijk zal beperkte advertentieweergave ervoor zorgen dat goedbedoelende adverteerders vertrouwen bij gebruikers kunnen opbouwen, terwijl het bereik van slechte actoren wordt beperkt en het risico op oplichting en misleidende advertenties wordt verminderd. Hoewel het zich nog in de beginfase bevindt, zijn we enthousiast over hoe effectief dit beleid zou kunnen zijn.
Een cruciaal onderdeel van de bescherming van mensen hangt af van ons vermogen om snel op nieuwe misbruik te reageren. Tegen het einde van 2023 en begin 2024 werden we geconfronteerd met een gerichte campagne van advertenties waarin publieke figuren leken op oplichters, vaak door het gebruik van deep fakes. Toen we deze dreiging ontdekten, stelden we een speciaal team samen om onmiddellijk te reageren. We hebben patronen ontdekt in het gedrag van de kwaadwillenden, hebben onze geautomatiseerde handhavingsmodellen getraind om soortgelijke advertenties te detecteren en zijn begonnen om deze op grote schaal te verwijderen. We hebben ook ons beleid tegen verkeerde voorstelling bijgewerkt, zodat we de accounts van slechte actoren sneller kunnen opschorten.
In totaal hebben we in 2023 meer dan 1 miljard advertenties geblokkeerd of verwijderd wegens schending van ons beleid tegen misbruik van het advertentienetwerk, waaronder het promoten van malware. We hebben 206,5 miljoen advertenties verwijderd wegens schending van ons beleid tegen verkeerde voorstelling, waaronder veel zwendel advertentie tactieken. En 273,4 miljoen advertenties wegens overtreding van ons beleid omtrent financiële diensten.
De strijd tegen oplichtingsadvertenties is een voortdurende inspanning, omdat we zien dat slechte actoren verfijnder en op grotere schaal opereren en nieuwe tactieken. We zullen uitgebreide middelen blijven inzetten, aanzienlijke investeringen doen in detectietechnologie en samenwerken met organisaties als de Global Anti-Scam Alliance en Stop Scams UK om het delen van informatie makkelijker te maken en consumenten wereldwijd te beschermen.
Investeren in verkiezingsintegriteit
Politieke advertenties vormen een belangrijk onderdeel van democratische verkiezingen. Partijen en kandidaten gebruiken advertenties om het bewustzijn te vergroten, informatie te delen en potentiële kiezers te betrekken. In een jaar met verschillende grote verkiezingen over de hele wereld willen we ervoor zorgen dat kiezers de verkiezingsadvertenties die ze op onze platforms te zien krijgen, blijven vertrouwen. Daarom hanteren we bestaande vereisten voor identiteitsverificatie en transparantie voor verkiezingsadverteerders, evenals beperkingen voor de manier waarop deze adverteerders hun verkiezingsadvertenties kunnen targeten. Alle verkiezingsadvertenties moeten ook een 'betaald door' melding bevatten en zijn verzameld in ons openbaar beschikbare transparantierapport. In 2023 hebben we ruim 5000 nieuwe verkiezingsadverteerders geverifieerd en ruim 7,3 miljoen verkiezingsadvertenties verwijderd die afkomstig waren van adverteerders die de verificatie niet hadden afgerond.
We erkennen ook de impact die AI kan hebben op de politiek. Jarenlang hebben we strikte regels gehad die gemanipuleerde media, inclusief deep fakes, verbieden. Maar wij zijn ook van mening dat mensen niet hoeven te raden wat echt is of niet, ook al is de advertentie niet bedoeld om te misleiden. Daarom waren we vorig jaar het eerste technologiebedrijf dat een transparantie vereiste lanceerde voor verkiezingsadvertenties die synthetische inhoud bevatten. Naarmate meer adverteerders de krachten en mogelijkheden van AI benutten, willen we ervoor zorgen dat we mensen de mate van transparantie en informatie blijven bieden die ze nodig hebben om weloverwogen beslissingen te nemen.
Daarnaast blijven we ons beleid handhaven tegen advertenties die aantoonbaar valse beweringen promoten over verkiezingen die het vertrouwen in of de deelname aan democratische processen zouden kunnen ondermijnen. In 2023 hebben we de weergave van advertenties op 650.000 pagina's van uitgevers geblokkeerd en hebben we meer dan 30 miljoen advertenties verwijderd wegens schending van ons beleid omtrent onbetrouwbare claims, waaronder verkeerde verkiezingsinformatie, ontkenning van de klimaatverandering en schadelijke gezondheidsclaims.
Vlot blijven en vooruitkijken
Als het gaat om de veiligheid van advertenties, kan er in de loop van een jaar veel veranderen: de introductie van nieuwe technologie zoals generatieve AI, nieuwe misbruiktrends en mondiale conflicten. De digitale advertentieruimte moet wendbaar zijn en snel kunnen reageren. Daarom ontwikkelen we voortdurend nieuw beleid, versterken we onze handhavingssystemen, verdiepen we de samenwerking tussen bedrijfstakken en bieden we meer controle aan mensen, uitgevers en adverteerders.
In 2023 hebben we bijvoorbeeld het Centrum voor advertentietransparantie gelanceerd, een doorzoekbare hub van alle advertenties van geverifieerde adverteerders. Daarmee kunnen mensen snel en eenvoudig meer te weten komen over de advertenties die ze zien op Zoeken, YouTube en Display. We hebben ook onze geschiktheidscontroles geüpdatet om het voor adverteerders eenvoudiger en sneller te maken om onderwerpen uit te sluiten die ze willen vermijden in YouTube, en Display, voorraad. In totaal hebben we 31 updates aangebracht in ons advertentie- en publishersbeleid.
Hoewel we nog niet weten wat de rest van 2024 ons gaat brengen, hebben we er vertrouwen in dat onze investeringen in beleid, detectie en handhaving ons zullen voorbereiden op eventuele toekomstige uitdagingen.