Notre rapport 2023 sur la sécurité des annonces
Des milliards de personnes dans le monde comptent sur les produits Google pour leur fournir des informations pertinentes et fiables, y compris dans les annonces. Pour cette raison, nous faisons appel à des milliers de collaborateurs qui travaillent sans relâche pour assurer la protection de l’écosystème de la publicité digitale. Aujourd’hui, nous publions notre rapport sur la sécurité des annonces pour présenter les progrès réalisés dans l’application de nos règles pour les annonceurs et les éditeurs, et pour expliquer comment nous préservons la sécurité des utilisateurs sur l'Internet financé par la publicité.
L’année 2023 a été principalement marquée par l’impact de l’IA générative. Cette nouvelle technologie a profondément modifié le secteur de la publicité digitale, que ce soit pour l’optimisation des performances ou la retouche d’images. Mais l’IA générative présente aussi de nouveaux défis que nous prenons très au sérieux, et nous verrons comment nous y répondons.
Enfin, et c’est tout aussi important, l’IA générative représente une opportunité unique d’améliorer considérablement l’application de nos règles. Nos équipes ont adopté cette technologie novatrice, en particulier les grands modèles de langage (LLM, pour Large Language Models), pour mieux protéger les utilisateurs en ligne.
L’IA générative renforce l'application des règles
Nos équipes chargées de la sécurité utilisent depuis longtemps des systèmes de machine learning basés sur l’IA pour assurer l’application de nos règles à grande échelle. De cette façon, depuis des années, nous sommes capables de détecter et de bloquer des milliards d’annonces indésirables avant que quiconque puisse les voir. Bien que ces modèles de machine learning soient hautement sophistiqués, ils doivent être massivement entraînés : ils se basent souvent sur des centaines de milliers, voire des millions, d’exemples de contenus enfreignant les règles.
Les LLM de leur côté, sont capables de vérifier et d’interpréter rapidement de grandes quantités de contenus, tout en capturant les nuances importantes qu’ils comportent. Ces capacités de raisonnement avancé ont déjà permis des prises de décision plus précises et à plus grande échelle pour la mise en application de nos règles les plus complexes. Prenons l’exemple des règles concernant les allégations douteuses liées à des produits financiers, qui incluent les annonces faisant la promotion de méthodes pour “devenir riche rapidement”. Les personnes mal intentionnées qui diffusent ces types d’annonces utilisent des techniques toujours plus sophistiquées. Elles ajustent leurs stratégies et personnalisent les annonces en fonction des nouveaux produits ou services financiers disponibles, comme des conseils en investissement ou les monnaies numériques, pour escroquer les utilisateurs.
Les modèles traditionnels de machine learning sont certes entraînés pour détecter ces infractions aux règles. Cependant, l’évolution rapide et la nature changeante des tendances financières font qu’il est parfois plus difficile de distinguer les services légitimes des services fictifs, et de faire évoluer rapidement nos systèmes automatisés d’application des règles pour combattre les escroqueries. Les LLM arrivent mieux et plus rapidement à reconnaître les nouvelles tendances des services financiers, à identifier les méthodes employées par les personnes mal intentionnées qui utilisent ces tendances de façon abusive et à distinguer une entreprise légitime d’une escroquerie. Cela a permis à nos équipes de devenir encore plus réactives pour faire face à des menaces émergentes de tous types.
Nous commençons tout juste à exploiter la puissance des LLM pour la sécurité des annonces. Gemini, lancé publiquement l’année dernière, est le modèle d’IA le plus performant de Google. Nous sommes ravis de pouvoir commencer à mettre à profit ses capacités de raisonnement avancé pour renforcer la sécurité des annonces et l’application des règles.
Prévenir la fraude et l'escroquerie
En 2023, les escroqueries et les fraudes étaient à la hausse sur toutes les plates-formes en ligne. Les personnes mal intentionnées changent constamment de tactique pour manipuler la publicité digitale dans le but d’escroquer les internautes et de légitimer des entreprises frauduleuses. Pour contrer ces menaces toujours changeantes, nous avons rapidement modifié nos règles, déployé des équipes réactives dédiées à l’application des règles et perfectionné nos techniques de détection.
- En novembre, nous avons introduit le règlement Diffusion limitée des annonces, conçu pour protéger les utilisateurs en limitant la couverture des annonceurs que nous connaissons moins. Dans le cadre de ce règlement, nous avons instauré une période de "familiarisation" pour les annonceurs pour lesquels nous ne disposons pas encore d'un historique de bonne conduite. Pendant cette période, le nombre d'impressions de leurs annonces pourra être limité dans certains cas, par exemple lorsque la relation entre un annonceur et une marque référencée dans son annonce n'est pas claire. À terme, ce règlement, qui n’en est qu’à ses débuts, permettra aux annonceurs bien intentionnés de gagner la confiance des utilisateurs, mais aussi de limiter la couverture des annonceurs mal intentionnés afin de réduire le risque d'escroqueries et d'annonces trompeuses.
- Protéger les utilisateurs en ligne dépend très largement de notre capacité à répondre rapidement aux nouvelles tendances d’utilisation abusive. Fin 2023 début 2024, nous avons fait face à une campagne d’annonces ciblées qui exploitaient la ressemblance avec des personnalités publiques pour escroquer les utilisateurs, souvent par le biais de deepfakes. Lorsque nous avons détecté cette menace, nous avons créé une équipe dédiée pour y apporter une réponse immédiate. Nous avons identifié des schémas dans le comportement des annonceurs mal intentionnés, nous avons entraîné nos modèles automatisés d’application des règles afin qu’ils sachent détecter des annonces similaires et nous avons commencé à les supprimer massivement. Nous avons également modifié notre règlement sur les déclarations trompeuses ou déceptives pour nous permettre de suspendre rapidement les comptes de ces annonceurs mal intentionnés.
Au total, nous avons bloqué ou supprimé 206,5 millions d’annonces qui ne respectaient pas notre règlement sur les déclarations trompeuses ou déceptives, dont font partie de nombreuses stratégies d’escroquerie, et 273,4 millions d’annonces qui enfreignaient notre règlement sur les services financiers. Nous avons également bloqué ou supprimé plus d’un milliard d’annonces pour utilisation abusive du réseau publicitaire, qui comprend la promotion de logiciels malveillants.
La lutte contre les escroqueries publicitaires suppose un effort constant : les annonceurs mal intentionnés emploient des stratégies toujours plus sophistiquées et à plus grande échelle, et utilisent de nouvelles tactiques comme le deepfake pour tromper les utilisateurs. Nous continuerons d’allouer des ressources significatives dans cette lutte, en investissant massivement dans les technologies de détection et en collaborant avec des organisations telles que la Global Anti-Scam Alliance ou Stop Scams UK pour faciliter le partage d’informations et protéger les consommateurs du monde entier.
Investir pour l'intégrité des élections
Les annonces à caractère politique jouent un rôle important lors d’élections démocratiques. Les candidats et les partis utilisent les annonces pour sensibiliser les citoyens, partager des informations et engager les électeurs potentiels. Alors que plusieurs élections majeures auront lieu dans le monde cette année, nous voulons être sûrs que les électeurs continuent de faire confiance aux annonces électorales qu’ils peuvent voir sur nos plates-formes. Pour cette raison, nous avons mis en place, depuis longtemps déjà, des obligations de validation d’identité et de transparence pour les annonceurs électoraux, ainsi que des restrictions sur la manière dont ces annonceurs peuvent cibler leurs annonces électorales. Toutes les annonces électorales doivent également être accompagnées d’une mention “Payée par” et sont compilées dans notre rapport "Transparence des informations", disponible publiquement. En 2023, nous avons validé l’identité de plus 5 000 nouveaux annonceurs électoraux et supprimé plus de 7,3 millions d’annonces électorales provenant d’annonceurs non validés.
L’année dernière, nous avons été la première entreprise technologique à mettre en place une nouvelle mention obligatoire pour les annonces électorales comportant du contenu synthétique. Alors que de plus en plus d’annonceurs exploitent la puissance et les opportunités offertes par l’IA, nous voulons être sûrs de continuer à fournir aux citoyens la transparence et les informations dont ils ont besoin pour prendre des décisions éclairées.
De plus, nous continuons à appliquer nos règles pour lutter contre les annonces qui font la promotion de déclarations électorales manifestement fausses, susceptibles de diminuer la confiance ou la participation des citoyens dans un processus démocratique.
2023 en chiffres
Notre objectif est de repérer les annonces indésirables et de suspendre les comptes frauduleux avant qu’ils n’arrivent à pénétrer nos plates-formes ou de les supprimer immédiatement après leur détection. L’IA améliore nos performances dans ces domaines. En 2023, nous avons bloqué ou supprimé plus de 5,5 milliards d’annonces, soit un peu plus que l’année précédente, et 12,7 millions de comptes d’annonceurs, soit presque le double de l’année précédente. Dans le même temps, nous œuvrons pour protéger les annonceurs et les utilisateurs en supprimant nos annonces des sites et des pages d’éditeurs qui enfreignent nos règles, comme celles concernant le contenu à caractère sexuel explicite et les produits dangereux. En 2023, nous avons bloqué ou restreint la diffusion d’annonces sur plus de 2,1 milliards de pages d’éditeurs, soit un peu plus qu’en 2022. Nous parvenons également mieux à lutter contre les infractions généralisées ou flagrantes. Nous avons pris plus largement des mesures d’application des règles sur plus de 395 000 sites d’éditeur, soit nettement plus qu’en 2022.
Quel est l’impact de l’IA dans ce travail ? L’année dernière, plus de 90 % des mesures prises sur les pages d’éditeurs ont commencé avec l’utilisation de modèles de machine learning, y compris nos derniers LLM. Les annonceurs et les éditeurs peuvent bien évidemment toujours faire appel s’ils pensent que nous nous sommes trompés. Nos équipes examinent ensuite ces appels, et si nous estimons qu’il y a bien eu erreur, nous utilisons ces informations pour améliorer nos systèmes.
Rester agile et aller de l'avant
Dans le domaine de la sécurité des annonces, beaucoup de changements peuvent avoir lieu au cours d’une même année : le lancement d’une nouvelle technologie comme l’IA générative, des tendances d’usage abusif d’un nouveau genre ou des conflits mondiaux. Les acteurs de l’écosystème de la publicité digitale doivent rester agiles et être prêts à réagir. C’est pour cette raison que nous développons constamment de nouveaux règlements, que nous consolidons nos systèmes d’application des règles, que nous renforçons la collaboration inter-secteurs et que nous offrons plus de contrôle aux utilisateurs, aux éditeurs et aux annonceurs.
En 2023, par exemple, nous avons lancé le Centre de transparence publicitaire, une plate-forme regroupant toutes les annonces des annonceurs vérifiés, qui permet aux utilisateurs de trouver rapidement et simplement plus d’informations sur les annonces qu’ils voient dans la Recherche, YouTube et sur le réseau Display. Nous avons également modifié nos paramètres de conformité du contenu pour permettre aux annonceurs d’exclure plus facilement et plus rapidement des thèmes qu’ils souhaitent éviter sur l’inventaire YouTube et display. Au total, nous avons apporté 31 modifications à notre règlement relatif aux annonces et à notre règlement pour les éditeurs.
Même si nous ne savons pas encore ce que nous réserve la suite de l’année 2024, nous sommes convaincus que grâce à nos investissements dans la mise en place de règlements, de systèmes de détection et de systèmes d’application des règles, nous sommes prêts à relever les défis à venir.