Nos actions pour soutenir les élections législatives françaises de 2024
En amont des élections législatives qui se tiendront en France principalement le 30 juin et le 7 juillet, nous mettons en place des dispositifs pour soutenir le processus électoral. Résolument engagés à favoriser l’organisation de l’information dans le monde et à rendre celle-ci utile et universellement accessible, nous menons différentes actions pour protéger l’intégrité de ce scrutin. Nous présentons aux électeurs des informations faisant autorité, nous préservons nos plateformes d’éventuels abus et nous proposons aux équipes de campagne des outils et un accompagnement sur les sujets de sécurité en ligne. En fil rouge de ces démarches, nous portons une attention accrue au rôle que l’intelligence artificielle peut être amenée à jouer dans la campagne électorale.
Informer les électeurs
À l’approche des élections, le public doit pouvoir accéder rapidement à des informations utiles et pertinentes, afin de mieux se repérer dans le processus électoral. Voici quelques exemples de ce que nous faisons pour répondre à ces besoins :
- La recherche sur Google : Lorsque les utilisateurs effectuent des recherches telles que « comment voter en France » ou « où voter en France », nous leur présentons des informations sur la procédure électorale — comme les justificatifs d’identité à présenter le jour du scrutin, les démarches à effectuer pour donner procuration ou encore les emplacements des bureaux de vote ; en les redirigeant vers des ressources officielles, dont interieur.gouv.fr ou info.gouv.fr.
- YouTube : Sur la page d’accueil de YouTube, dans les résultats de recherches et dans la section « À suivre », nos systèmes mettent clairement en avant les actualités et informations sur les élections issues de sources officielles. Indépendamment des périodes électorales, YouTube affiche également des panneaux d’informations contextuelles en haut des résultats de recherche ou sous certaines vidéos susceptibles de contenir des informations trompeuses.
- Les publicités via Google Ads : Afin de nous conformer à la législation locale, les annonces à caractère politique ou incluant du contenu informatif concernant un débat d'intérêt général, sont exclues de nos plateformes pendant la campagne électorale.
Protéger nos plateformes contre la désinformation
Nous améliorons sans cesse nos systèmes de modération des contenus pour renforcer la sécurité de nos produits et prévenir des abus. Nous continuons aussi d’investir dans nos opérations en matière de responsabilité en ligne, notamment à travers notre Centre d'ingénierie sur la sécurité Google, dont les travaux sont consacrés à la sécurité en ligne, en Europe et au-delà. Enfin, nous coopérons étroitement avec l’ensemble de l’écosystème concerné par la lutte contre la désinformation.
- Appliquer nos règles et mobiliser les modèles d’IA pour lutter à grande échelle contre les abus : Nous avons un ensemble de règles d’utilisation de nos plateformes dont le Règlement de la communauté YouTube et nos règles Google en matière de publicité. Ces règles orientent notre action concernant les contenus manipulés, l’incitation à la haine ou à la violence, le harcèlement, ou encore les affirmations manifestement fausses qui pourraient affaiblir la confiance ou la participation aux processus démocratiques. Nous nous appuyons notamment sur nos modèles d’IA pour appliquer ces politiques, mais aussi pour lutter plus efficacement contre les abus : grâce aux progrès réalisés par nos grands modèles de langage (LLM, Large Language Model), nous concevons des systèmes toujours plus rapides et plus flexibles de modération des contenus, et agissons toujours plus promptement pour contrer les menaces émergentes.
- Coopérer avec l’ensemble de l’écosystème pour lutter contre la désinformation : la Google News Initiative a soutenu le lancement de la coalition Elections24Check, qui rassemble plus de 40 organisations de presse et de fact checking, dont l’AFP, pour lutter contre les fausses informations et la désinformation.
- Aider les utilisateurs à identifier les campagnes de manipulation en ligne grâce au prebunking : Dans le cadre plus vaste de nos programmes en faveur de l'apprentissage des médias et de la protection de l’intégrité des élections, Jigsaw et Google ont lancé une initiative de prebunking en collaboration avec des acteurs français tels que Allons Voter !, l’AFP, Génération Numérique, et le Mouvement Européen France. A travers de courtes vidéos diffusées sur YouTube et les réseaux sociaux, ce projet vise à sensibiliser le grand public à différentes techniques de manipulation, comme la désignation d’un bouc émissaire, le discrédit ou la décontextualisation, avant même qu’il y soit exposé. Le site web de l’initiative met également en avant des programmes mis en œuvre par des organisations partenaires, dont le Parlement européen, l'EDMO ou la communauté de fact-checkers, ainsi que les produits et fonctionnalités de Google et de YouTube qui facilitent la vérification des informations circulant en ligne.
Encadrer l’usage des contenus générés par l’IA
Nous mettons en œuvre un ensemble de règles et d’outils pour baliser clairement les interactions des utilisateurs avec les contenus générés par l’IA :
- Identification des contenus sur YouTube : Les règles de YouTube concernant les informations incorrectes interdisent la mise en ligne de contenus modifiés à des fins trompeuses par des procédés techniques, et qui présentent un risque important de préjudice majeur. En outre, YouTube exige des créateurs de contenus qu’ils signalent les contenus qui ont été fortement modifiés ou générés de façon synthétique lorsqu'ils semblent réalistes, et la plateforme appose sur ces contenus un avertissement approprié. Dans certains cas, YouTube peut signaler un contenu modifié ou généré de façon synthétique sans déclaration préalable de la part de son créateur, notamment si son visionnage est susceptible de semer la confusion ou d’induire le public en erreur.
- Une approche responsable des outils d’IA générative : Conformément aux principes directeurs qui guident notre approche d’une IA responsable, le développement de nos propres outils d’IA tels que Gemini accorde une importance primordiale à l’évaluation d’une large palette de risques, qui s’étend des vulnérabilités de cybersécurité jusqu’aux capacités de désinformation ou le respect de l’équité. En conséquence, et par mesure de précaution eu égard au poids du sujet, nous restreignons l’éventail de requêtes liées aux élections pour lesquelles Gemini produira des réponses.
- Fournir des éléments de contexte supplémentaires : La fonctionnalité « À propos de cette image » dans la recherche Google permet de recontextualiser les images publiées en ligne et de mieux évaluer leur crédibilité. La fonctionnalité « Vérifier la réponse » de Gemini aide quant à elle à déterminer si les réponses de Gemini peuvent être étayées par d’autres contenus disponibles sur le web.
- Filigrane numérique ou “watermarking” : La technologie SynthID développée par Google DeepMind incorpore un filigrane numérique au sein des fichiers texte, image, audio ou vidéo générés par des outils d’IA.
- Coopération sectorielle : Google a récemment adopté la norme issue de la coalition C2PA, et rejoint cette initiative sectorielle qui vise à améliorer la transparence et la contextualisation des contenus générés par l’IA. Par ailleurs, nous nous sommes engagés aux côtés d’autres leaders des technologies de l’information à lutter contre toute interférence nocive des outils d’IA avec les nombreuses élections prévues dans le monde au cours de l’année : dans le cadre du Tech Accord, nous avons souscrit à un ensemble d’engagements sur la mise en œuvre de mesures technologiques afin de contrer l’utilisation de contenus générés par l’IA pour manipuler les électeurs.
Proposer des fonctionnalités et un accompagnement aux utilisateurs les plus exposés aux risques cyber
Les risques de cybersécurité sont plus intenses en période électorale ; aussi travaillons-nous sans relâche pour aider les utilisateurs les plus exposés, tels que les équipes de campagne ou les personnes chargées de l’organisation des élections, à se prémunir contre les risques avérés ou émergents et à mieux maîtriser le fonctionnement de nos produits et services.
- Des outils de sécurité pour les équipes de campagnes et les organisateurs d’élections : Nous mettons à la disposition de ces utilisateurs un éventail de services gratuits, comme le Programme Protection Avancée, qui réunit nos outils de cybersécurité les plus robustes, ou encore Project Shield, qui offre une protection illimitée contre les attaques par déni de service (DDoS). Nous avons également ouvert des canaux de communication spécifiques pour répondre à toute interrogation ou problématique soulevée par les équipes de campagne et les responsables politiques.
- Lutte contre les campagnes coordonnées d’influence : Les équipes de cyber-renseignement (Threat Intelligence) de Google travaillent à l’identification et au suivi des menaces émergentes, qu’il s’agisse de campagnes coordonnées d’influence ou d’opérations de cyber espionnage visant des organisations particulièrement exposées, ainsi qu’à l’élaboration de réponses appropriées. Nous publions les mesures adoptées en conséquence dans le bulletin trimestriel du TAG (Threat Analysis Group, Cellule d’analyse des risques), et nous participons régulièrement à des réunions avec des acteurs institutionnels et privés de la cybersécurité pour échanger des informations sur les menaces existantes et sur les suspicions d’ingérence électorale. À titre d’exemple, nous avons procédé à la fermeture de 11 chaînes YouTube il y a quelques mois, à la suite de notre enquête sur une campagne coordonnée d’influence impliquant des individus en France. La campagne diffusait des contenus en langue française pour dénigrer des responsables politiques français. Enfin, notre filiale Mandiant propose une gamme exhaustive de solutions, de services et d’outils pour aider les organisations à élaborer des programmes de sécurité complets en vue des élections, et à élever leurs capacités de défense. Dans un billet de blog récemment publié, les équipes de Mandiant dressent une cartographie des risques de cybersécurité en matière d’élections afin d’aider les organisateurs de scrutins à se prémunir contre un large éventail de menaces.
Ces initiatives s’appuient sur le travail effectué en parallèle autour d’autres élections, dans différents pays et zones géographiques dont les États-Unis, l’UE, le Royaume-Uni ou encore l’Inde. Le soutien apporté aux processus électoraux fait partie intégrante de nos engagements auprès de nos utilisateurs, et nous sommes fermement résolus à collaborer avec les autres entreprises du secteur et la société civile, afin de préserver l’intégrité des élections en France.