Accéder au menu principal
Blogue Google Canada

À propos de l'élaboration des politiques chez YouTube

Article's hero media

Note: Cet article de blogue est également disponible sur notre blogue YouTube Global ici.

Depuis les débuts de YouTube, nous disposons de directives communautaires pour définir ce qui est autorisé sur notre plateforme. Ces règles ont favorisé l'expression créative tout en donnant la priorité à la protection de l'ensemble de la communauté YouTube contre les contenus nuisibles. Cet équilibre est essentiel pour permettre à de nouvelles voix de participer et pour promouvoir le partage des idées. Il est également nécessaire pour assurer le succès à long terme de YouTube en tant qu'entreprise, car nos partenaires publicitaires ne veulent absolument pas être associés à des contenus néfastes.

Quelques questions ont régulièrement été soulevées sur la façon dont nous décidons où poser des limites ou sur la raison pour laquelle il peut être si long d'élaborer et de lancer de nouvelles politiques (pour un aperçu plus large de la façon dont nous pensons à nos efforts en matière de responsabilité, consultez ce lien). C'est pourquoi, dans ce blog, nous vous expliquons comment nous élaborons nos politiques et les processus qui permettent de les faire appliquer.

Comment déterminer quelles mises à jour de politiques sont nécessaires ?

Le monde évolue rapidement et nos politiques doivent suivre le mouvement. C'est pourquoi nous révisons régulièrement nos politiques pour nous assurer que, à l'instar des lois qui régissent la société civile, elles reflètent les changements qui se produisent tant sur notre plateforme qu'en dehors. Pour être clair : la grande majorité des contenus diffusés sur YouTube n'enfreignent pas nos directives. Mais nous continuons à vérifier les lacunes qui ont pu se créer ou à traquer les risques émergents qui mettent nos politiques à l'épreuve de manière inédite.

Alors que nous nous efforçons de faire évoluer nos politiques en fonction du paysage actuel, nous nous concentrons sur un objectif majeur : prévenir les dommages flagrants dans le monde réel. Cela ne signifie pas que nous supprimons tout contenu offensant de YouTube, et nous croyons généralement que le débat ouvert et la libre expression conduisent à de meilleurs résultats pour la société. Mais nous prenons soin de fixer des limites aux contenus susceptibles de causer un préjudice grave à nos utilisateurs ou à la plateforme.

Cela peut inclure des dommages physiques. Par exemple, lorsque des allégations qui établissaient un lien entre la technologie 5G et la propagation du COVID-19 ont entraîné des dommages aux tours cellulaires à travers le Royaume-Uni, nous avons rapidement agi pour les rendre contraires à la loi. Ou bien cela pourrait signifier un préjudice important pour les institutions démocratiques, c'est pourquoi nous n'autorisons pas les allégations qui visent à tromper les gens sur le vote - notamment en promouvant de fausses informations sur les heures, les lieux ou les conditions d'éligibilité du vote.

Nous travaillons également en étroite collaboration avec des ONG, des universitaires et des experts compétents de tous horizons et de différents pays pour alimenter cette révision de la politique. Ils nous aident à identifier de nouvelles préoccupations ou à mieux comprendre des sujets complexes susceptibles d'évoluer constamment. Par exemple, nous avons établi notre politique de désinformation COVID-19 au début de la pandémie, en collaboration avec des autorités sanitaires telles que le Center for Disease Control et l'Organisation mondiale de la santé. Par la suite, lorsque leurs directives ont été modifiées pour assouplir les restrictions relatives aux masques et à la distanciation sociale, nous avons mis à jour nos politiques concernant le contenu qui remettait en question l'efficacité des masques et de la distanciation sociale.

Comment décidons-nous de poser des limites?

Une fois que nous avons identifié un domaine dans lequel une mise à jour de la politique est nécessaire, c'est là que notre équipe Trust & Safety intervient pour élaborer une solution sur mesure. Nous commençons par évaluer certains éléments. Quelle est la fréquence de ce type spécifique de contenu nuisible sur YouTube (et quel est son potentiel de croissance) ? Et comment est-il géré dans le cadre de nos règlements communautaires actuels?

Ensuite, nous regardons des dizaines, voire des centaines de vidéos pour comprendre les conséquences de l'adoption de différentes lignes de conduite. La définition d'une ligne de conduite ne concerne jamais une seule vidéo ; il s'agit de réfléchir à l'impact sur toutes les vidéos, celles qui seraient supprimées et celles qui pourraient rester en ligne dans le cadre du nouveau règlement. Après cet examen approfondi, l'équipe présente les différentes options de règlement, en veillant à détailler des exemples de vidéos qui seraient supprimées ou approuvées pour chacune d'entre elles (ainsi que différentes mesures d'application obligatoire, comme le retrait comparé à une limite d'âge).

Un meilleur choix est sélectionné parmi les options proposées, qui subira de nouveau plusieurs séries d'évaluation. À cette étape, nous cherchons à comprendre si la proposition peut substantiellement atteindre quelques objectifs clés :

  • Atténuer le préjudice flagrant dans le monde réel tout en trouvant un équilibre avec le souhait de liberté d'expression
  • Permettre une application obligatoire cohérente par des milliers de modérateurs de contenu à travers le monde entier

Si nous estimons que ces objectifs sont atteints, un groupe exécutif composé de dirigeants de l'entreprise examine la proposition. L'approbation définitive est émise par les plus hauts niveaux de la direction, y compris le directeur des produits et le PDG de YouTube. À tout moment, en cas de désaccords constants entre les équipes quant aux limites à imposer, la politique est renvoyée au comité d'élaboration.

Qui commente l'élaboration et l'application obligatoire des politiques?

Tout au long du processus d'élaboration des politiques, nous collaborons étroitement avec divers experts tiers établis en matière de discours haineux ou de harcèlement. Nous travaillons également avec diverses autorités gouvernementales sur d'autres sujets importants, comme l'extrémisme violent et la sécurité des enfants.

Les experts nous aident à prévoir la façon dont des événements mondiaux pourraient favoriser la propagation de contenu pernicieux sur notre plateforme, notamment en nous aidant à repérer les lacunes dans nos systèmes que des personnes mal intentionnées pourraient exploiter ou en nous fournissant des recommandations sur de nouvelles mises à jour. En outre, comme avec la COVID-19, ils émettent des commentaires qui nous aident à adapter les politiques dans des situations où les recommandations peuvent rapidement changer.

Ces partenariats sont particulièrement essentiels pour appuyer l'application obligatoire des politiques par rapport aux particularités régionales, où une expertise linguistique ou culturelle est souvent nécessaire pour contextualiser correctement le contenu. Par exemple, en 2021, nous avons travaillé étroitement avec des experts pendant le coup d'État au Myanmar afin de repérer les cas où des particuliers utilisaient la parole pour inciter à la haine et à la violence sur des bases ethnoreligieuses. Nous avons ainsi pu rapidement retirer le contenu non conforme de notre plateforme.

Essayons-nous d'anticiper les problèmes émergents?

On pense souvent que la modération de contenu est réactive par nature, que nous retirons uniquement le contenu une fois qu'il est signalé par nos systèmes ou par des personnes. En réalité, l'essentiel de notre travail porte sur le futur. Un long processus est conçu pour donner à nos équipes de la visibilité sur les problèmes émergents avant que ceux-ci n'atteignent notre plateforme ou ne s'y propagent largement.

Cette précieuse visibilité est pilotée par notre bureau de surveillance, un groupe au sein de l'équipe de confiance et de sécurité de YouTube. Cette équipe d'analystes spécialisés repère les tendances potentiellement non conformes, qu'il s'agisse de nouveaux vecteurs de désinformation ou de défis Internet dangereux, et détermine les risques posés. Ils surveillent en outre régulièrement les menaces continues comme les théories du complot extrémistes, en faisant le suivi de leur importance dans les médias et en évaluant la façon dont elles se transforment au fil du temps.

Ces statistiques alimentent alors la réflexion visant à déterminer quelles politiques actuelles ou futures pourraient gérer ces nouvelles menaces. Par exemple, en fonction des preuves rassemblées par le bureau de surveillance, nous avons mis à jour nos politiques en matière de haine et de harcèlement afin de mieux combattre les théories du complot nuisibles sur notre plateforme.

Comment nous assurons-nous que les politiques sont appliquées de manière cohérente?

L'implantation d'une nouvelle politique est un effort commun entre les personnes et la technologie d'apprentissage automatique. En pratique, cela signifie que pour qu'une politique soit correctement lancée et appliquée, nos équipes doivent travailler avec nos technologies, pour atteindre ensemble de façon cohérente de hauts niveaux de précision lors de l'examen de contenus.

Nous commençons par remettre à notre équipe de modérateurs de contenu la plus expérimentée les directives d'application des politiques (une explication détaillée de ce qui rend un contenu non conforme) et nous leur demandons de distinguer le contenu non conforme du contenu conforme. Si le nouveau règlement leur permet d'obtenir un très haut niveau de précision, nous élargissons le groupe de test afin d'inclure des centaines de modérateurs de différents horizons, langues et niveaux d'expérience.

À ce stade, nous commençons à réviser le règlement afin qu'il soit correctement interprété par le groupe élargi plus diversifié de modérateurs. Ce processus peut durer plusieurs mois. Il est terminé seulement une fois que le groupe atteint un haut degré de précision. Ces conclusions contribuent alors à entraîner notre technologie d'apprentissage automatique afin de détecter le contenu potentiellement non conforme à grande échelle. Comme nous le faisons avec nos modérateurs de contenu, nous testons les modèles afin de déterminer si nous leur avons fourni suffisamment de contexte pour qu'ils puissent évaluer avec précision ce qu'ils doivent mettre en surface pour que les gens puissent l'examiner.

Après cette période de test, la nouvelle politique peut finalement être lancée. Mais nous continuons de la peaufiner durant les mois qui suivent. Chaque semaine, les chefs de notre équipe de confiance et sécurité rencontrent des responsables de l'assurance qualité du monde entier (c'est-à-dire les personnes chargées de superviser les équipes de modération de contenu) afin de discuter de décisions particulièrement épineuses et de passer en revue la qualité de notre application obligatoire du règlement. Si nécessaire, des modifications du règlement sont retravaillées afin de corriger les lacunes ou de fournir davantage de clarté pour les cas particuliers.

Comment nos équipes et nos technologies travaillent-elles ensemble pour appliquer nos politiques?

Une fois les modèles entraînés à repérer le contenu potentiellement non conforme, les modérateurs de contenu continuent de jouer un rôle essentiel tout au long du processus d'application obligatoire. L'apprentissage automatique repère le contenu potentiellement non conforme à grande échelle et désigne pour révision le contenu susceptible d'enfreindre notre règlement de la communauté. Les modérateurs de contenu peuvent alors confirmer ou non si le contenu doit être retiré.

Cette approche de collaboration permet d'améliorer la précision de nos modèles au fil du temps, tandis que les modèles apprennent et s'adaptent continuellement en fonction des commentaires des modérateurs de contenu. Cela signifie également que nos systèmes d'application obligatoire peuvent gérer toute l'ampleur du contenu téléchargé sur YouTube (plus de 500 heures de contenu chaque minute), tout en analysant les nuances qui déterminent si un contenu est non conforme.

Par exemple, un discours d’Hitler aux rassemblements de Nuremberg sans aucun contexte supplémentaire peut enfreindre notre politique relative aux discours haineux. En revanche, si le même discours fait partie d'un documentaire qui dénonce les actions des nazis, il serait probablement autorisé en vertu de notre politique sur le contenu EDSA. La politique sur le contenu EDSA tient compte du contenu auquel est associé suffisamment de contexte sans lequel il serait autrement considéré comme du contenu non conforme, comme des vidéos éducatives ou un documentaire historique.

Un modèle peut avoir plus de difficultés à faire cette distinction, tandis qu'un modérateur de contenu peut plus facilement repérer le contexte additionnel. C'est l'une des raisons pour lesquelles l'application obligatoire est une responsabilité intrinsèquement partagée. Cela souligne également pourquoi un jugement humain sera toujours une part importante de notre processus. Pour la plupart des catégories de contenu potentiellement non conforme sur YouTube, un modèle signale simplement le contenu à un modérateur pour examen avant qu'une mesure ne soit prise.

Comment évaluons-nous le succès?

Tout notre travail est motivé par notre volonté de respecter notre règlement de la communauté et de poursuivre notre mission afin de permettre à de nouvelles voix de trouver leur place sur YouTube. À cet égard, il est difficile d'évaluer notre succès à l'aide d'une seule mesure, mais nous écoutons constamment les commentaires des intervenants et des membres de notre communauté quant aux façons dont nous pouvons nous améliorer. Nous cherchons aussi constamment à fournir davantage de transparence à propos de nos systèmes et de nos processus (notamment par des moyens tels que ce blogue).

Afin de mesurer l'efficacité de notre application obligatoire, nous publions une mesure appelée notre taux de visionnements de vidéos non conformes, qui évalue combien de visionnements sur YouTube proviennent de contenus non conformes. Entre juillet et septembre de cette année, ce taux était entre 0,10 % et 0,11 %, ce qui signifie qu'entre 10 et 11 visionnements sur 10 000 se rapportaient à du contenu qui enfreignait notre règlement de la communauté.

Nous effectuons également un suivi du nombre de demandes d'appel soumises par des créateurs après le retrait de leurs vidéos (une option à la disposition de n'importe quel créateur sur YouTube) parce que cela nous aide à mieux comprendre la précision de nos systèmes. Par exemple, durant la période stipulée ci-dessus, nous avons retiré plus de 5,6 millions de vidéos qui enfreignaient notre règlement de la communauté et reçu environ 271 000 demandes d'appel au sujet de ces retraits. Après examen, nous avons restauré environ 29 000 de ces vidéos ayant fait l'objet d'un appel.

Même si des mesures telles que les appels, les restaurations et notre taux de visionnements de vidéos non conformes n'offrent pas une solution parfaite pour comprendre la cohérence ou la précision, elles restent un critère de réussite essentiel sur une base continue.

Le règlement de la communauté tient compte de la langue et de l'expression, deux choses qui, par nature, évoluent au fil du temps. En raison de cette évolution, nous continuerons de passer régulièrement en revue nos politiques afin de nous assurer que les barrières adéquates sont en place. En outre, pour que notre communauté reste informée, nous continuerons à partager notre façon de les adapter au cours des prochains mois.