Maps 101 : Fonctionnement des avis dans Google Maps
Quand vous vous apprêtez à découvrir de nouveaux lieux, les avis de Google contiennent des renseignements locaux précieux qui vous indiqueront les destinations et entreprises que vous aimerez le plus, que ce soit la pâtisserie qui prépare le meilleur petit gâteau sans gluten ou un restaurant à proximité qui offre des prestations acoustiques.
Compte tenu des millions d’avis publiés chaque jour dans le monde, nous offrons du soutien en tout temps pour que l’information sur Google soit toujours pertinente et exacte. La plupart de nos mesures de prévention de contenu inapproprié sont exécutées en coulisses, alors nous voulions vous expliquer brièvement ce qui se produit quand vous cliquez sur le bouton de publication d’avis.
Comment créons-nous et appliquons-nous nos règlements?
Nous avons élaboré des règlements stricts relatifs au contenu afin de nous assurer que les avis sont fondés sur des expériences réelles et d’éviter la publication de commentaires malvenus et blessants dans les profils d’entreprises de Google.
Le monde évolue, tout comme nos règlements et nos mesures de protection. Nous pouvons ainsi mieux protéger les destinations et entreprises contre le contenu violent et hors sujet qui risquerait de les exposer à du harcèlement. Par exemple, quand les gouvernements et les entreprises ont commencé à exiger une preuve de vaccination contre la COVID-19 avant d’accéder à certains lieux, nous avons pris des mesures de protection supplémentaires pour retirer des avis de Google qui critiquent une entreprise en raison de ses règlements relatifs à la santé et à la sécurité ou de sa volonté à se conformer à une obligation vaccinale.
Lorsqu’un règlement est écrit, il fait l’objet de matériel de formation – tant pour nos opérateurs que pour nos algorithmes d’apprentissage automatique – afin d’aider nos équipes à repérer tout contenu non conforme et à faire en sorte que les avis de Google demeurent utiles et authentiques.
Modération des avis au moyen de l’apprentissage automatique
Dès qu’une personne publie un avis, nous le transmettons à notre système de modération pour nous assurer qu’il n’enfreint aucun de nos règlements. Vous pouvez comparer ce système à un gardien de sécurité qui empêche les personnes non autorisées d’entrer dans un immeuble. Dans notre cas, ce sont nos équipes qui bloquent la publication de contenu malveillant sur Google.
Étant donné le volume d’avis que nous recevons régulièrement, nous avons constaté qu’il nous faut recourir à la fois à la puissance des humains et à celle des machines pour modérer le contenu diffusé. Humains et machines présentent différents atouts, alors nous continuons d’investir énormément dans les deux. Les machines sont notre première ligne de défense, car elles reconnaissent facilement les comportements. Souvent, en repérant ces comportements, elles déterminent immédiatement si le contenu est légitime, de sorte que la grande majorité des avis faux et frauduleux sont supprimés avant d’être vus par qui que ce soit.
Elles examinent les avis sous différents angles, par exemple :
● L’avis inclut-il du contenu offensant ou hors sujet?
● Le compte Google à l’origine de l’avis a-t-il un historique de comportement suspect?
● Y a-t-il une activité inhabituelle liée à l’entreprise ou à la destination, par exemple un grand volume d’avis en peu de temps? L’entreprise ou la destination a-t-elle récemment attiré l’attention des journalistes ou des médias sociaux, ce qui motiverait les gens à rédiger des avis frauduleux?
Apprendre à une machine à distinguer le contenu acceptable du contenu inacceptable requiert un équilibre délicat. Par exemple, le terme « gay » est parfois péjoratif, ce que nous ne tolérons pas dans les avis de Google. Cependant, si nous apprenons à nos modèles d’apprentissage automatique qu’il est seulement utilisé dans les discours haineux, nous risquons de retirer par erreur des avis qui font la promotion d’un entrepreneur gay ou d’un espace sûr pour la communauté LGBTQ+. Nos opérateurs humains exécutent régulièrement des tests de qualité et suivent de la formation supplémentaire afin de supprimer les préjugés des modèles d’apprentissage automatique. En intégrant rigoureusement dans nos modèles tous les usages de certains mots ou de certaines phrases, nous améliorons notre capacité à repérer le contenu contraire aux règlements et réduisons le risque de bloquer la diffusion d’avis légitimes par inadvertance.
Si nos systèmes ne détectent aucune violation des règlements, l’avis peut être publié en quelques secondes. Par contre, notre travail n’est pas terminé quand un avis est publié. Nos systèmes continuent d’analyser le contenu diffusé et de rechercher les comportements suspects. Par exemple, un groupe de personnes peut publier des avis sur la même grappe de profils d’entreprises pour une entreprise ou une destination qui reçoit alors un nombre exceptionnellement élevé d’avis de 1 ou 5 étoiles en peu de temps.
Des avis authentiques et fiables en tout temps
Comme toute plateforme qui reçoit du contenu généré par les utilisateurs, nous devons aussi rester vigilants afin d’éviter les fraudes et le harcèlement sur Google Maps. Il faut entre autres que les utilisateurs de Google Maps puissent facilement signaler les avis contraires aux règlements. Si vous pensez en avoir vu un sur Google, nous vous encourageons à en informer nos équipes. Les entreprises peuvent signaler les avis sur leurs profils ici et les consommateurs peuvent le faire ici.
Nos équipes d’opérateurs humains vérifient le contenu signalé toute la journée. Quand nous trouvons des avis qui enfreignent nos règlements, nous les retirons de Google et, dans certains cas, nous suspendons le compte de l’utilisateur ou entamons des poursuites judiciaires.
En plus d’examiner le contenu signalé, nos équipes cernent les risques de harcèlement de façon proactive, ce qui peut considérablement réduire la probabilité de telles attaques. Par exemple, quand un événement à venir s’accompagne d’importantes retombées, par exemple des élections, nous resserrons les mesures de protection aux lieux associés à l’événement et à d’autres entreprises à proximité que des gens seraient susceptibles de chercher sur Google Maps. Nous continuons de surveiller ces lieux et entreprises jusqu’à ce que le risque de harcèlement se soit dissipé afin de soutenir notre mission de ne publier que des avis authentiques et fiables.
Notre investissement dans l’analyse et la compréhension des utilisations abusives du contenu diffusé nous a permis de garder une longueur d’avance sur les acteurs malveillants. Étant donné que plus d’un milliard de personnes consultent et explorent Google Maps chaque mois, nous voulons que l’information qu’elles voient soit fiable – en particulier les avis. Notre travail n’est jamais terminé; nous améliorons constamment notre système et nous nous efforçons d’éviter que la présence de comportements illicites sur la carte, y compris les faux avis.