Comment L’IA protège notre moteur de recherche
L’IA au service de la sécurité des recherches sur Google
Chaque jour, des internautes consultent Google à la recherche d’informations essentielles pour assurer leur sécurité et celle de leur famille.
Qu’il s’agisse de mettre en évidence les ressources faisant autorité à la suite d’une catastrophe naturelle ou de fournir des informations sanitaires urgentes, nous cherchons constamment de nouvelles façons de nous assurer que des informations pertinentes sont accessibles en quelques clics. Les progrès en matière d’Intelligence Artificielle (IA) permettent le développement de nouvelles techniques, comme la prévision des inondations, pour aider la population à se protéger.
Voici un aperçu des dernières méthodes utilisées par les systèmes d’IA les plus avancés pour nous aider à orienter les internautes vers des sources d’aide essentielles, tout en évitant l’exposition à des contenus potentiellement choquants ou dangereux, pour qu’ils restent en sécurité, que ce soit en ligne ou dans le monde réel.
Trouver des informations fiables et utiles quand vous en avez le plus besoin
Nous savons que les internautes utilisent notre moteur de recherche pour trouver des informations fiables dans les moments les plus critiques. Aujourd’hui, si un utilisateur effectue une recherche Google concernant le suicide, les agressions sexuelles, la toxicomanie et la violence domestique, il voit s’afficher, non seulement des résultats dignes de confiance, mais aussi les lignes d’écoute pertinentes.
Cependant, les personnes en situation de crise personnelle peuvent effectuer leurs recherches de différentes manières et il n’est pas toujours évident d’identifier leurs besoins réels. Pour coder nos systèmes de manière à ce qu’ils affichent les résultats de recherche les plus utiles, nous devons être en mesure de déterminer les attentes de l’utilisateur avec précision. Dans ces cas-là, pour mieux comprendre le langage, le recours à l’apprentissage automatique est particulièrement utile et important.
Notre dernier modèle d’IA, MUM, nous permet de détecter automatiquement - et avec plus de précision - un éventail plus vaste de recherches liées à des situations de crise personnelle. MUM est en mesure de mieux comprendre les intentions qui peuvent se cacher derrière certaines requêtes effectuées sur le moteur de recherche. Il peut ainsi détecter si un utilisateur a besoin d’aide. Cela nous permet d’afficher de manière plus efficace des informations fiables et utiles au bon moment. Nous commencerons à utiliser MUM pour mettre en œuvre ces améliorations dans les semaines à venir.
Éviter les contenus explicites non souhaités
Pour assurer la sécurité des utilisateurs de notre moteur de recherche, nous devons également éviter de les exposer à des contenus indésirables. En effet, les internautes doivent pouvoir effectuer leurs recherches en toute sérénité. Cela est parfois difficile, car il arrive aux créateurs de contenu d’utiliser des termes anodins pour désigner un contenu explicite ou suggestif. Ainsi, le principal type de contenu correspondant pour votre requête ne sera peut-être pas ce que vous vouliez trouver. Dans ce cas, il pourrait s’avérer que la majorité des résultats d’une recherche soient de nature explicite, quand bien même cela ne corresponde pas aux recherches de l’utilisateur.
SafeSearch est l’une des solutions que nous proposons pour contrer ce phénomène. Cet outil permet de filtrer les résultats de recherche explicites ; il est d’ailleurs sélectionné par défaut sur les comptes des utilisateurs de moins de 18 ans. En outre, même si SafeSearch est désactivé, nos systèmes limitent la part de résultats explicites pour les recherches qui ne s’y prêtent pas. Au total, nos algorithmes améliorent la sécurité de centaines de millions de recherches à travers le monde, qu’il s’agisse d’informations, d’images ou de vidéos.
Mais nous pouvons faire encore mieux. Par exemple, nous utilisons des techniques d’IA avancées, telles que BERT, pour mieux comprendre les résultats attendus et réduire sensiblement la part de résultats explicites non souhaités. La sécurité des recherches est une question complexe que nous étudions depuis longtemps ; ne serait-ce que l’année dernière, BERT nous a permis de réduire de 30 % la proportion de résultats de recherche explicites inattendus. Les conséquences sont d’autant plus manifestes pour les recherches ayant trait aux questions d’appartenance ethnique, d’orientation sexuelle et d’identité de genre, qui touchent principalement les femmes, en particulier les femmes issues de minorités visibles.
Déployer nos protections dans le monde entier
MUM est capable de mobiliser des connaissances dans les 75 langues pour lesquelles le modèle est formé, ce qui nous permet de déployer nos mesures de protection dans le monde entier de manière bien plus efficace. Ainsi, lorsque nous entraînons MUM en vue d’effectuer une tâche donnée, notamment la classification de la nature d’une recherche, le modèle apprend à le faire dans toutes les langues qu’il connaît.
Nous utilisons donc l’IA, notamment pour limiter la présence de pages de spams inutiles, voire dangereuses, dans vos résultats de recherche. Au cours des prochains mois, grâce à MUM, nous pourrons améliorer la protection contre ces spams et inclure des langues pour lesquelles nous avons peu de données d’apprentissage automatique. Nous serons également en mesure de mieux détecter les recherches relatives à des situations de crise personnelle partout dans le monde et, grâce à nos partenaires locaux, d’afficher des informations pertinentes dans de nouveaux pays.
Comme pour toute amélioration de notre moteur de recherche, ces nouveautés seront soumises à un processus d’évaluation rigoureux, qui tient compte des retours de nos évaluateurs dans le monde entier, afin de nous assurer que nous proposons des résultats plus pertinents et plus utiles. Quelles que soient les recherches effectuées par nos utilisateurs, nous sommes là pour les aider à trouver des réponses en toute sécurité.