Comment nous traitons les faux contenus explicites dans Recherche
Chaque nouvelle avancée technologique amène son lot de nouvelles opportunités pour simplifier la vie des gens. Il est toutefois primordial de combattre les usages abusifs qui en découlent. Nous assistons à une augmentation inquiétante d’images et de vidéos générées par l’IA représentant des personnes dans des situations sexuellement explicites, publiées sur le Web sans leur consentement, résultat de l’ascension fulgurante de l’intelligence artificielle générative au cours des dernières années.
On les appelle parfois des « hypertrucages » (deepfake), et ce type de contenu peut être particulièrement anxiogène pour les personnes impliquées. C’est pourquoi nous avons mis en place des politiques et systèmes visant à donner aux utilisateurs plus de contrôle sur ce contenu.
Aujourd’hui, nous partageons quelques mises à jour importantes, dont le développement a été influencé par les commentaires d’experts et de victimes, visant à mieux protéger les utilisateurs. Elles comprennent les mises à jour de nos processus de suppression, facilitant le retrait de ce contenu de Recherche, et les mises à jour de nos méthodes de classement pour empêcher ce type de contenu d’apparaître en tête des résultats de Recherche.
Des manières plus simples de supprimer du contenu
Depuis plusieurs années, les utilisateurs peuvent demander la suppression de fausses images et vidéos non autorisées de Recherche selon nos politiques. Nous avons maintenant développé de nouveaux systèmes pour rendre le processus plus simple, nous permettant d’adresser cet enjeu à plus grande échelle.
Lorsqu’une personne demande avec succès la suppression d’une fausse image ou vidéo non autorisée explicite qui la représente dans Recherche, les systèmes de Google chercheront à filtrer tous les résultats explicites de recherches qui sont similaires à cette recherche. De plus, lorsque quelqu’un supprime avec succès une image de Recherche selon nos politiques, nos systèmes effectueront un balayage pour supprimer toutes les copies trouvées de cette image.
Ces protections ont déjà fait leurs preuves face à d’autres types d’imagerie non autorisée ; les mêmes protections sont désormais également disponibles contre les fausses images explicites. Ces efforts ont été déployés afin d’offrir aux utilisateurs une tranquillité d’esprit, surtout s’ils sont inquiets que du contenu similaire les représentant puisse refaire surface.
Des méthodes de classements améliorées
Avec la quantité phénoménale de contenu créé en ligne chaque jour, la meilleure protection contre du contenu préjudiciable est la mise en place de systèmes capables de classer les informations de haute qualité en tête des résultats de Recherche. Gardant cela à l’esprit, nous avons lancé des mises à jour qui limitent davantage la visibilité de faux contenus explicites dans Recherche.
Premièrement, nous lançons des mises à jour de classement qui feront baisser la visibilité des faux contenus explicites pour de nombreuses recherches. Pour une requête qui demande spécifiquement ce contenu et qui inclut des noms de personnes, nous mettrons de l’avant du contenu de haute qualité et non explicite, comme des articles de nouvelles pertinents, lorsque disponible. Les mises à jour apportées cette année ont permis de réduire de plus de 70 % la visibilité des images explicites pour ce type de requêtes. Grâce à ces changements, les utilisateurs peuvent s’éduquer sur l’impact des hypertrucages sur la société, plutôt que de tomber sur des pages contenant de fausses images non autorisées.
Il faut également distinguer le contenu explicite réel et consensuel (comme les scènes de nudité d’un acteur) du faux contenu explicite (comme un hypertrucage dudit acteur). Bien que faire la différence entre ces types de contenu constitue un défi technique pour les moteurs de recherche, nous apportons des améliorations en continu afin de mettre en avant le contenu légitime et masquer le faux contenu.
En général, si un site comporte un grand nombre de pages que nous avons supprimées de Recherche conformément à nos politiques, cela constitue un indice clair qu’il ne s’agit pas d’un site de haute qualité, et nous devons en tenir compte lorsque nous classons d’autres pages de ce site. Ainsi, nous rétrogradons les sites dont le volume de suppressions de pages pour fausse imagerie explicite est élevé. Cette approche a déjà fait ses preuves contre d’autres types de contenu préjudiciable, et nos essais montrent que la rétrogradation est un atout précieux dans la lutte pour la réduction du faux contenu explicite dans les résultats de recherche.
Ces changements représentent des avancées majeures dans nos protections de Recherche, mais il reste encore du travail à faire pour résoudre complètement cet enjeu. Après tout, il s’agit d’un défi qui va au-delà des moteurs de recherche. Nous continuerons donc à développer de nouvelles solutions et à investir dans des partenariats afin d’aider les personnes affectées par ce contenu.