Acesse o menu principal
Blog do Google Brasil

Como estamos lidando com conteúdo falso e explícito na Busca

google safety

Junto a cada novo avanço tecnológico, surgem novas oportunidades para ajudar as pessoas — mas também novas formas de abuso que precisamos combater. À medida que a tecnologia de geração de imagens continuou a melhorar nos últimos anos, houve um aumento preocupante da geração de imagens e vídeos que retratam pessoas em contextos sexualmente explícitos, distribuídos na web sem o consentimento delas.

Essas imagens e vídeos são às vezes chamados de “deepfakes” e esse conteúdo pode ser profundamente angustiante para as pessoas afetadas por ele. É por isso que investimos em políticas e sistemas de longa data para ajudar as pessoas a obter mais controle sobre esse conteúdo.

Para proteger ainda mais as pessoas, hoje estamos compartilhando algumas atualizações significativas, que foram desenvolvidas com base no feedback de especialistas e vítimas. Essas atualizações incluem: melhorias nos nossos processos de remoção para facilitar a retirada desse conteúdo da Busca e atualizações nos nossos sistemas de classificação para evitar que esse tipo de conteúdo apareça em posições de destaque nos resultados de pesquisa.

Maneiras mais fáceis de remover conteúdo

Por muitos anos, as pessoas puderam solicitar a remoção de imagens falsas não consensuais da Busca de acordo com nossas políticas. Agora, desenvolvemos sistemas para tornar o processo mais fácil, ajudando as pessoas a lidar com essa questão em grande escala.

Quando alguém solicita com sucesso a remoção de conteúdo falso explícito não consensual que está retratado na Busca, os sistemas do Google também tentarão filtrar todos os resultados explícitos em buscas semelhantes sobre essa pessoa. Além disso, quando alguém removeu com sucesso uma imagem da Busca, de acordo com nossas políticas, nossos sistemas buscarão e removerão quaisquer duplicatas dessa imagem que encontrarmos.

Essas proteções já se mostraram bem sucedidas no tratamento de outros tipos de imagens não consensuais e agora construímos as mesmas capacidades para imagens falsas explícitas. Esses esforços são projetados para proporcionar às pessoas mais tranquilidade, especialmente se estiverem preocupadas com a possibilidade de surgirem conteúdos semelhantes sobre elas no futuro.

Sistemas de classificação aprimorados

Com tanto conteúdo sendo criado online todos os dias, a melhor proteção contra conteúdos prejudiciais é construir sistemas que classifiquem informações de alta qualidade no topo da Busca. Com isso em mente, lançamos atualizações de ranqueamento para limitar ainda mais a visibilidade de conteúdos falsos explícitos na Busca.

Primeiro, estamos implementando atualizações de ranqueamento que reduzirão os conteúdos falsos explícitos em muitas buscas. Para consultas que buscam especificamente esse tipo de conteúdo e incluem os nomes das pessoas, nosso objetivo é exibir conteúdo de alta qualidade e não explícito — como artigos de notícias relevantes — quando estiver disponível. As atualizações que fizemos este ano reduziram a exposição a resultados de imagens explícitas nesses tipos de consultas em mais de 70%. Com essas mudanças, as pessoas podem ler sobre o impacto dos deepfakes na sociedade, em vez de ver páginas com imagens falsas não consensuais reais.

Também é necessário distinguir conteúdo explícito que é real e consensual (como cenas de nudez de um ator) de conteúdo falso explícito (como deepfakes envolvendo o referido ator). Embora diferenciar entre esses conteúdos seja um desafio técnico para os motores de busca, estamos fazendo melhorias contínuas para exibir melhor o conteúdo legítimo e rebaixar o conteúdo explícito falso.

Geralmente, se um site tem muitas páginas que, de acordo com nossas políticas, removemos da Busca, isso é um sinal bastante forte de que não é um site confiável e devemos levar isso em consideração na forma como classificamos outras páginas deste site. Então, estamos rebaixando sites que receberam um alto volume de remoções por imagens explícitas falsas. Essa abordagem funcionou bem para outros tipos de conteúdo prejudicial e nossos testes mostram que será uma maneira valiosa de reduzir conteúdo explícito falso nos resultados de pesquisa.

Essas mudanças são atualizações importantes para nossas proteções na Busca, mas ainda há muito trabalho a ser feito para resolver esse problema. Afinal, esse é um desafio que vai muito além dos mecanismos de busca. Continuaremos a criar novas soluções e investir em parcerias para ajudar as pessoas afetadas por este conteúdo.