Uma nova abordagem contra o assédio e violência de gênero no Google Assistente
Milhões de pessoas utilizam o Google Assistente todos os dias no Brasil. Elas fazem muitas coisas: pedem para lembrar de seus compromissos, informar a situação do trânsito ou do clima, tocar a sua música favorita, ou até mesmo brincam com jogos de voz. É uma relação que se aprofunda a cada dia, ao ponto de ser comum que as pessoas conversem com o Assistente como se fosse, de fato, outra pessoa, e não uma inteligência artificial.
Uma amostra disso é o alto número de interações que chamamos de ‘Personalidade’; ou seja, questionamentos sobre opiniões (como ‘qual a sua cor favorita?’) ou aparência (‘com o que você se parece?’), pedidos para ‘contar piadas’, entre outras coisas que você só pediria para outra pessoa. Essa ‘intimidade’ desenvolvida com o assistente virtual vem ajudando a tecnologia a se tornar cada vez mais útil no dia a dia. Porém, assim como as relações humanas possuem muitos problemas no mundo real, isso também acontece dentro desse outro universo.
Nos últimos anos, o time de Personalidade do Google Assistente passou a investigar com mais profundidade o uso de linguagens abusiva nas conversas com o assistente de voz. No Brasil, foi observado que cerca de 2% do total de interações de Personalidade com o Assistente (ou centenas de milhares, todas as semanas) traziam termos abusivos ou inapropriados. Destes, abusos relacionados a preconceito ou violência de gênero, conteúdo de sexo explícito e homofobia vinham acontecendo em maior volume.
Mais uma vez, as tendências do mundo real se repetindo no ambiente online. Afinal, vivemos em um país onde 97% das mulheres já foram vítimas de assédio em meios de transporte (Instituto Patrícia Galvão); em que, apenas em 2020, 26,5 milhões de brasileiras afirmaram ter sofrido assédio ou importunação sexual (Datafolha) e, a cada hora, uma pessoa LGBTQIA+ é agredida no Brasil (SUS), apenas para citar alguns dados recentes.
Entendemos que o Google Assistente pode assumir um papel educativo e de responsabilidade social, mostrando às pessoas que condutas abusivas não podem ser toleradas em nenhum ambiente, incluindo o virtual. Por isso, o Google adotou um novo posicionamento para desestimular agressões verbais ao seu assistente de voz virtual.
A iniciativa, que teve início nos Estados Unidos e já começou a ser implantada no Brasil, traz novas respostas que são ativadas sempre que há um insulto ou uso de termos que remetam a assédio ou violência de gênero durante as interações com a personalidade do Assistente.
Em suas novas respostas, o Google Assistente tem abordagens diferentes, dependendo do nível de abuso cometido. Em caso de ofensa explícita - como uso de palavrões, ou expressões de conteúdo misógino, homofóbico, racista ou de sexo explícito -, a voz do Google poderá responder de forma instrutiva, usando frases como: “O respeito é fundamental em todas as relações, inclusive na nossa”; ou mesmo repelir esse tipo de comportamento, respondendo: “Não fale assim comigo”.
As mensagens que não são explicitamente ofensivas, mas que representam condutas que seriam consideradas inapropriadas no mundo real, também passam a ser respondidas de forma diferente. Um exemplo é quando alguém pergunta ao Assistente se quer “namorar” ou “casar” com ele. Neste caso, a voz do Google poderá dar um “fora” de um jeito bem-humorado, ou alertar sobre o incômodo trazido pelo comentário.
Revisão e contexto cultural nas respostas para o Brasil
A construção do novo posicionamento do Google Assistente começou em 2019, inspirado pelo relatório I’d Blush if I Could, produzido pela Organização das Nações Unidas para a Educação, a Ciência e a Cultura (Unesco). O documento trouxe um alerta sobre como o uso de vozes femininas e o comportamento submisso dos assistentes virtuais ajudariam a perpetuar preconceitos de gênero.
A primeira fase do projeto começou a ser implantada no ano passado, nos Estados Unidos, e priorizou a criação de respostas para os abusos registrados com mais frequência - no caso, ofensas e uso de termos inapropriados direcionados às mulheres. Em seguida, foram lançadas também respostas para abusos de cunho racial e de homofobia.
No Brasil, a atualização das respostas passou por um processo de revisão e adaptação liderado pelo time local de Personalidade do Assistente. O objetivo foi avaliar o sentido que determinadas palavras ou expressões podem transmitir - por exemplo, a frase ‘Você é uma cachorra’, que muitas vezes é usada como ofensa no contexto brasileiro.
O trabalho contou com a contribuição de grupos representativos formados por colaboradores do Google no Brasil - como o de Mulheres e o de Diversidade -, que ajudaram a identificar termos que são considerados ofensivos dentro de diferentes comunidades, ou remetem a preconceitos culturais. Esses grupos também contribuíram para a construção de respostas que pudessem ser mais apropriadas para cada situação.
Outro desafio foi separar os termos corretos daqueles usados pejorativamente para se referir a determinados grupos. Por exemplo, se a pessoa usar a palavra “bicha” ao invés de “gay” ou “homossexual”, o Google Assistente irá alertar que aquilo pode ser ofensivo.
A nova atualização é mais um passo do Google Assistente para oferecer um serviço cada vez mais diverso e inclusivo para os brasileiros. É um esforço contínuo, pois sabemos que ainda não temos respostas para tudo, e que precisamos estar em constante atualização para nos adaptar às mudanças da sociedade.
As novas respostas estão disponíveis em todas as versões do Google Assistente no Brasil.