Acesse o menu principal
Blog do Google Brasil

Como ajudamos desenvolvedores com privacidade diferencial



No Google, acreditamos que inovação e privacidade caminham de mãos dadas. No início deste mês falamos sobre nosso trabalho para garantir a segurança das pessoas na internet, o que inclui investimentos em tecnologias de ponta na área de privacidade, tais como privacidade diferencial. Hoje, data em que celebramos o Dia da Privacidade de Dados, queremos contar novidades sobre outras formas de aplicar a tecnologia de privacidade diferencial a nossos produtos e de torná-la mais acessível a desenvolvedores e empresas de todo o mundo – aumentando seus acessos a dados e insights e, ao mesmo tempo, preservando a segurança e a privacidade de quem usa a web.


Produtos mais fortes graças à privacidade diferencial 


A privacidade diferencial é uma tecnologia avançada de anonimização. Ela foi desenvolvida pela primeira vez no Chrome, há quase sete anos, e é usada diariamente em nossos produtos, como o Google Maps e o Assistente. Em 2020, em meio aos esforços de combate à pandemia no mundo, publicamos nossos Relatórios de Mobilidade Comunitária da COVID-19. Esses relatórios usam privacidade diferencial para auxiliar autoridades de saúde pública, economistas e legisladores de todo o mundo a tomar decisões fundamentais para proteger a população, garantindo que, em nenhum momento, nenhuma informação capaz de identificar pessoas específicas seja disponibilizada. 


Este ano vamos oferecer aos desenvolvedores novas métricas e padrões para aplicativos no Google Play também usando privacidade diferencial. Com esse lançamento, os desenvolvedores terão acesso fácil a métricas relacionadas ao sucesso de seus apps e à participação dos usuários, como Usuários Ativos Todos os Dias e Receita por Usuário Ativo. As informações serão apresentadas de modo a não permitir identificar ou re-identificar usuários individuais. Acrescentar privacidade diferencial a essas novas métricas de aplicativos assegura que os desenvolvedores vão receber informações úteis para aprimorar os apps sem comprometer a privacidade dos usuários ou a confidencialidade dos desenvolvedores. No futuro, pretendemos aumentar o número de métricas com privacidade diferencial oferecidas aos desenvolvedores. 


Parceria com o OpenMined para ampliar o acesso à privacidade diferencial


Enquanto evoluímos nossas tecnologias de proteção de privacidade em nossos produtos, também é importante que desenvolvedores tenham acesso a essas tecnologias. Por isso, em 2019, tornamos open-source nossa biblioteca de privacidade diferencial e demos acesso gratuito a ela. Com isso, a ferramenta ficou mais simples e útil para desenvolvedores de todo o mundo. De lá pra cá, centenas de desenvolvedores, pesquisadores e instituições incorporaram em seu trabalho os algoritmos de privacidade diferencial do Google, ajudando a enfrentar novos problemas graças ao uso responsável de dados, com o objetivo de proteger a privacidade. Uma dessas empresas é a startup francesa do setor de saúde Arkhn, que está usando a privacidade diferencial para concretizar sua missão de usar inteligência artificial para revolucionar a indústria de saúde. Assim, a empresa consegue reunir e analisar dados de vários departamentos de hospitais, sempre de forma segura. 


Para levar a mais equipes de desenvolvedores (como a Arkhn) a altíssima qualidade da nossa biblioteca de privacidade diferencial, temos o prazer de anunciar hoje uma nova parceria com o OpenMined, um grupo de desenvolvedores de open-source que trabalha para aumentar a adoção de tecnologias de proteção de privacidade em todo o mundo. Junto com o OpenMined, vamos desenvolver uma versão específica da nossa biblioteca para desenvolvedores que trabalham com python. Ao replicar a infraestrutura do Google que usa privacidade diferencial, esses desenvolvedores terão acesso a jeitos novos e únicos de tratar os dados com o que há de mais avançado em privacidade. 


Conforme já fizemos no ano passado, seguiremos facilitando o acesso de desenvolvedores à nossa biblioteca existente de privacidade diferencial. Um exemplo: este mês estamos tornando open-source um novo banco de dados com privacidade diferencial para extensões de linguagem, usado pelo Google diariamente em milhares de “queries” (pedidos). Essas “queries” ajudam nossos analistas a obter informações valiosas e observar tendências nos produtos. É mais um passo para democratizar análises de dados capazes de proteger a privacidade, aumentando as possibilidades de cientistas de dados em todo o mundo e apoiando a descoberta de informações importantes – sempre respeitando a privacidade das pessoas.


Colaboração para melhorar ainda mais o Aprendizado de Máquina


Há dois anos o Google apresentou a TensorFlow Privacy (GitHub), uma biblioteca open-source que facilita o processo de treinar modelos de aprendizado de máquina para proteção de privacidade – não apenas para desenvolvedores mas também para pesquisadores que trabalham pelo progresso do que há de mais avançado em aprendizado de máquina com privacidade forte. A TensorFlow Privacy ajuda startups como a Gretel AI a atingir seu objetivo de oferecer soluções elegantes para aplicativos que trabalhem com privacidade e compartilhamento de dados. Quem explica é o fundador e CEO da empresa, Alex Watson: “Aqui na Gretel.ai nós construímos APIs para facilitar o processo de garantir o anonimato dos dados, e assim aproveitar conjuntos de dados anteriormente inatingíveis justamente por conta de preocupações com privacidade. A TFP ajuda a tornar isso possível, graças às sólidas garantias matemáticas de proteção de privacidade”. 


No ano passado, ampliamos a biblioteca para incluir suporte ao TensorFlow 2, bem como à interface Keras Model e aos “estimators” embarcados do TensorFlor. Graças à colaboração com pesquisadores da Universidade de Waterloo, melhoramos o desempenho com o nosso novo lançamento – que está quatro vezes mais rápido – e fizemos ainda mais para treinar com cargas de trabalho comuns.


Sabemos também que treinar com privacidade pode ser caro ou difícil de realizar. Por isso decidimos entender como são os modelos privados de aprendizado de máquina. No ano passado tornamos open-source nossa biblioteca, com o objetivo de enfrentar a questão de ataques e ajudar qualquer pessoa que use a biblioteca a ter uma visão mais ampla da privacidade de seus modelos para máquinas. De lá para cá, fizemos uma parceria com a Universidade Princeton e a Universidade Nacional de Singapura. Essa iniciativa ajudou a acrescentar novos recursos e expandir o escopo da biblioteca, para testar modelos generativos e modelos de redes não-neurais. Recentemente, pesquisadores da Faculdade de Medicina de Stanford experimentaram isso em seus modelos, para testar memorização. Os testes ajudaram a escola a compreender o comportamento de privacidade desses modelos – algo que não era possível fazer antes.


Também publicamos novas pesquisas que estudam o equilíbrio entre privacidade diferencial e robustez – outra propriedade essencial para ética, privacidade e segurança em Inteligência Artificial. 


Nosso trabalho continua. Seguiremos investindo em privacidade de altíssimo nível, que ofereça proteções algorítmicas às pessoas que usam nossos produtos e, ao mesmo tempo, alimentem e ampliem um ambiente saudável e open-source. Acreditamos profundamente que todos os usuários do mundo merecem o que há de melhor em privacidade – e, para atingir esse objetivo, faremos novas parcerias com organizações.