Acesse o menu principal
Blog do Google Brasil

Inteligência Artificial

Nosso compromisso com o avanço de uma Inteligência Artificial ​​ousada e responsável, juntos



Hoje, as principais empresas que trabalham com Inteligência Artificial (IA) estão se comprometendo conjuntamente em promover práticas responsáveis ​​no desenvolvimento dessa tecnologia. A IA e o aprendizado de máquina prometem beneficiar a todos nós — gerando progressos na ciência, aumentando a produtividade e melhorando avida das pessoas. Esperamos que o anúncio de hoje contribua para os esforços contínuos do G7, da OCDE e dos governos nacionais para maximizar os benefícios da IA ​​e minimizar seus riscos.

Há muito tempo, acreditamos que ser ousado em IA significa ser responsável desde o início.
Veja mais sobre como estamos fazendo isso:

Aplicando IA para solucionar os maiores desafios da sociedade

Trabalhamos com IA há mais de doze anos e, em 2016, dissemos que nos tornamos uma “empresa que prioriza a IA”. Hoje, a IA está por trás da Busca, do Tradutor, do Maps e de outros serviços que você usa todos os dias. E estamos usando IA para ajudar com problemas sociais ao melhorar a previsão de enchentes, contribuir com a redução de emissões de carbono ao oferecer rotas mais eco-friendly, melhorar a assistência médica, responder perguntas clínicas com mais de 90% de precisão e ajudar a tratar e a rastrear doenças como o câncer de mama.

Promovendo sistemas de IA seguros e protegidos

Mas não basta que a IA crie serviços melhores – também queremos usá-la para tornar esses serviços seguros e protegidos. Projetamos nossos produtos para serem seguros por padrão – e nossa abordagem à IA não é diferente. Recentemente, apresentamos nossa Estrutura Segura de IA (SAIF) para ajudar as organizações a proteger sistemas de IA e expandimos nossos programas de caçadores de bugs (incluindo nosso Programa de Recompensas de Vulnerabilidade) para incentivar pesquisas sobre segurança e proteção de IA. Colocamos nossos modelos em testes para mitigar riscos e nossa equipe do Google DeepMind está avançando no estado da arte em tópicos como: ajudar a IA a se comunicar de maneira mais segura, prevenindo que modelos avançados sejam mal utilizados e projetando sistemas para serem mais éticos e justos.

Estamos empenhados em continuar este trabalho, participando de outros exercícios com o nosso AI Red Team, incluindo uma participação no DefCon, nos Estados Unidos, no próximo mês.

Construindo confiança em sistemas de IA

Reconhecemos que, às vezes, o poder das novas ferramentas de IA pode ampliar os desafios sociais atuais, como desinformação e preconceito. É por isso que em 2018 publicamos um conjunto de Princípios de IA para orientar nosso trabalho, e estabelecemos uma equipe de governança para colocá-los em prática, conduzindo análises éticas de novos sistemas, evitando preconceitos e incorporando privacidade, segurança e proteção. E nosso Kit de ferramentas de IA responsável ajuda os desenvolvedores a buscar a IA de forma responsável também. Continuaremos trabalhando para criar confiança nos sistemas de IA, inclusive compartilhando relatórios de progresso do nosso trabalho.

Quando se trata de conteúdo, estamos tomando medidas para promover informações confiáveis. Em breve estaremos integrando marca d'água, metadados e outras técnicas inovadoras em nossos modelos generativos mais recentes e trazendo o Sobre esta imagem, uma ferramenta para a Pesquisa do Google, para fornecer contexto sobre onde uma imagem apareceu online pela primeira vez. Lidar com conteúdo gerado por IA exigirá soluções em todo o setor, e estamos ansiosos para trabalhar em conjunto, como faremos no Parceria para IA, grupo de trabalho de mídia sintética.

Construindo IA responsável, juntos

Nenhum de nós pode trabalhar IA por conta própria. Temos o prazer de nos juntar a outras empresas líderes em IA para endossar esses compromissos e nos comprometemos a continuar trabalhando juntos, compartilhando informações e práticas recomendadas. Grupos como o Parceria para IA e o ML Commons já estão liderando iniciativas importantes. Esperamos esforços adicionais para promover o desenvolvimento responsável de novas ferramentas generativas de IA.