Acesse o menu principal
Blog do Google Brasil

Inteligência Artificial

Uma agenda para o progresso responsável da Inteligência Artificial

Imagem abstrata ilustrativa

Publicamos recentemente um documento com sugestões para uma agenda de políticas públicas focada no progresso responsável da Inteligência Artificial

Em maio, durante o Google I/O, o CEO do Google, Sundar Pichai destacou que o crescimento da Inteligência Artificial (IA) é uma das maiores mudanças tecnológicas já vistas. Os avanços nos modelos atuais de IA não estão apenas criando novas maneiras de interagir com as informações, encontrar as palavras certas ou descobrir novos lugares, mas também estão ajudando as pessoas a desbravar novos campos científicos e tecnológicos.

Estamos no limiar de uma nova era, que nos permite reimaginar as maneiras pelas quais podemos melhorar significativamente a vida de bilhões de pessoas, ajudando as empresas a prosperar e a crescer e apoiando a sociedade nas respostas às nossas perguntas mais difíceis. Ao mesmo tempo, todos nós devemos estar cientes de que a IA trará riscos e desafios. Diante deste cenário, temos o compromisso de avançar com ousadia, responsabilidade e parceria.

É improvável que os apelos para interromper os avanços tecnológicos sejam bem-sucedidos ou eficazes, e corremos o risco de perder os benefícios substanciais da IA e ficar atrás daqueles que abraçam o seu potencial. Em vez disso, precisamos de esforços amplos - em governos, empresas, universidades e outros - para ajudar a traduzir os avanços tecnológicos em benefícios generalizados e, ao mesmo tempo, mitigar os riscos.

Quando delineamos a necessidade de uma Agenda Compartilhada para o Progresso Responsável da IA esse ano, dissemos que práticas individuais, padrões compartilhados do setor e políticas governamentais sólidas seriam essenciais para que a IA desse certo. Há alguns meses lançamos um documento com recomendações para IA, no qual incentivamos os governos a se concentrarem em três áreas principais: desbloquear oportunidades, promover a responsabilidade e aumentar a segurança:

Criando oportunidades ao maximizar a promessa econômica da IA

As economias que adotarem a IA terão um crescimento significativo, superando as demais que adotarem a tecnologia de maneira mais lenta. A IA ajudará muitos setores diferentes a produzir produtos e serviços mais complexos e valiosos, além de ajudar a aumentar a produtividade, apesar dos crescentes desafios demográficos. A IA também promete impulsionar tanto as pequenas empresas, que usam produtos e serviços baseados em IA para inovar e crescer, quanto os trabalhadores, que podem se concentrar em outras atividades, menos rotineiras e mais gratificantes durante o trabalho.

Como podemos fazer isso: Para desbloquear a oportunidade econômica que a IA oferece e minimizar as interrupções na força de trabalho, os formuladores de políticas públicas podem investir em inovação e competitividade, promover estruturas legais que apoiem a inovação responsável da IA e preparar a força de trabalho para a transição de emprego impulsionada pela IA. Por exemplo, os governos devem explorar a pesquisa fundamental de IA por meio de laboratórios nacionais e instituições de pesquisa, adotar políticas que apoiem o desenvolvimento responsável da IA (incluindo leis de privacidade que protejam as informações pessoais e permitam fluxos de dados confiáveis entre as fronteiras nacionais) e promover a educação continuada, programas de aprimoramento de habilidades, movimentação de talentos importantes entre fronteiras e pesquisas sobre o futuro do trabalho em evolução.

Promover a responsabilidade e reduzir os riscos de uso indevido

A IA já está ajudando o mundo a enfrentar desafios, desde doenças até mudanças climáticas, e pode ser uma força poderosa para o progresso. Porém, se não forem desenvolvidos e implementados com responsabilidade, os sistemas de IA também poderão ampliar problemas sociais atuais, como a desinformação, a discriminação e o uso indevido de ferramentas. E sem confiança nos sistemas de IA, as empresas e os consumidores hesitarão em adotar a IA, limitando sua oportunidade de explorar todos os seus benefícios.

Como podemos fazer isso: Para enfrentar esses desafios, será necessária uma abordagem de governança com as várias partes interessadas. Aprendendo com a experiência do advento da Internet, todos virão à mesa com uma compreensão saudável dos possíveis benefícios e desafios. Alguns desafios exigirão pesquisa para entender melhor os benefícios e os riscos da IA, e como gerenciá-los, e para desenvolver e implantar inovações técnicas em áreas como interpretabilidade e marca d'água (AI watermarking). Outros serão mais bem resolvidos por meio do desenvolvimento de padrões comuns e compartilhamento de boas práticas, além de regulamentação proporcional e baseada em riscos para garantir que as tecnologias de IA sejam desenvolvidas e implantadas de forma responsável. Algumas, poderão exigir, ainda, novas organizações e instituições. Por exemplo, empresas poderiam se unir para formar um Fórum Global de IA (GFAI), com base em exemplos anteriores, como o Fórum Global da Internet de Combate ao Terrorismo (GIFCT). O alinhamento internacional também será essencial para desenvolver abordagens políticas comuns que reflitam os valores democráticos e evitem a fragmentação.

Aprimorar a segurança global e, ao mesmo tempo, impedir que agentes mal-intencionados explorem essa tecnologia

A IA generativa tem implicações importantes para a segurança e para a estabilidade globais. A IA generativa pode ajudar a criar (mas também identificar e rastrear) informações incorretas, desinformação e manipulação de mídias. A pesquisa de segurança baseada em IA está impulsionando uma nova geração de defesas cibernéticas por meio de operações de segurança avançadas e inteligência contra ameaças, enquanto as explorações geradas por IA também podem permitir ataques cibernéticos mais sofisticados por parte dos adversários.

O que será necessário para fazer isso: O primeiro passo é colocar barreiras técnicas e comerciais para evitar o uso malicioso da IA e trabalhar coletivamente para lidar com os maus atores, maximizando os possíveis benefícios da IA. Por exemplo, os governos devem explorar políticas de controle de comércio para aplicações específicas de software alimentado por IA, que sejam consideradas riscos à segurança. E também para entidades específicas que forneçam suporte à pesquisa e ao desenvolvimento relacionados à IA, seguindo padrões e metodologias que ameacem a segurança global. Os governos, as universidades, a sociedade civil e o setor privado também precisam entender melhor as implicações dos sistemas de IA cada vez mais poderosos e como podemos alinhar a IA sofisticada e complexa aos valores humanos. No final das contas, a segurança é um esporte de equipe e o progresso nesse espaço exigirá cooperação na forma de pesquisa conjunta, adoção da melhor governança de dados, fóruns público-privados para compartilhar informações sobre vulnerabilidades de segurança de IA e muito mais.

Considerações finais

Com o pleno reconhecimento dos possíveis desafios, estamos confiantes de que uma agenda de políticas centrada nos principais pilares de oportunidade, responsabilidade e segurança pode desbloquear os benefícios da IA e garantir que esses benefícios sejam compartilhados por todos.

Como já dissemos antes, a IA é importante demais para não ser regulamentada, e importante demais para não ser bem regulamentada. Desde a verificação de estrutura de IA, de Cingapura, até a abordagem pró-inovação para a regulamentação da AI, do Reino Unido, e a estrutura de gerenciamento de riscos de IA, do Instituto Nacional de Padrões e Tecnologia dos Estados Unidos, estamos animados em ver governos de todo o mundo abordando seriamente princípios para essas novas tecnologias, e esperamos apoiar seus esforços.