Os 10 maiores momentos do Google com inteligência artificial – até agora
Não sei se você está sabendo, mas a Inteligência Artificial (IA) virou um assunto meio importante nos últimos tempos. Só que, aqui no Google, IA é um assunto importante desde o início, e por bons motivos. Ela facilita as tarefas do dia a dia e ajuda a resolver grandes desafios sociais, por exemplo. Neste momento em que celebramos 25 anos de existência, vamos relembrar alguns dos marcos mais decisivos da inteligência artificial na nossa trajetória – até agora. Estamos animados para os novos avanços que ainda virão.
2001: Aprendizado de máquina ajuda usuários da Busca a corrigir erros de digitação
Certa vez, Larry Page, um dos fundadores do Google, disse: “o mecanismo de busca perfeito deve entender exatamente o que estamos procurando e trazer exatamente as respostas que precisamos”. Quando começamos a usar uma versão simples de aprendizado de máquina para sugerir correções ortográficas às palavras digitadas na Busca, demos um passo importante para concretizar essa tarefa. Mesmo quando a digitação não sai certinha, o Google entende o que a gente quer.
2006: Lançamento do Google Tradutor
Cinco anos mais tarde, lançamos o Google Tradutor. Ele também usa aprendizado de máquina para fazer traduções automáticas de vários idiomas. Começamos com traduções de árabe para inglês, e de inglês para árabe. Hoje, porém, o Google Tradutor já oferece 133 línguas, faladas por milhões de pessoas de todo o mundo. Essa tecnologia é capaz de traduzir textos, imagens e até conversas em tempo real. Com isso, ela ajuda a vencer barreiras de idiomas na comunidade global, colaborando com melhorias significativas na comunicação entre as pessoas e ampliando o acesso à informação de uma forma inédita.
2015: TensorFlow democratiza a inteligência artificial
O surgimento do TensorFlow, uma nova estrutura open source de aprendizado de máquina, deixou a IA mais acessível, eficiente e capaz de ganhar escala. Ajudou ainda a acelerar o ritmo da pesquisa e do desenvolvimento da inteligência artificial em todo o mundo. Hoje o TensorFlow é uma das estruturas mais populares de aprendizado de máquina. Ela foi usada para desenvolver uma ampla gama de aplicações de IA – de reconhecimento de imagens a processamento de linguagem natural, passando por tradução por máquina.
2016: AlphaGo derrota o campeão do mundo
Como parte do DeepMind Challenge Match, do Google, o AlphaGo se transformou no primeiro programa de inteligência artificial a derrotar um ser humano campeão mundial de Go – um complexo jogo de tabuleiro que até então era considerável inalcançável para as máquinas. Duzentos milhões de pessoas assistiram esse feito pela internet. A vitória marcante demonstrou o potencial do aprendizado profundo de resolver problemas complexos, que haviam sido considerados impossíveis para computadores. A vitória do AlphaGo sobre Lee Sedol, um dos maiores jogadores de Go do mundo, deu início a um debate mundial sobre o futuro da inteligência artificial, e mostrou que sistemas de IA já podiam aprender a dominar jogos complexos que exigem raciocínio estratégico e criatividade.
2016: TPUs permitem uso mais rápido e eficiente da inteligência artificial
Tensor Processing Units, ou TPUs, são chips de silício projetados sob medida. Eles foram inventados pelo Google para serem usados especificamente no aprendizado de máquina, e são otimizados para o TensorFlow. Eles são capazes de treinar e rodar modelos de IA muito mais rápido que chips tradicionais, e por isso são ideais para usos de IA em grande escala. A versão v5e, anunciada em agosto, é o TPU de nuvem mais versátil, com melhor custo-benefício e mais capacidade de ganhar escala que já criamos até hoje.
2017: Google Research apresenta o Transformer
O estudo “Attention Is All You Need”, publicado pelo Google Research, apresentou o Transformer – uma nova arquitetura de redes neurais que ajuda na compreensão da linguagem. Antes do Transformer, as máquinas não eram muito boas na hora de compreender o significado de frases longas. Elas não estabeleciam uma relação entre palavras que ficam distantes dentro de uma mesma oração. O Transformer trouxe imensos avanços nessa área. Ele se tornou a pedra de sustentação dos mais impressionantes sistemas de compreensão de linguagem e IA generativa que temos hoje. O Transformer causou uma revolução na capacidade das máquinas de realizar traduções, resumir textos, responder perguntas e até gerar imagens e trabalhar com robótica.
2019: BERT ajuda a Busca a entender melhor as pesquisas das pessoas
O trabalho que realizamos para criar o Transformer levou à introdução das Bidirectional Encoder Representations from Transformers – ou “BERT”, na sigla em inglês. Elas ajudam a Busca a compreender as pesquisas dos usuários, melhor do que nunca. Em vez de tentar entender palavras individualmente, os algoritmos BERT ajudam o Google a compreender palavras dentro de um contexto. Isso levou a um grande salto na qualidade da Busca, e facilitou a vida dos usuários – que passaram a poder fazer perguntas de forma natural, como numa conversa, em vez de simplesmente escrever uma palavra ao lado da outra.
2020: AlphaFold resolve o problema do enovelamento de proteínas
Em 2020, o DeepMind deu um salto no campo da inteligência artificial com o sistema AlphaFold. Esse sistema foi então reconhecido como uma solução para o “problema do enovelamento de proteínas”. Proteínas são os tijolos que constroem a vida. O enovelamento de uma proteína determina sua função, e uma proteína com problema de enovelamento pode causar uma doença. Durante 50 anos, os cientistas tentaram prever o enovelamento de proteínas, com o objetivo de entender e tratar doenças. O AlphaFold faz exatamente isso. Em 2022, compartilhamos 200 milhões de estruturas proteicas do AlphaFold, que incluem praticamente todos os organismos do planeta que já tiveram seu genoma sequenciado. Dividimos essas informações de forma gratuita com a comunidade científica, por meio do AlphaFold Protein Structure Database. Mais de um milhão de pesquisadores já usaram esse banco de dados para trabalhar numa série de temas, desde a aceleração em tempo recorde de novas vacinas contra a malária até a descoberta de medicamentos para câncer, passando pelo desenvolvimento de enzimas que “comem” plástico.
2023: Bard ajuda as pessoas a trabalhar em parceria com a IA
Em 2021, o Google Research lançou o LaMDA, um grande modelo de linguagem conversacional que abriu caminho para vários sistemas de IA generativa que conquistaram a imaginação das pessoas – incluindo o Bard. Lançado em março, o Bard já está disponível em quase todo o mundo, em mais de 40 idiomas. Com isso, milhões de pessoas já podem usá-lo para aumentar a produtividade, concretizar ideias e dar asas à curiosidade. Recentemente, unimos o modelo mais inteligente e capaz do Bard aos serviços Google que as pessoas usam no dia a dia – como Gmail, Docs, Drive, Voos/hotéis, Mapas e YouTube. Com isso, ele ajuda ainda mais a realizar tarefas como planejar viagens, verificar as respostas oferecidas pela IA e resumir e-mails e documentos.
2023: PaLM 2 faz avançar o futuro da inteligência artificial
Em maio deste ano, apresentamos o PaLM 2. Ele é um grande modelo de linguagem de última geração, com capacidades aprimoradas de trabalhar com diversos idiomas, raciocínio e código. Ele é mais capaz, rápido e eficiente do que seus antecessores, e já é usado em mais de 25 produtos do Google – incluindo Bard, recursos de IA generativa no Gmail e no Workspace, e o SGE. Este último é a experiência do Google para fazer uma integração profunda entre IA generativa e a Busca. Também usamos o PaLM 2 para o avanço de nossas pesquisas internas em áreas que vão de saúde a cibersegurança.
Os marcos listados neste texto são apenas algumas das inovações do Google em inteligência artificial. Elas são o motor por trás dos produtos usados por bilhões de pessoas todos os dias. Nossa abordagem, ousada e responsável, é sempre guiada pelos Princípios de IA. Já estamos trabalhando no Gemini, novo modelo que vai permitir ainda mais avanços ao longo dos próximos 25 anos.