Acesse o menu principal
Blog do Google Brasil

Inteligência Artificial

Construindo nosso compromisso de oferecer uma IA responsável

responsible ai

Acreditamos que o poder transformador da IA ​​pode melhorar vidas e tornar o mundo um lugar melhor, se for tratado com ousadia e responsabilidade. Hoje, nossas pesquisas e produtos já estão ajudando pessoas em todos os lugares — desde suas tarefas diárias até seus empreendimentos mais ambiciosos, produtivos e criativos.

Para nós, construir IA de forma responsável significa tanto abordar os seus riscos, quanto maximizar seus benefícios para as pessoas e a sociedade. Para isso, somos guiados pelos nossos Princípios de IA , pela nossa própria pesquisa e pelo feedback de especialistas, usuários de produtos e parceiros.

Construindo IA para beneficiar a sociedade com LearnLM

Todos os dias, bilhões de pessoas usam os produtos do Google para aprender. A IA generativa está abrindo novas maneiras de tornar o aprendizado mais pessoal, útil e acessível.

Hoje estamos anunciando o LearnLM , uma nova família de modelos, baseada no Gemini e aprimorada para o aprendizado.O LearnLM integra ciência de aprendizagem respaldada por pesquisa e princípios acadêmicos em nossos produtos, ajudando a gerenciar a carga cognitiva e a adaptar-se aos objetivos, necessidades e motivações dos alunos. O resultado é uma experiência de aprendizagem mais adaptada às necessidades de cada indivíduo.

learnlm

O LearnLM agora está potencializando uma variedade de recursos em nossos produtos, incluindo Gemini, Search, YouTube e Google Classroom. No aplicativo Gemini, o novo treinador de aprendizagem Gem oferece orientação de estudo passo a passo, projetada para desenvolver a compreensão, em vez de apenas fornecer a resposta. No YouTube, agora você pode interagir com vídeos educativos de novas maneiras, como fazer uma pergunta complementar ou verificar seu conhecimento com um questionário. Graças à capacidade de longo contexto do modelo Gemini, esses recursos do YouTube funcionam até mesmo em palestras e seminários longos.

A colaboração continua a ser essencial para desbloquear todo o potencial da IA ​​generativa para a comunidade educativa em geral. Estamos firmando parcerias com organizações educacionais líderes como Columbia Teachers College, Arizona State University, NYU Tisch e Khan Academy para testar e melhorar nossos modelos, e, assim, estender o LearnLM para além dos nossos próprios produtos (se estiver interessado em parceria, você pode inscreva-se neste link ). Além disso, também realizamos uma parceria com o MIT RAISE, para desenvolver um curso on-line a fim de fornecer aos educadores ferramentas para aplicar efetivamente a IA generativa dentro e fora da sala de aula.

Usando contexto longo para tornar o conhecimento acessível

Uma nova ferramenta experimental que construímos para tornar o conhecimento mais acessível e digerível é chamada Illuminate . Ele usa os recursos de contexto longo do Gemini 1.5 Pro para transformar trabalhos de pesquisa complexos em diálogos de áudio curtos. Em minutos, o Illuminate pode gerar uma conversa que consiste em duas vozes geradas por IA, fornecendo uma visão geral e uma breve discussão dos principais insights dos artigos de pesquisa. Se quiser se aprofundar, você pode fazer perguntas de acompanhamento. Todo o áudio gerado possui marca d'água com SynthID, e os artigos originais são referenciados, para que você possa explorar facilmente o material de origem por conta própria e em mais detalhes. Você pode se inscrever para experimentá-lo hoje em labs.google.

Melhorando nossos modelos e protegendo contra uso indevido

Embora essas inovações estejam nos ajudando a cumprir nossa missão de novas maneiras, a IA generativa ainda é uma tecnologia emergente e existem riscos e questões que surgirão à medida que a tecnologia avança e seus usos evoluem.

É por isso que acreditamos ser imperativo adotar uma abordagem responsável em relação à IA, guiada por nossos Princípios de IA. Regularmente compartilhamos atualizações sobre o que aprendemos ao colocá-los em prática.

Hoje, gostaríamos de compartilhar algumas novas formas de aprimoramento dos nossos modelos, como o Gemini, e de proteção contra seu uso indevido.

1. Red Teaming assistido por IA e feedback de especialistas.Para melhorar nossos modelos, combinamos pesquisa de ponta com experiência humana. Este ano, estamos adotando o red teaming — uma prática comprovada em que testamos proativamente nossos próprios sistemas em busca de pontos fracos — e aprimorando-o por meio de uma nova técnica de pesquisa que chamamos de “Red Teaming Assistido por IA”. Isso se baseia nas inovações em jogos do Google DeepMind, como AlphaGo, onde treinamos agentes de IA para competir entre si para expandir o escopo de suas capacidades de red teaming. Estamos desenvolvendo modelos de IA com esses recursos para ajudar a lidar com solicitações adversárias e limitar resultados problemáticos. Também melhoramos os nossos modelos com o feedback de milhares de especialistas internos em segurança e especialistas independentes de setores como o meio acadêmico, governos e a sociedade civil.

2. SynthID para texto e vídeo. À medida que os resultados dos nossos modelos se tornam mais realistas, devemos também considerar como podem ser mal utilizados. No ano passado, introduzimos o SynthID, uma tecnologia que coloca marcas d'água invisíveis em imagens e áudio gerados por IA para que sejam mais fáceis de identificar e proteger contra o uso indevido. Hoje, estamos expandindo o SynthID para duas novas modalidades: texto e vídeo. Isto faz parte do nosso investimento mais amplo em ajudar as pessoas a compreender a origem do conteúdo digital.

3. Colaborar em salvaguardas . Estamos empenhados em trabalhar com o ecossistema para ajudar outros a beneficiar e melhorar os avanços que estamos fazendo. Nos próximos meses, disponibilizaremos o marcador de água de texto SynthID de código aberto por meio de nosso Toolkit Responsável de IA Generativa atualizado. Também somos membros da Coalition for Content Provenance and Authenticity (C2PA), colaborando com Adobe, Microsoft, startups e muitos outros para construir e implementar um padrão que melhore a transparência de mídias digitais.

Ajudando a resolver problemas do mundo real

Hoje, os nossos avanços em IA já estão ajudando as pessoas a resolverem problemas do mundo real e promovendo avanços científicos. Nas últimas semanas, anunciamos três marcos científicos emocionantes:

  • Em colaboração com a Universidade de Harvard, o Google Research publicou a maior reconstrução 3D com resolução sináptica do córtex humano – um progresso que pode mudar a nossa compreensão de como funciona o nosso cérebro.
  • Anunciamos o AlphaFold 3, uma atualização do nosso modelo revolucionário que agora pode prever a estrutura e as interações de DNA, RNA e ligantes, além de proteínas – ajudando a transformar nossa compreensão do mundo biológico e da descoberta de medicamentos.
  • Apresentamos o Med-Gemini , uma família de modelos de pesquisa que se baseiam nas capacidades do modelo Gemini em raciocínio avançado, compreensão multimodal e processamento de contexto amplo — para ajudar a melhorar a precisão e a eficiência de diagnósticos médicos, recomendações de tratamento e previsão de risco.

Isso se soma aos resultados socialmente benéficos que vimos em trabalhos como a previsão de enchentes e o Data Commons da ONU para os ODS . Aliás, publicamos recentemente um relatório que destaca todas as formas como a IA pode ajudar a avançar o nosso progresso nos Objetivos de Desenvolvimento Sustentável partilhados a nível mundial. Este é apenas o começo – estamos entusiasmados com o que está por vir e com o que podemos realizar trabalhando juntos.