Nuestro compromiso con la Inteligencia Artificial Responsable
Creemos que el poder transformador de la Inteligencia Artificial puede mejorar vidas y hacer del mundo un lugar mejor, si se aborda con audacia y responsabilidad. En la actualidad, nuestras investigaciones y productos ya están ayudando a personas de todo el mundo, desde sus tareas cotidianas hasta sus proyectos más ambiciosos, productivos y creativos.
Para nosotros, construir la IA de forma responsable significa abordar sus riesgos y maximizar sus beneficios para las personas y la sociedad. Para ello, nos guiamos por nuestros Principios de IA, nuestras propias investigaciones y las opiniones de expertos, usuarios de productos y socios.
Construyendo la IA en beneficio de la sociedad con LearnLM
Cada día, miles de millones de personas utilizan los productos de Google para aprender. La IA generativa está abriendo nuevas vías para que el aprendizaje sea más personal, útil y accesible.
Hoy presentamos LearnLM, una nueva familia de modelos basados en Gemini y adaptados al aprendizaje. LearnLM integra en nuestros productos tanto la ciencia del aprendizaje respaldada por la investigación y principios académicos, como la ayuda para gestionar la carga cognitiva y adaptarse a los objetivos, necesidades y motivaciones de los alumnos. El resultado es una experiencia de aprendizaje más adaptada a las necesidades de cada individuo.
LearnLM ahora está impulsando una serie de características a través de nuestros productos, incluyendo Gemini, Buscador, YouTube y Google Classroom. En la aplicación Gemini, el nuevo entrenador de aprendizaje Gem ofrece una guía de estudio paso a paso, diseñada para construir la comprensión en lugar de simplemente darle la respuesta. En YouTube, a partir de ahora se podrá interactuar con los vídeos educativos de nuevas formas, como hacer una pregunta de seguimiento o comprobar conocimientos con un cuestionario. Gracias a la capacidad de contexto ampliada del modelo Gemini, estas funciones de YouTube actúan incluso en conferencias y seminarios largos.
La colaboración sigue siendo esencial para liberar todo el potencial de la IA generativa para la comunidad educativa en general. Estamos colaborando con organizaciones educativas líderes como Columbia Teachers College, Arizona State University, NYU Tisch y Khan Academy para probar y mejorar nuestros modelos, de forma que podamos extender LearnLM más allá de nuestros propios productos (si estás interesado en colaborar, puedes inscribirte en este enlace). También nos hemos asociado con MIT RAISE para desarrollar un curso en línea que le proporcione a los educadores herramientas para utilizar eficazmente la IA generativa dentro y fuera del aula.
Utilizando el contexto ampliado para hacer accesible el conocimiento
Una nueva herramienta experimental que hemos creado para hacer el conocimiento más accesible y digerible se llama Illuminate. Utiliza las capacidades de contexto ampliado de Gemini 1.5 Pro para transformar documentos de investigación complejos en breves diálogos de audio.
En minutos, Illuminate puede generar una conversación entre dos voces creadas por IA, que ofrecen una visión general y un breve debate sobre las ideas clave de los trabajos de investigación. Si las personas usuarias desean profundizar más, pueden hacer preguntas de seguimiento. A su vez, todos los resultados de audio llevan la marca de agua SynthID, y los artículos originales están referenciados, para que se pueda explorar fácilmente el material de origen por su cuenta y con más detalle. Para probarlo hoy mismo, se puede hacer registrándose en labs.google.
Mejorando nuestro modelos y su protección contra el uso indebido
Si bien estos avances nos ayudan a cumplir nuestra misión de nuevas maneras, la IA generativa sigue siendo una tecnología emergente y existen riesgos y cuestiones que surgirán a medida que continúe avanzando y sus usos evolucionen.
Por eso, creemos que es imprescindible adoptar un enfoque responsable de la IA guiado por nuestros Principios de la IA. Compartimos periódicamente actualizaciones sobre lo que hemos aprendido al ponerlos en práctica.
Hoy, nos gustaría compartir algunas nuevas formas en las que estamos mejorando nuestros modelos como Gemini y protegiéndonos contra su uso indebido.
- “Red Teaming” asistido por Inteligencia Artificial y comentarios de expertos. Para mejorar nuestros modelos, combinamos la investigación de vanguardia con la experiencia humana. Este año, vamos a tomar el “Red Teaming” -una práctica comprobada donde probamos proactivamente la debilidad de nuestros propios sistemas e intentamos romperlos- y mejorarlo a través de una nueva técnica de investigación que llamamos “AI-Assisted Red Teaming”. Esto se basa en los avances de Google DeepMind en juegos como AlphaGo, donde entrenamos a agentes de IA para que compitan entre sí y expandir el alcance de nuestras capacidades de “Red Teaming”. Estamos desarrollando modelos de IA con estas capacidades para ayudar a hacer frente a los estímulos de los adversarios y limitar los resultados problemáticos. También, mejoramos nuestros modelos con los comentarios de miles de especialistas internos en seguridad y expertos independientes de sectores como el académico, los gobiernos y la sociedad civil.
- SynthID para texto y vídeo. A medida que los resultados de nuestros modelos se hacen más realistas, también debemos tener en cuenta cómo podrían utilizarse indebidamente. En 2023 presentamos SynthID, una tecnología que agrega una marca de agua invisible en las imágenes y el audio generados por IA, para que sean más fáciles de identificar y proteger contra el uso indebido. Hoy ampliamos SynthID a dos nuevas modalidades: texto y vídeo. Esto forma parte de nuestra inversión más amplia para ayudar a las personas a comprender la procedencia de los contenidos digitales.
- Colaborar en las medidas de protección. Estamos comprometidos a trabajar con el ecosistema para ayudar a otros a beneficiarse y mejorar los avances que estamos logrando. En los próximos meses, abriremos el código fuente de la marca de agua de texto SynthID a través de nuestro kit actualizado de herramientas de Inteligencia Artificial generativa responsable. También somos miembros de la Coalition for Content Provenance and Authenticity (C2PA), que colabora con Adobe, Microsoft, startups y muchos otros para crear y aplicar una norma que mejore la transparencia de los medios digitales.
Ayudando a resolver problemas del mundo real
En la actualidad, nuestros avances en IA ya están ayudando a las personas a resolver problemas del mundo real y a avanzar en los descubrimientos científicos. Solo en las últimas semanas, hemos anunciado tres emocionantes hitos científicos:
- En colaboración con la Universidad de Harvard, Google Research ha publicado la mayor reconstrucción en 3D con resolución sináptica de la corteza cerebral humana, un avance que puede cambiar la comprensión del funcionamiento de nuestro cerebro.
- Anunciamos AlphaFold 3, una actualización de nuestro revolucionario modelo que ahora puede predecir la estructura y las interacciones del ADN, el ARN y los enlaces, además de las proteínas, lo que contribuye a transformar nuestra comprensión del mundo biológico y el descubrimiento de fármacos.
- Presentamos Med-Gemini, una familia de modelos de investigación que se basan en las capacidades del modelo Gemini en razonamiento avanzado, comprensión multimodal y procesamiento de contextos largos, para ayudar a mejorar la precisión y eficacia de los diagnósticos médicos, las recomendaciones de tratamiento y la predicción de riesgos.
Esto se suma a los resultados beneficiosos para la sociedad que hemos observado en trabajos como la previsión de inundaciones y el Data Commons de la ONU para los ODS. De hecho, recientemente publicamos un informe en el que destacamos todas las formas en que la IA puede ayudarnos a avanzar hacia los Objetivos de Desarrollo Sostenible compartidos por todo el mundo. Esto es solo el principio: estamos entusiasmados con lo que nos espera y con lo que podemos conseguir trabajando juntos.