Nuestros 10 mayores momentos de IA hasta ahora
En caso de que no te hayas enterado, la IA se ha convertido últimamente en un asunto de gran relevancia. Pero ha sido de gran importancia en Google desde nuestros primeros días, y por una buena razón. Tiene el poder de facilitar tus tareas rutinarias y el poder de ayudar a resolver los mayores problemas de la sociedad. Mientras celebramos nuestro cumpleaños 25, estamos recordando algunos de nuestros mayores momentos de IA hasta ahora, y esperamos tener logros aún mayores por delante.
2001: El aprendizaje automático ayuda a los usuarios de la Búsqueda de Google a corregir su ortografía
El cofundador de Google, Larry Page, alguna vez dijo: "El motor de búsqueda perfecto debe entender exactamente lo que quieres decir y entregarte exactamente lo que necesitas". Dimos un gran paso en el avance de esa visión cuando comenzamos a usar una versión simple de aprendizaje automático para sugerir mejoras ortográficas en las búsquedas web. Incluso si no lo escribes a la perfección, aún así podemos darte lo que necesitas.
2006: Se lanza Google Translate
Cinco años después, lanzamos Google Translate, que usa el aprendizaje automático para traducir idiomas automáticamente. Comenzamos con traducciones de árabe a inglés e inglés a árabe, pero hoy Google Translate admite 133 idiomas hablados por millones de personas alrededor del mundo. Esta tecnología puede traducir texto, imágenes o incluso una conversación en tiempo real, rompiendo las barreras del idioma en toda la comunidad global, ayudando a las personas a comunicarse y ampliando el acceso a la información como nunca antes.
2015: TensorFlow democratiza la IA
La introducción de TensorFlow, un nuevo marco de aprendizaje automático de código abierto, hizo que la IA fuera más accesible, escalable y eficiente. También ayudó a acelerar el ritmo de la investigación y el desarrollo de la IA alrededor del mundo. TensorFlow es ahora uno de los marcos de aprendizaje automático más populares y se ha utilizado para desarrollar una amplia gama de aplicaciones de IA, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural y la traducción automática.
2016: AlphaGo derrota al campeón mundial de Go
Como parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron en línea cómo AlphaGo se convirtió en el primer programa de IA en derrotar a un campeón mundial humano en Go, un complejo juego de mesa que antes se consideraba fuera del alcance de las máquinas. Esta victoria histórica demostró el potencial del aprendizaje profundo para resolver problemas complejos que antes se consideraban imposibles para las computadoras. La victoria de AlphaGo sobre Lee Sedol, uno de los mejores jugadores de Go del mundo, provocó una conversación global sobre el futuro de la IA y demostró que los sistemas de IA ahora podrían aprender a dominar juegos complejos que requieren pensamiento estratégico y creatividad.
2016: Los TPUs permiten una implementación de IA más rápida y eficiente
Las unidades de procesamiento tensorial, o TPU, son chips de silicio diseñados a la medida que inventamos específicamente para el aprendizaje automático y optimizados para TensorFlow. Pueden entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales, lo que los hace ideales para aplicaciones de IA a gran escala. La versión v5e, anunciada en agosto, es el TPU en la nube más rentable, versátil y escalable hasta la fecha.
2017: Google Research presenta el Transformer
El artículo de investigación de Google Research "Attention Is All You Need" presentó el Transformer, una nueva arquitectura de red neuronal que ayudó a la comprensión del lenguaje. Antes de Transformer, las máquinas no eran muy buenas para entender el significado de oraciones largas: no podían ver las relaciones entre palabras que estaban muy separadas. Transformer mejoró enormemente esto y se ha convertido en la base de los sistemas de inteligencia artificial generativa y comprensión del lenguaje más impresionantes de la actualidad. Transformer ha revolucionado lo que significa para las máquinas traducir, resumir textos, responder preguntas e incluso generar imágenes y la robótica.
2019: BERT ayuda a la Búsqueda a comprender mejor las consultas
Nuestra investigación sobre Transformers condujo a la introducción del "Bidirectional Encoder Representations from Transformers" (Representaciones bidireccionales de codificadores a partir de Transformers), o BERT para abreviar, que ayudó a la Búsqueda a comprender las consultas de los usuarios mejor que nunca. En lugar de tratar de entender las palabras individualmente, nuestros algoritmos BERT ayudaron a Google a entender las palabras en contexto. Esto condujo a una gran mejora de la calidad en la Búsqueda y facilitó que las personas hicieran preguntas como lo harían naturalmente, en lugar de encadenar palabras clave.
2020: AlphaFold resuelve el problema del plegamiento de proteínas
En 2020, DeepMind dio un salto en el campo de la IA con su sistema, AlphaFold, que fue reconocido como una solución al "problema del plegamiento de proteínas". Las proteínas son los componentes básicos de la vida, y la forma en que una proteína se pliega determina su función; una proteína mal plegada podría causar enfermedades. Durante 50 años, los científicos habían estado tratando de predecir cómo se plegaría una proteína para ayudar a comprender y tratar enfermedades. AlphaFold hizo exactamente eso. Luego, en 2022, compartimos 200 millones de estructuras de proteínas de AlphaFold, que cubren casi todos los organismos del planeta de los que se ha secuenciado su genoma, libremente con la comunidad científica a través de la base de datos de estructuras de proteínas de AlphaFold. Más de 1 millón de investigadores ya lo han utilizado para trabajar en una diversidad de cosas, desde acelerar nuevas vacunas contra la malaria en un tiempo récord y avanzar en el descubrimiento de fármacos contra el cáncer, hasta desarrollar enzimas que se alimentan de plástico.
2023: Bard te ayuda a colaborar con la IA generativa
LaMDA, un modelo de lenguaje de gran tamaño conversacional lanzado por Google Research en 2021, allanó el camino para muchos sistemas de IA generativa que han capturado la imaginación del mundo, incluido Bard. Lanzado en marzo, Bard ahora está disponible en la mayor parte del mundo y en más de 40 idiomas, por lo que más personas que nunca pueden usarlo para aumentar la productividad, acelerar las ideas y alimentar la curiosidad. Y hemos combinado el modelo más inteligente y capaz de Bard con los servicios de Google que usas todos los días, como Gmail, Docs, Drive, Vuelos/Hoteles, Maps y YouTube, para que te sea aún más útil con tareas como la planificación de viajes, la verificación de respuestas y el resumen de correos electrónicos o documentos.
2023: PaLM 2 avanza el futuro de la IA
En mayo de este año, presentamos PaLM 2, nuestro modelo de lenguaje de gran tamaño de próxima generación que ha mejorado las capacidades multilingües, de razonamiento y de codificación. Es más capaz, más rápido y más eficiente que sus predecesores, y ya está impulsando más de 25 productos y funciones de Google, incluidas Bard, funciones de IA generativa en Gmail y Workspace, y SGE, nuestro experimento para integrar profundamente la IA generativa en la Búsqueda de Google. También estamos utilizando PaLM 2 para avanzar en la investigación interna sobre una infinidad de cosas, desde la atención médica hasta la ciberseguridad.
Estas son sólo algunas de las innovaciones de IA de Google que están permitiendo muchos de los productos que miles de millones de personas usan todos los días. Con nuestros Principios de IA para guiarnos mientras adoptamos un enfoque audaz y responsable de IA, ya estamos trabajando en Gemini, nuestro próximo modelo creado para permitir futuros avances en nuestros siguientes 25 años.