I/O 2019: Construyendo un Google más útil para todos
Hoy hemos dado la bienvenida a miles de personas a I/O, nuestra conferencia anual para desarrolladores. Es uno de mis eventos favoritos del año ya que nos da la oportunidad de mostrar cómo estamos haciendo realidad la misión de Google con nuevos avances tecnológicos y productos.
Nuestra misión de hacer la información universalmente accesible y útil no ha cambiado en los últimos 21 años, pero nuestro enfoque ha evolucionado a lo largo del tiempo. Google no es más una empresa que te ayuda a encontrar respuestas. Hoy, los productos de Google también te ayudan a completar tareas, ya sea encontrar las palabras adecuadas con Smart Compose de Gmail o el camino más rápido a casa con Google Maps.
Dicho de otra manera, nuestra visión es hacer que Google sea más útil para todos, no importa quién seas, dónde vivas o qué estés deseando hacer. Y cuando decimos útil, nos referimos a ofrecerte las herramientas que te permitan ampliar tu conocimiento, tu salud, tu salud y tu éxito. Estoy entusiasmado de compartir hoy algunos de los productos y funcionalidades que nos acercan a esa meta.
Ayudándote a conseguir mejores respuestas para tus preguntas
La gente va a Google para preguntar miles de millones de preguntas todos los días. Pero todavía podemos hacer más para ayudarte a encontrar aquello que necesitas. Hoy hemos anunciado la integración de la característica Full Coverage de Google News en el buscador. A través del machine learning, podremos identificar distintas partes de la noticia - desde la secuencia de los hechos hasta las personas involucradas - y ofrecer una amplia variedad de contenido, incluyendo artículos, tweets o podcasts.
Algunas veces la mejor manera de entender nueva información es viéndola. Nuevas funcionalidades en las búsquedas de Google y Google Lens utilizan la cámara, la visión computarizada y la realidad aumentada (AR) para ofrecer respuestas visuales a preguntas visuales. Y ahora estamos trayendo la realidad aumentada a las búsquedas. Si estás buscando nuevos zapatos en línea, podrás verlos más de cerca en diferentes ángulos e incluso ver cómo combinan con tu ropa. También puedes usar Google Lens para obtener más información sobre lo que estás viendo en el mundo real. Así, si estás en un restaurante puedes enfocar el menú con la cámara de tu móvil y Google Lens destacará los platos que son más populares, te mostrará imágenes y reseñas de otras personas que hayan estado antes allí. En GoogleGo, una aplicación para usuarios que utilizan un smartphone por primera vez, Google Lens leerá en voz alta las palabras que veas, ayudando a millones de adultos alrededor del mundo con dificultades para leer cosas de la vida diaria, como carteles en la calle o instrucciones en un cajero automático.
Ayudándote a hacer tu día más fácil
El pasado año en I/O presentamos nuestra tecnología Duplex, la cual es capaz de reservar una mesa en un restaurante a través de una llamada de teléfono con el Asistente de Google en tu lugar. Ahora, queremos llevar más allá de la voz Duplex, para ayudarte a hacer las cosas en la web. Para empezar, nos estamos centrando en dos tareas específicas: reserva de coches de alquiler y entradas de cine. Usando “Duplex on the Web”, el Asistente automáticamente introduce la información, navega por los distintos pasos de la reserva, y completa la operación en tu lugar. Y gracias a los avances en deep learning, ahora es posible ofrecer en tu móvil una comprensión de voz y del lenguaje natural , haciendo que el Asistente de Google trabaje más rápido para ti.
Continuamos creyendo que los principales avances ocurren en la intersección de la IA, el software y el hardware, y por eso hoy anunciamos dos nuevos productos Made by Google: el nuevo Pixel 3a (y 3a XL) y Google Nest Hub Max. Con Pixel 3a, estamos dando a las personas las mismas funcionalidades que aprecian en un hardware más accesible. Google Nest Hub acerca la utilidad del Asistente a cualquier ambiente de la casa, y mucho más.
Creando para todos
Crear un Google capaz de ayudar más es importante, pero para nosotros, también lo es hacerlo para todo el mundo. Desde nuestros comienzos, el buscador ha funcionado igual tanto si eres un profesor en Stanford o un estudiante en una parte rural de Indonesia. Hemos ido ampliando este enfoque para desarrollar tecnología responsable, segura, y que sea beneficiosa para todos.
Esto es especialmente importante en el desarrollo de la inteligencia artificial. A través de un nuevo enfoque investigativo llamado TCAV — o testeando con vectores conceptuales de aviación — estamos trabajando en corregir desviaciones en aprendizaje automático y crear modelos más interpretables. Por ejemplo, TCAV puede revelar si un modelo entrenado para detectar imágenes de “doctores” asumió por error que ser hombre es una característica importante de ser doctor porque hay más imágenes de doctores hombres en los datos que se usan para entrenar al sistema. Hemos disponibilizado TCAV en código abierto para que cualquiera pueda hacer sus sistemas de IA más justos y más interpretables, y estaremos lanzando más herramientas y conjuntos abiertos de datos próximamente.
Otra manera en la que estamos construyendo una responsabilidad para todos es asegurándonos de que nuestros productos son seguros y privados. Estamos llevando a cabo una serie de mejoras de privacidad para que la gente sepa elegir claramente acerca de sus datos. Google Account ofrece de una manera sencilla todos los controles de privacidad, y a partir de ahora será más accesible en más productos con un simple toque. Modo Incógnito llega a Maps, lo que significa que podrás buscar y navegar sin vincular dicha actividad a tu cuenta de Google, y los nuevos controles de auto eliminación te permitirán elegir por cuánto tiempo guardar tus datos. También estamos haciendo grandes mejoras en cuanto a seguridad con Android Q, y estamos haciendo del teléfono una llave de seguridad para la verificación en dos pasos.
A medida que miramos hacia delante, desafiamos la idea de que los productos necesitan más datos para ser más útiles. Una nueva técnica denominada “Federated Learning” nos permite entrenar modelos de IA y hacer que los productos sean más inteligentes sin que los datos abandonen tu dispositivo. Gracias al “federated learning”, Gboard puede aprender nuevas palabras como “zoodles” o "Targaryen" después de que miles de personas hayan comenzado a usarla, sin que nosotros conozcamos lo que estás escribiendo. En el futuro, los avances en IA proporcionarán nuevas formas de hacer que nuestros productos necesiten menos datos para ayudarte.
Crear nuestros productos para todas las personas implica que todo el mundo pueda acceder y disfrutar de nuestros productos, incluidas las personas con discapacidad. Hoy presentamos varios productos con nuevas herramientas y funciones de accesibilidad, como Live Caption, que puede subtitular conversaciones en vídeo, en un podcast, o una que esté sucediendo en tu hogar. En el futuro, Live Relay y Euphonia ayudarán a las personas que tienen problemas para comunicarse verbalmente, ya sea porque sufren un trastorno del habla o pérdida de audición.
El desarrollo de productos para personas con discapacidad a menudo lleva a avances que contribuyen a mejorar nuestros productos para todos nuestros usuarios. A esto nos referimos a esto cuando hablamos de crear un Google más útil para todos. También queremos ayudar a otras organizaciones que utilizan la tecnología para mejorar la vida de las personas. Hoy hemos anunciado los ganadores del Google AI Impact Challenge: 20 organizaciones que utilizan la IA para resolver algunos de los problemas más graves del mundo, desde crear mejores sistemas para monitorizar la calidad del aire hasta agilizar las respuestas de emergencia.
Nuestra visión de construir un Google que ayude a todo el mundo no puede hacerse realidad sin nuestra asombrosa comunidad de desarrolladores. Juntos, estamos trabajando para dotar a todo el mundo de herramientas que aumenten su conocimiento, salud, felicidad y éxito. Están ocurriendo muchas cosas, así que te animamos a seguir las novedades de I/O.