Acceder al contenido
Esto es Google

Nuestro compromiso con el avance de una IA audaz y responsable, juntos



Estamos orgullosos de unirnos a otras empresas líderes en IA para comprometernos conjuntamente a impulsar prácticas responsables en el desarrollo de la inteligencia artificial. El día de hoy marca un hito en la unión de la industria para garantizar que la IA ayude a todas las personas. Estos compromisos apoyarán los esfuerzos del G7, la OCDE y los gobiernos nacionales para maximizar los beneficios de la IA y minimizar sus riesgos.

Durante mucho tiempo hemos creído que ser audaces en IA significa ser responsables desde el principio. A continuación más información sobre cómo lo estamos haciendo.

Aplicando la IA para resolver los mayores desafíos de la sociedad

Llevamos más de una docena de años trabajando en IA, y en 2017 nos reorientamos para ser una empresa que pone a la IA en primer lugar. En la actualidad, la IA impulsa la Búsqueda de Google, Translate, Maps y otros servicios que utilizas a diario. Y estamos utilizando la IA para resolver problemas sociales: previsión de inundaciones, reducción de las emisiones de carbono mediante la reducción del tráfico intermitente, mejora de la atención de salud respondiendo a preguntas clínicas con más del 90% de precisión y ayudando a tratar y detectar enfermedades como el cáncer de mama.

Promoviendo sistemas de IA seguros y protegidos

Pero no basta con que la IA mejore los servicios: también queremos utilizarla para que esos servicios sean seguros. Diseñamos nuestros productos para que sean seguros por defecto, y nuestro enfoque de la IA no es diferente. Recientemente presentamos nuestro Marco Seguro de IA (SAIF) para ayudar a las organizaciones a proteger los sistemas de IA, y ampliamos nuestros programas de bug hunters (incluido nuestro Programa de Recompensas por Vulnerabilidades) para incentivar la investigación sobre la seguridad de la IA. Nuestros modelos se someten a pruebas adversariales para mitigar los riesgos, y nuestro equipo de Google DeepMind está avanzando en temas como ayudar a la IA a comunicarse de manera más segura, evitar que los modelos avanzados se utilicen indebidamente y diseñar sistemas para que sean más éticos y justos.

Nos comprometemos a continuar este trabajo, y a participar en ejercicios adicionales de red team como el de la siguiente DefCon el próximo mes.

Generando confianza en los sistemas de IA

Reconocemos que a veces el poder de las nuevas herramientas de IA puede amplificar los retos sociales actuales, como la desinformación y los prejuicios injustos. Es por eso que en 2018 publicamos un conjunto de Principios de IA para guiar nuestro trabajo y establecimos un equipo de gobernanza para ponerlos en práctica mediante la realización de revisiones éticas de nuevos sistemas, evitando los sesgos e incorporando la privacidad, seguridad y protección. Y nuestro kit de herramientas de IA responsable también ayuda a los desarrolladores a aprovechar la IA de manera responsable. Seguiremos trabajando para construir la confianza en los sistemas de IA, entre otras cosas compartiendo informes periódicos sobre los progresos de nuestro trabajo.

Cuando se trata de contenidos, estamos tomando medidas para promover la información confiable. Pronto integraremos marcas de agua, metadatos y otras técnicas innovadoras en nuestros modelos generativos más recientes, e incorporaremos la herramienta "Acerca de esta imagen" a la Búsqueda de Google para ofrecer información contextual sobre el lugar en el que apareció por primera vez una imagen en línea. Abordar el contenido generado por IA requerirá soluciones a lo largo de toda la industria, y estamos buscando trabajar con otros, por ejemplo, mediante el grupo de trabajo de medios sintéticos de Partnership for AI.

Construyendo una IA responsable, juntos

Ninguna empresa puede hacer bien la IA por sí sola. Nos complace unirnos a otras empresas líderes en IA para respaldar estos compromisos, y nos comprometemos a seguir trabajando juntos compartiendo información y mejores prácticas. Grupos como Partnership for AI y ML Commons ya están liderando iniciativas importantes y esperamos que se realicen esfuerzos adicionales para promover el desarrollo responsable de nuevas herramientas de IA generativa.