Acceder al contenido
Esto es Google

AI

Una agenda de políticas para el progreso responsable de la IA: oportunidad, responsabilidad, seguridad

Imagen

Como dijo Sundar en Google I/O este mes, el crecimiento de la IA es el cambio tecnológico más grande que hemos visto. Los avances en los modelos de IA de hoy no sólo están creando nuevas formas de interactuar con la información, encontrar las palabras correctas, o descubrir nuevos lugares, también están ayudando a las personas a conquistar terrenos científicos y tecnológicos completamente nuevos.

Nos encontramos en la cúspide de una nueva era, que nos permite reimaginar las formas en que podemos mejorar significativamente las vidas de miles de millones de personas, ayudar a las empresas a prosperar y crecer, y apoyar a la sociedad a responder a nuestras preguntas más desafiantes. Al mismo tiempo, todos debemos tener claro que la IA vendrá con riesgos y desafíos.

En este contexto, nos comprometemos a seguir adelante con valentía, responsabilidad y en asociación con otros.

Es poco probable que los llamados a detener los avances tecnológicos tengan éxito o sean efectivos, y corren el riesgo de perderse los beneficios sustanciales de la IA y quedarse atrás de aquellos que aprovechan su potencial. En cambio, necesitamos esfuerzos de base amplia, en el gobierno, las empresas, las universidades y más, para ayudar a traducir los avances tecnológicos en beneficios generalizados, mientras se mitigan los riesgos.

Cuando hace unas semanas expuse la necesidad de una Agenda compartida para el progreso responsable de la IA, dije que las prácticas individuales, los estándares compartidos por la industria y las políticas gubernamentales sólidas serían esenciales para lograr una IA adecuada. Hoy publicamos un white paper (documento) con recomendaciones de políticas para la IA en el que animamos a los gobiernos a centrarse en tres áreas clave: liberar oportunidades, promover la responsabilidad, y fortalecer la seguridad.

  1. Liberando oportunidades maximizando la promesa económica de la IA

    Las economías que adopten la IA experimentarán un crecimiento significativo, superando a los rivales que sean más lentos en la adopción. AI ayudará a muchas industrias diferentes a producir productos y servicios más complejos y valiosos, y ayudará a aumentar la productividad a pesar de los crecientes desafíos demográficos. AI también promete dar un impulso tanto a las pequeñas empresas que utilizan productos y servicios impulsados ​​por AI para innovar y crecer, como a los trabajadores que pueden concentrarse en elementos no rutinarios y más gratificantes de sus trabajos.

Lo que se necesita para hacer esto bien: Para liberar la oportunidad económica que ofrece la IA y minimizar las interrupciones de la fuerza laboral, los legisladores deben invertir en innovación y competitividad, promover marcos legales para la innovación de la IA y preparar a la fuerza laboral para la transición impulsada por la IA. Por ejemplo, los gobiernos deberían explorar la investigación fundacional de la IA a través de laboratorios e instituciones de investigación nacionales, adoptar políticas que apoyen el desarrollo responsable de la IA (incluyendo leyes de privacidad que protejan la información personal y permitan flujos de datos confiables a través de las fronteras nacionales) y promover la educación continua, los programas de mejora de habilidades, el movimiento de talentos clave a través de las fronteras y la investigación sobre la evolución del futuro del trabajo.

2. Promoviendo la responsabilidad mientras se reducen los riesgos del mal uso

La IA ya está ayudando al mundo a enfrentar desafíos desde enfermedades al cambio climático y puede ser una fuerza poderosa para el progreso. Pero si no se desarrollan y despliegan de manera responsable, los sistemas de IA también podrían amplificar los problemas sociales actuales, como la desinformación, la discriminación y el mal uso de las herramientas. Y sin confianza en los sistemas de IA, las empresas y los consumidores dudarán en adoptarlos, lo que limitará su oportunidad de capturar los beneficios de la IA.

Lo que se necesita para hacer esto bien: Abordar estos desafíos requerirá un enfoque de gobernanza basado en la participación de todas las partes interesadas. Aprendiendo de la experiencia de Internet, las partes interesadas se sentarán a la mesa con una comprensión saludable tanto de los beneficios como de los retos potenciales. Algunos desafíos requerirán una investigación fundamental para comprender mejor los beneficios y riesgos de la IA, y cómo gestionarlos, y desarrollar e implementar nuevas innovaciones técnicas en áreas como la interpretabilidad y las marcas de agua. Otros se abordarán mejor mediante el desarrollo de estándares comunes y mejores prácticas compartidas y una regulación proporcional basada en el riesgo para garantizar que las tecnologías de IA se desarrollen e implementen de manera responsable. Y otros pueden requerir nuevas organizaciones e instituciones. Por ejemplo, las empresas líderes podrían unirse para formar un Foro Global sobre IA (GFAI), basándose en ejemplos anteriores como el Foro Global de Internet para Contrarrestar el Terrorismo (GIFCT). La alineación internacional también será esencial para desarrollar enfoques políticos comunes que reflejen los valores democráticos y eviten la fragmentación.

3. Fortaleciendo la seguridad global al tiempo que impedimos que los agentes malintencionados se aprovechen de esta tecnología

La IA tiene implicaciones importantes para la seguridad y la estabilidad mundial. La IA Generativa puede ayudar a crear (pero también identificar y rastrear) información imprecisa o falsa, y manipulación de los medios de comunicación. Puede conducir a una nueva generación de ciberdefensas mediante operaciones de seguridad avanzadas e inteligencia sobre amenazas, al tiempo que posibilita ciberataques más sofisticados por parte de adversarios.

Lo que se necesita para hacer esto bien: Nuestro reto es establecer los controles apropiados para evitar el uso malicioso de la IA y trabajar colectivamente para hacer frente a los agentes malintencionados, maximizando al mismo tiempo los beneficios potenciales de la IA. Por ejemplo, los gobiernos deben explorar las políticas de control comercial de próxima generación para aplicaciones específicas de software impulsado por IA que se consideran riesgos de seguridad, y en entidades específicas que brindan apoyo a la investigación y el desarrollo relacionados con la IA en formas que podrían amenazar la seguridad global. Los gobiernos, la academia, la sociedad civil y las compañías necesitan comprender mejor las implicaciones de los sistemas de IA que son cada vez más potentes y cómo podemos alinear la IA cada vez más sofisticada y compleja con los valores humanos. Al final del día, la seguridad es un deporte de equipo y el progreso en este espacio requerirá cooperación en forma de investigación conjunta, adopción de la mejor gobernanza de datos de su clase, foros público-privados para compartir información sobre las vulnerabilidades de seguridad de la IA y más.

Reflexiones finales

Con el pleno reconocimiento de los retos potenciales, confiamos en que una agenda de políticas centrada en los pilares clave de oportunidad, responsabilidad y seguridad puede liberar los beneficios de la IA y garantizar que sean compartidos por todos.

Como hemos dicho antes, la IA es demasiado importante como para no regularla, y demasiado importante para no regularla bien. Desde el Marco de Verificación de IA de Singapur, hasta el enfoque proinnovación para la regulación de la IA del Reino Unido, pasando por el Marco de Gestión de Riesgos de la IA del America’s National Institute of Standards & Technology, nos alienta ver que gobiernos de todo el mundo abordan seriamente los marcos de políticas adecuados para estas nuevas tecnologías, y estamos entusiasmados por apoyar sus esfuerzos.