Accéder au menu principal
Blogue Google Canada

IA

Un agenda pour le progrès responsable en IA: Opportunité, responsabilité, sécurité

Image montrant une ampoule, une boussole et un badge de sécurité/verrouillage

Google a publié aujourd’hui un rapport détaillé contenant des suggestions pour un agenda de politique publique visant à guider le progrès responsable de l’IA (disponible en anglais seulement pour le moment).

Comme l’a déclaré Sundar lors de la conférence Google I/O qui s’est tenue ce mois-ci, la croissance de l’IA est l’un des plus grands changements technologiques que nous ayons connus. Les progrès des modèles d’IA d’aujourd’hui ne se limitent pas à la création de nouvelles façons d’accéder à l’information, de trouver les mots justes ou de découvrir de nouveaux endroits, ils contribuent à franchir de nouvelles étapes scientifiques et technologiques.

Nous sommes à l’aube d’une nouvelle ère, qui nous permet de réimaginer les moyens d’améliorer considérablement la vie de milliards de personnes, d’aider les entreprises à prospérer et à se développer, et d’aider la société à répondre à nos questions les plus difficiles. Parallèlement, nous devons tous être conscients que l’IA s'accompagne de risques et de défis.

Dans ce contexte, nous nous engageons à continuer d’aller l’avant de manière audacieuse et responsable, et en partenariat avec d’autres.

Les appels à l’arrêt des progrès technologiques ont peu de chances d’aboutir ou d’être efficaces, et risquent de passer à côté des avantages substantiels de l’IA et de se laisser distancer par ceux qui en exploitent le potentiel. Au contraire, nous devons déployer de vastes efforts - au niveau des gouvernements, des entreprises, des universités et autres - pour aider à traduire les percées technologiques en avantages généralisés, tout en atténuant les risques.

Il y a quelques semaines, j'ai souligné la nécessité d'un programme commun pour un progrès responsable de l'IA. J'ai alors indiqué que des pratiques individuelles, des normes sectorielles partagées et des politiques gouvernementales éclairées seraient essentielles pour obtenir les résultats escomptés. Nous publions aujourd'hui un rapport détaillé contenant des recommandations de politiques publiques pour l'IA, et dans lequel nous encourageons les gouvernements à se concentrer sur trois domaines clés : débloquer les opportunités, promouvoir la responsabilité et renforcer la sécurité :

1. Débloquer les opportunités en maximisant les promesses économiques de l'IA

Les économies qui adoptent l'IA connaîtront une croissance significative, surpassant leurs rivales qui sont plus lentes à l'adopter. L'IA aidera de nombreuses industries à produire des produits et des services plus complexes et plus précieux, et à accroître la productivité malgré les défis démographiques croissants. L'IA promet de donner un coup de pouce aux petites entreprises qui utilisent des produits et des services alimentés par l'IA pour innover et se développer, ainsi qu'aux travailleurs qui peuvent se concentrer sur des tâches moins routinières et plus gratifiantes.

Ce qu'il faut pour bien faire : Pour débloquer les opportunités économiques offertes par l'IA et minimiser les perturbations de la main-d'œuvre, les décideurs politiques devraient investir dans l'innovation et la compétitivité, promouvoir des cadres juridiques qui soutiennent l'innovation responsable en matière d'IA et préparer la main-d'œuvre à la transition professionnelle induite par l'IA. Par exemple, les gouvernements devraient explorer la recherche fondamentale sur l'IA par l'intermédiaire des laboratoires nationaux et des institutions de recherche, adopter des politiques qui soutiennent le développement responsable de l'IA (y compris des lois sur la protection de la vie privée qui protègent les informations personnelles et permettent des flux de données fiables à travers les frontières nationales), et promouvoir la formation continue, les programmes de perfectionnement et la recherche sur l'évolution de l'avenir du travail.

2. Promouvoir la responsabilité tout en réduisant les risques d’abus

L'IA aide déjà le monde à relever des défis allant des maladies au changement climatique, et peut constituer une puissante force de progrès. Mais si les systèmes d’IA ne sont pas développés et déployés de manière responsable, les systèmes d'IA pourraient également amplifier les problèmes sociétaux actuels, tels que la désinformation, la discrimination et la mauvaise utilisation des outils. Sans confiance dans les systèmes d'IA, les entreprises et les consommateurs hésiteront à adopter l'IA, ce qui limitera leurs chances de profiter de ses avantages.

Ce qu'il faudra faire pour y parvenir : Pour relever ces défis, il faudra adopter une approche multipartite de la gouvernance. Tirant les leçons de l'expérience de l'Internet, les parties prenantes se présenteront à la table des négociations avec une bonne compréhension des avantages et des défis potentiels. Certains défis nécessiteront d'investir dans le développement et le déploiement de nouvelles innovations techniques dans des domaines tels que l'interprétabilité et le filigrane numérique. D'autres seront mieux traités grâce à des normes et à des bonnes pratiques partagées, ainsi qu'à une réglementation proportionnelle et fondée sur les risques, afin de garantir que les technologies de l'IA sont développées et déployées de façon responsable. D'autres pourraient nécessiter la création de nouvelles organisations et institutions. Par exemple, des entreprises de premier plan pourraient se réunir pour former un Forum mondial sur l'IA (GFAI), en s'inspirant d'exemples antérieurs tels que le Forum mondial de l'internet pour la lutte contre le terrorisme (GIFCT). L'alignement international sera également essentiel pour développer des approches politiques communes qui reflètent les valeurs démocratiques et évitent la fragmentation.

3. Renforcer la sécurité mondiale tout en empêchant les acteurs malveillants d'exploiter cette technologie

L'IA a des implications importantes pour la sécurité et la stabilité mondiales. L'IA générative peut contribuer à la création (mais aussi à l'identification et au suivi) de fausses informations, de désinformations et de médias manipulés. La recherche en sécurité basée sur l'IA est à l'origine d'une nouvelle génération de cyberdéfenses grâce à des opérations de sécurité avancées et à des renseignements sur les menaces, tandis que les exploits générés par l'IA peuvent également permettre à des adversaires de mener des cyberattaques plus sophistiquées.

Ce qu'il faudra faire pour y parvenir : La première étape consiste à mettre en place des garde-fous techniques et commerciaux pour empêcher l'utilisation malveillante de l'IA et à travailler collectivement pour s'attaquer aux mauvais acteurs, tout en maximisant les avantages potentiels de l'IA. Par exemple, les gouvernements devraient envisager des politiques de contrôle commercial de nouvelle génération pour des applications spécifiques de logiciels alimentés par l'IA qui sont considérées comme des risques pour la sécurité, et pour des entités spécifiques qui soutiennent la recherche et le développement liés à l'IA d'une manière qui pourrait menacer la sécurité mondiale. Les gouvernements, les universités, la société civile et les entreprises doivent également mieux comprendre les implications des systèmes d'IA de plus en plus puissants et la manière dont nous pouvons aligner l'IA sophistiquée et complexe sur les valeurs humaines. Au final, la sécurité est un sport d'équipe et les progrès dans ce domaine nécessiteront une coopération sous la forme de recherches conjointes, de l'adoption d'une gouvernance des données de premier ordre, de forums publics-privés pour partager des informations sur les vulnérabilités de l'IA en matière de sécurité, et bien plus encore.

Dernières réflexions

En reconnaissant pleinement les défis potentiels, nous sommes convaincus qu'un agenda de politique publique centré sur les opportunités, la responsabilité et la sécurité pourra débloquer les avantages de l'IA et s'assurer que ces avantages sont partagés par tous.

Comme nous l'avons déjà dit, l'IA est trop importante pour ne pas être réglementée, et trop importante pour ne pas être bien réglementée. Du cadre de vérification de l'IA de Singapour à l'approche pro-innovation du Royaume-Uni en matière de réglementation de l'IA, en passant par le cadre de gestion des risques de l'IA du National Institute of Standards & Technology des États-Unis, nous sommes encouragés par le fait que les gouvernements du monde entier se penchent sérieusement sur les cadres politiques appropriés pour ces nouvelles technologies, et nous nous réjouissons de soutenir leurs efforts.