Accéder au menu principal
Blogue Google Canada

Notre engagement à promouvoir une IA audacieuse et responsable, ensemble



Aujourd’hui, les principales entreprises d’IA s’engagent conjointement à faire progresser les pratiques responsables dans le développement de l’intelligence artificielle. L’IA et l’apprentissage automatique promettent de profiter à chacun d’entre nous, en faisant progresser la science, en augmentant la productivité et en rehaussant le niveau de vie. Nous espérons que l’annonce d’aujourd’hui contribuera aux efforts déployés par le G7, l’OCDE et les gouvernements nationaux pour maximiser les avantages de l’IA et minimiser ses risques.

Nous pensons depuis longtemps qu’être audacieux en matière d’IA signifie être responsable dès le départ. Voici comment nous nous y prenons :

Appliquer l’IA pour relever les plus grands défis de la société

Nous travaillons sur l’IA depuis plus d’une dizaine d’années et, en 2017, nous avons déclaré que nous étions devenus une « entreprise axée sur l’IA ». Aujourd’hui, l’IA alimente Google Search, Translate, Maps et d’autres services que vous utilisez tous les jours. Et nous utilisons l’IA pour résoudre des problèmes sociétaux, prévoir les inondations, réduire les émissions de carbone en réduisant le trafic à l’arrêt, améliorer les soins de santé en répondant à des questions cliniques avec une précision de plus de 90 % et aider à traiter et à dépister des maladies comme le cancer du sein.

Promouvoir des systèmes d'IA sûrs et sécurisés

Mais il ne suffit pas que l'IA produise de meilleurs services; nous voulons aussi l'utiliser pour rendre ces services sûrs et sécurisés. Nous concevons nos produits pour qu'ils soient sécurisés par défaut, et notre approche de l'IA n'est pas différente. Nous avons récemment introduit notre Secure AI Framework (SAIF) pour aider les organisations à sécuriser les systèmes d'IA, et nous avons étendu nos programmes de chasseurs de bogues (y compris notre Vulnerability Rewards Program) pour encourager la recherche autour de la sûreté et de la sécurité de l'IA. Nous soumettons nos modèles à des tests contradictoires afin d'atténuer les risques, et notre équipe Google DeepMind fait progresser les connaissances sur des sujets tels que l'aide à la communication de l'IA de manière plus sûre, la prévention de l'utilisation abusive des modèles avancés et la conception de systèmes plus éthiques et plus équitables.

Nous nous engageons à poursuivre ce travail et à participer à d'autres exercices d'équipe Red Team, incluant la conférence DefCon qui se tiendra le mois prochain.

Renforcer la confiance dans les systèmes d'IA

Nous reconnaissons que, parfois, la puissance des nouveaux outils d'IA peut amplifier les défis sociétaux actuels tels que la désinformation et les préjugés injustes. C'est pourquoi, en 2018, nous avons publié un ensemble de principes d'IA pour guider notre travail, et mis en place une équipe de gouvernance pour les mettre en œuvre en effectuant des examens éthiques des nouveaux systèmes, en évitant les préjugés et en intégrant la protection de la vie privée, la sécurité et la sûreté. Et notre boîte à outils pour une IA responsable aide les développeurs à poursuivre l'IA de manière responsable également. Nous continuerons à œuvrer pour renforcer la confiance dans les systèmes d'IA, notamment en publiant régulièrement des rapports sur l'état d'avancement de nos travaux.

En ce qui concerne le contenu, nous prenons des mesures pour promouvoir des informations fiables. Nous intégrerons bientôt le filigrane, les métadonnées et d'autres techniques innovantes dans nos derniers modèles génératifs, et nous ajouterons un outil « À propos de cette image » à Google Search pour vous donner le contexte de l'endroit où une image est apparue en ligne pour la première fois. Le traitement des contenus générés par l'IA nécessitera des solutions à l'échelle de l'industrie, et nous avons hâte de travailler avec d'autres, notamment avec le groupe de travail sur les médias synthétiques de Partnership on AI.

Construire une IA responsable, ensemble

Aucun d'entre nous ne peut réussir l'IA seul. Nous sommes heureux de nous joindre à d'autres grandes entreprises d'IA pour approuver ces engagements, et nous nous engageons à continuer à travailler ensemble en partageant des informations et des bonnes pratiques. Des groupes tels que Partnership on AI et ML Commons mènent déjà des initiatives importantes et nous attendons avec intérêt des efforts supplémentaires pour promouvoir le développement responsable de nouveaux outils d'IA générative.