Accéder au menu principal
Blogue Google Canada

Nouvelles de l'entreprise

Être audacieux sur l'IA, c'est être responsable dès le départ

NA

Nous pensons qu’en matière d’intelligence artificielle, notre approche doit être à la fois audacieuse et responsable. Guidés par nos principes, nous cherchons à développer l’intelligence artificielle de manière à en tirer le maximum de bienfaits pour la société, tout en relevant les défis qu’elle soulève. Malgré les conflits naturels entre ces deux objectifs, nous croyons qu’il est possible, et même essentiel, de voir cette tension sous un angle productif. En fait, pour maintenir notre audace à long terme, nous devons adopter une approche responsable dès aujourd’hui.

Notre usage novateur de l’intelligence artificielle se trouve dans nos produits révolutionnaires utilisés partout dans le monde, dans notre contribution à des percées scientifiques bénéfiques et dans notre apport à la résolution d’enjeux de société.

Dans nos produits, l’intelligence artificielle est utilisée par des millions, voire des milliards, de personnes, puisqu’elle fait partie de Google Maps, de Google Traduction, de Lentille Google et de bien d’autres produits. Nous souhaitons désormais l’exploiter pour aider les gens à trouver l’inspiration et à cultiver leur créativité avec Bard, à accroître leur productivité avec les outils Workspace et à transformer leur façon d’accéder au savoir avec l’expérience de recherche générative. Google Labs travaille par ailleurs sur d’autres exemples et expériences d’applications utiles de l’intelligence artificielle.

Nous aidons à résoudre des enjeux de société en utilisant l’intelligence artificielle dans la lutte contre les changements climatiques et dans l’adaptation à ceux-ci. Elle permet de fournir de prévisions des crues essentielles dans maintenant plus de 20 pays, de suivre la progression des feux de forêt en temps réel et d’aider à la réduction des émissions de carbone par la diminution des embouteillages. Nous l’appliquons aussi à l’amélioration des soins de santé, y compris les soins maternels, les traitements contre le cancer et le dépistage de la tuberculose. Nous avons récemment annoncé un nouveau grand modèle de langage, Med-PaLM, qui pourrait être utile aux cliniciens. Plus tard cette année, Data Commons – un système qui organise les données provenant de centaines de sources dans différents pays afin d’orienter les approches pour traiter de grands enjeux de société comme la durabilité, les soins de santé, l’emploi et l’économie – deviendra accessible à partir de Bard, ce qui le rendra encore plus utile.

Dans nos recherches de pointe, l’intelligence artificielle aide les scientifiques à réaliser des progrès majeurs et bénéfiques pour la société dans de nombreuses disciplines, de la physique aux sciences des matériaux, en passant par les soins de santé. Prenons l’exemple du programme AlphaFold, de Google DeepMind. AlphaFold est capable de prédire avec précision la forme tridimensionnelle de 200 millions de protéines, soit presque toutes les protéines répertoriées par la science, un exploit ayant généré l’équivalent d’environ 400 millions d’années d’innovation scientifique en l’espace de quelques semaines à peine. L’intelligence artificielle favorise également le progrès en rendant les informations du monde entier accessibles au plus grand nombre. Elle alimente des initiatives ambitieuses, comme la 1,000 Languages Initiative, un projet d’envergure qui nous a permis d’avancer vers notre objectif de prendre en charge les 1 000 langues les plus couramment parlées avec un modèle de parole universel entraîné dans plus de 400 langues.

Malgré notre enthousiasme devant ces avancées vertigineuses, nous sommes conscients que l’intelligence artificielle est encore une technologie émergente, et qu’il reste beaucoup à faire. De plus, il est important de reconnaître les risques qu’elle comporte. Elle pourrait notamment aggraver certains enjeux de société, comme les biais et les préjugés, et poser de nouveaux défis à mesure qu’elle progresse et qu’apparaissent de nouvelles utilisations, comme le soulignent nos propres recherches et d’autres travaux. C’est pourquoi nous sommes déterminés à adopter une approche responsable et guidée par nos principes en matière d’intelligence artificielle adoptés en 2018. Chaque année, nous publions des rapports d’étape sur la mise en œuvre de ces principes, émaillés d’études de cas approfondies. Nous poursuivons sur cette voie tandis que l’intelligence artificielle devient de plus en plus performante, que nous apprenons grâce aux utilisateurs et aux nouvelles utilisations des technologies, et que nous diffusons ces enseignements.

Une question prioritaire pour beaucoup, y compris pour nous, est la désinformation. L’intelligence artificielle générative facilite plus que jamais la création de nouveaux contenus, mais elle soulève encore plus de questions sur la fiabilité de l’information. Ainsi, nous continuons de concevoir des outils pour aider les gens à évaluer cette information. Au cours des prochains mois, nous ajouterons un nouvel outil à notre moteur de recherche [IMAGE], About this image (« à propos de cette image »). L’outil fournira des précisions importantes pour contextualiser l’image, comme l’endroit et le moment où d’autres images semblables sont d’abord apparues, ainsi que les autres sites Internet où figure l’image, y compris les sites de nouvelles, de vérification des faits et de médias sociaux. L’outil About this image sera offert sur Chrome et sur Lentille Google plus tard cette année.

NA

En appliquant à nos produits nos principes en matière d’intelligence artificielle, nous découvrons des conflits potentiels entre audace et responsabilité. Par exemple, Universal Translator (« traducteur universel ») est un service expérimental de doublage par intelligence artificielle qui aide les experts à traduire les paroles d’un locuteur en synchronisation avec le mouvement de leurs lèvres. D’une part, le service présente un immense potentiel pour mieux comprendre l’apprentissage, mais d’autre part, il peut représenter une menace s’il se retrouve dans de mauvaises mains. C’est pourquoi nous y avons intégré des protections qui limitent les usages abusifs et restreignent l’accès aux partenaires autorisés seulement.

Une autre façon pour nous de respecter nos principes en matière d’intelligence artificielle est d’innover afin de relever les défis à mesure qu’ils surgissent. Nous avons par exemple été parmi les premiers à automatiser les tests contradictoires au moyen de grands modèles de langage. Ceux-ci ont considérablement amélioré la vitesse, la qualité et la couverture des tests et, de ce fait, permis aux experts en sécurité de se concentrer sur les cas plus ardus. Pour lutter contre la désinformation, nous intégrerons bientôt des innovations en matière de provenance des données à nos derniers modèles génératifs. De plus, nos travaux sur les outils capables de détecter le son de synthèse progressent. Dans le projet AudioLM, nous avons entraîné un classificateur qui détecte le son de synthèse dans nos modèles audio avec une précision approchant 99 %.

Le développement responsable de l’intelligence artificielle doit être un effort collectif alliant les chercheurs, les experts des sciences sociales et du secteur privé, les gouvernements, les créateurs, les éditeurs et les personnes qui utilisent l’intelligence artificielle au quotidien.

Nous partageons nos innovations avec d’autres acteurs pour en accroître les retombées. C’est le cas de l’API Perspective, d’abord conçue par les chercheurs de Jigsaw dans le but d’assainir les échanges en ligne en atténuant la toxicité. Aujourd’hui, nous l’appliquons à nos grands modèles de langage, y compris tous les modèles mentionnés à la conférence I/O, et des chercheurs universitaires s’en sont servi pour créer une évaluation standard pour l’industrie utilisée par tous les modèles d’importance, dont ceux d’OpenAI et d’Anthropic.

Nous continuons d’explorer les possibilités d’allier l’intelligence artificielle à la créativité et d’en tirer des applications bénéfiques, notamment en collaborant avec des artistes sur des projets comme MusicLM, un nouvel outil pour décrire une idée musicale et la voir prendre forme. Afin de soutenir un écosystème web dynamique au présent et à l’avenir, nous collaborons avec la communauté en ligne pour offrir aux éditeurs de sites Internet des moyens de choisir et de contrôler leurs contenus.

L’un des aspects particulièrement stimulants du domaine de l’intelligence artificielle est son potentiel immense et bien réel de profiter aux personnes et à la société, contrasté par la nécessité de la développer et de l’utiliser de manière responsable. Tant de choses évoluent à mesure que progresse cette technologie et qu’un nombre croissant de personnes la testent, la partagent, la développent et l’utilisent. Les travaux de recherche, les expériences, les utilisateurs et la communauté dans son ensemble sont une source constante d’enseignements que nous incorporons ensuite à notre approche. L’avenir nous réserve un potentiel d’innovation infini, et nous avons la responsabilité de mener ce travail comme il se doit, c’est-à-dire ensemble.

Je tiens à remercier mes collègues et à souligner leur travail inspirant et complexe au sein des équipes Intelligence artificielle responsable, Innovation responsable, Google.org, Labs, Jigsaw, Google Research et Google DeepMind.