Anatomie d’une IA responsable
“Si on a une IA qui n'est pas responsable, c'est une IA qui va soit reproduire des injustices, soit en créer de nouvelles. Récemment, on parle beaucoup d’IA générative et on a l’impression que l’IA c’est nouveau, que l’IA responsable c’est nouveau alors que pas du tout en fait. Chez Google ça fait depuis plus de 20 ans qu’on utilise l’IA dans nos produits, on a toujours fait attention à ce que l’IA soit responsable et aujourd’hui on va continuer à faire ce qu’on sait faire.
Si on ne fait rien, l'IA ne va pas agir de façon responsable. Ça peut amplifier les biais existants. Par exemple, ce qu'on est capable de faire aujourd'hui, c'est à partir d'une photo d'un grain de beauté, savoir s'il y a une tumeur ou non. Le problème, c'est que si on n'a que des photos de peau blanche, on ne va pas être capable de pouvoir détecter sur une peau noire s'il y a une tumeur. Le problème, c'est que pour chaque application qu'on a, pour chaque type d'injustice, il faut des solutions techniques différentes.
Il n'y a pas une IA responsable, il y a des IA responsables. C'est pour ça que chez Google, il y a des centaines de chercheurs et d'ingénieurs dont le travail est à temps plein et de rendre nos algorithmes aussi peu biaisés que possible. Aujourd'hui, en IA responsable, ça s'appelle l'alignement. C'est quand on veut aligner une IA avec les valeurs humaines. Une IA responsable, c'est une IA qui va correspondre aux valeurs éthiques humaines.
À toutes les étapes de conception, il faut intégrer les valeurs éthiques. Que ce soit dans la collecte des données au début, le traitement de ces données, inventer les algorithmes, comment on déploie ces algorithmes, comment on met en service les algorithmes pour tous les utilisateurs. Chaque étape est importante.
Chez Google, intégrer la partie éthique, ça fait partie intégrale du processus. Il n'y a pas un seul algorithme qui est créé par Google et qui est utilisé par le public, qui n'est pas déjà passé par plusieurs étapes pour rendre cet algorithme plus éthique.
Une IA est entraînée sur un certain jeu de données. Et en fait, nous, ce qu'on va faire, c'est essayer de lui tendre des pièges pour qu'elle réagisse de la mauvaise façon. Par exemple, on va lui donner des données qu'elle n'a jamais vues et on regarde si elle réagit bien. Par exemple, on peut commencer une phrase dans une langue, la fin vient dans une autre langue, l'IA n'a jamais vu ça, et on regarde si elle agit bien. Si elle ne réagit pas bien, on apprend, on itère et on fait un meilleur algorithme.”