Inverser le rapport de force entre attaquants et défenseurs
“Le paysage de la menace va continuer à évoluer et nous allons toujours subir cette pression cyber croissante. Chez Google Cloud, on observe de plus en plus l'usage de l'IA par les groupes d'attaquants. Alors ça peut être pour plusieurs usages. On a un premier usage qui est vraiment l'utilisation de l'IA pour créer des messages malveillants dans le but d'escroquer les utilisateurs cibles, soit par des mails de hameçonnage, le fameux phishing, soit par la création de sites web malveillants pour récupérer des informations ou des identifiants. On voit aussi des attaquants utiliser l'IA pour exploiter des vulnérabilités, créer du code et des outils d'attaque pour pouvoir attaquer des systèmes. Et enfin, on voit un usage actuel massif pour créer des messages de désinformation sur des cibles bien identifiées.
Chez Google, nous investissons également beaucoup d'efforts pour comprendre comment travaillent les groupes d'attaquants. Il est important de savoir comment est-ce qu'ils fonctionnent ? Quels outils utilisent-ils ? Quelles sont leurs cibles ? Quelles sont leurs méthodologies technologiques ? Pour être capable de mieux ajuster les défenses et d'être capable de partager cette information avec l'écosystème.
Il est vrai que les attaquants et les défenseurs, les équipes de sécurité dans leurs organisations utilisent les mêmes technologies et les mêmes modèles. En revanche, il y a une différence fondamentale, c'est que les équipes de sécurité au sein des entreprises ou des organisations publiques peuvent utiliser ces systèmes d'IA avec des données qui leur sont propres, alors que de l'autre côté, les attaquants utilisent cette technologie à l'aveugle en essayant de s'assurer qu'elles correspondent à leur cible, mais sans vraiment le savoir a priori.
On va également avoir des réactions plus rapides de la part des analystes de sécurité : être capable de détecter une faille plus tôt, être capable d'être accompagné dans la réponse à l'incident, de mieux gérer la crise.
Chez Google nous utilisons l'intelligence artificielle pour sécuriser nos applications et nous assurer qu'elles répondent vraiment aux besoins de nos clients. Pour donner un exemple, le moteur anti-spam, anti-phishing dans la messagerie Gmail est un moteur d'intelligence artificielle et il nous permet d'arrêter un grand nombre de mails malveillants avant qu'ils atteignent la boîte mail de nos utilisateurs. Nous utilisons aussi des modèles d'intelligence artificielle pour détecter d'éventuelles vulnérabilités dans nos applications et pour les corriger plus rapidement.”