Intelligence artificielle et cyber-sécurité: amis ou ennemis?

Hors-cadre
Par · 03/02/2022

Une session récente des “Carrefours de l’IA”, organisés mensuellement dans le cadre du programme Digital Wallonia 4 AI, avait choisi pour thème: Intelligence Artificielle et Cybersécurité. Le point de départ en était ce qui, à l’évidence, est une amplification constante des menaces de cybersécurité, la difficulté qu’il y a, vu cette ampleur et la diversité des techniques, des cibles et des motivations, la sophistication croissante, d’y faire barrage.

D’où l’intérêt potentiel qu’il y a à se tourner vers l’intelligence artificielle pour suppléer aux limitations d’intervenants humains.

Un autre constat qui est en effet posé est que les entreprises – sans parler des organismes publics ou encore des associations – ne disposent pas et trouvent très difficilement des personnes ayant les compétences nécessaires en (cyber-)sécurité pour leur assurer une protection digne de ce nom.

CyberWayFinder est un programme de formation/spécialisation, lancé en 2017, permettant à des personnes actives (hommes ou femmes) de réorienter leur carrière ou de se lancer dans des métiers liés à la cybersécurité.

Face à la pénurie de compétences en cybersécurité sur le marché du travail, Rosanna T.S. Kurrer, co-fondatrice de CyberWayFinder, recommande une démarche pragmatique. A savoir, viser en priorité les “low hanging fruit”, autrement dit les réserves de talents pouvant être appelées à la rescousse le plus facilement ou rapidement.

Et on les trouve dans les rangs des personnes déjà actives, ayant des compétences pas forcément orientées sécurité mais dont les aptitudes ou intérêts spécifiques prédisposent à une réorientation rapide. “Le monde de la cybersécurité a un urgent besoin des aptitudes de personnes qui opèrent par exemple aujourd’hui à des postes de marketing ou dans le secteur de la finance…”

Aux yeux de Rosanna Kurrer, la priorité devrait donc aller à l’upskilling – pour un parcours de formation qui, selon elle, peut être aisément effectué en l’espace d’un an. Histoire de trouver une partie de la réponse rapidement.

Elle émet toutefois une série de mises en garde et de conseils pour procéder le plus efficacement possible, afin de mettre ainsi sur le marché du travail des cohortes de compétences qui soient réellement utiles pour les entreprises et organisations qui en ont besoin. 

Première mise en garde: “ce dont on souffre surtout, c’est d’un manque de coordination. Il s’agit avant tout de savoir comment et où former ces profils et où les placer une fois formés”. Autrement dit, il faut commencer par faire une radiographie précise des besoins et des moyens de formation.

Deuxième écueil à éviter: former des talents inadaptés ou trop “typés”. “Il ne faut se limiter à de la formation qui se focalise sur l’individu. Il faut penser diversité et complémentarité. Le défi est en effet de pouvoir constituer des équipes efficaces [au sein des entreprises].”

Comment procéder, selon elle, pour pouvoir déboucher sur de telles équipes? “Il faut mettre en oeuvre un ensemble d’outils permettant d’évaluer les compétences et leur complémentarité, afin de pouvoir suppléer aux aptitudes en carence et compléter les existantes. Il est nécessaire de dresser une sorte de répertoire cognitif.”

La nécessité de la diversité et complémentarité des compétences (en cybersécurité) est plus particulièrement vivace pour toutes les tâches “complexes, non routinières”, pour résoudre les problèmes où interviennent un grand nombre d’interdépendances – là justement où l’intelligence artificielle ne sera pas forcément une réponse efficace. “C’est là qu’il est davantage nécessaire de jouer la carte de la diversité des jeux de compétences dans la mesure où aucun individu ne peut cumuler toutes les compétences nécessaires”.

 

“Aucun individu ne peut maîtriser un panel complet de compétences – expérience IT, compétences en cybersécurité, aptitude à résoudre des problèmes, esprit curieux, bon communicateur…”

 

IA, outil contre les cyber-risques mais aussi cible d’attaques

Si l’IA peut être une aide pour détecter et contre-carrer les cyber-attaques, pour mieux pister, “décrypter” et anticiper les méthodes d’attaque, il ne faudrait pas imaginer qu’il s’agit là d’une panacée. Le remède, parfois, pourrait lui-même être porteur de dangers et être sensible à l’inventivité sans borne des “malveillants”.

La démonstration qu’en a fait le professeur Bart Preneel, de la KULeuven, lors de cet atelier-conférence était à cet égard éloquente. “Oui, l’IA est nécessaire comme moyen de défense contre les acteurs malveillants. Elle peut nous aider à détecter des comportements, des attaques, mais les bad guys, eux aussi, s’emparent de l’IA pour rendre leurs attaques plus efficaces.”

A l’avenir, avertissait-il, on verra sans doute se déclarer une “guerre des IA” – entre “bons” et “méchants”.

Autre phénomène qui a déjà pris forme: les attaques menées spécifiquement contre les solutions IA, dans le but de dénaturer, d’influencer ou de fausser les algorithmes, voire les données dont les modèles et mécaniques analytiques se nourrissent. “Il est urgent d’augmenter la sécurité des systèmes de sécurité reposant sur l’IA”.

Il prenait en exemple le cas des voitures autonomes. “Les logiciels se font toujours plus complexes: détection d’objets, reconnaissance de panneaux routiers, prise de décision, analyse de situation et formulation de la décision au coeur-même des dispositifs installés dans la voiture, sans plus devoir envoyer les données pour calcul dans le cloud… Une partie des données continuent toutefois d’être envoyées dans le cloud pour enrichir et entraîner les modèles, rendre les décisions automatisées plus efficaces…”

L’intelligence in-car et off-car devient donc une cible attrayante pour des attaques par rançongiciels, par blocage des systèmes de la voiture… La liste des points faibles et des “angles d’attaque” potentiels ne cesse de s’allonger. Autant d’éléments à sécuriser: canaux de communications, processus de mises à jour logicielles, jeux de données, modèles d’apprentissage, autorisation d’accès, de création ou de modification de données, mécanismes d’échanges de données, protection des données les plus sensibles (parcours, comportement de conduite, utilisation d’outils d’entertainment…)

Adversorial learning

L’un des dangers les plus pervers auxquels sont exposés les véhicules autonomes est la manipulation des données qui leur permettent d’opérer. Bart Preneel prenait l’exemple d’une pollution ou altération des données que captent la voiture (via ses caméras, des capteurs, des antennes…).

Les failles de sécurité et l’indispensable renforcement concernent tous les maillons de la chaîne – Source: Bart Preneel, KULeuven.

Tout comme l’“intelligence” d’une voiture autonome peut être bernée par un panneau routier non nettoyé ou tagué, par des feuilles mortes ou un amas de neige sur la signalisation au sol, les hackers peuvent très bien altérer les données en y ajoutant du “bruit”, provoquant des anomalies dans l’apprentissage et le processus de décision de la voiture. Les techniques d’apprentissage antagoniste peuvent générer de fausses images, de fausses données qui induiront de mauvaises décisions.

Autre danger contre lequel les fabricants d’éléments et de systèmes en tous genres et les concepteurs de logiciels et d’algorithmes doivent se prémunir: le vol de modèle [d’apprentissage] IA et de propriété intellectuelle. Des pirates, en dérobant des éléments IA, peuvent les revendre à des constructeurs intéressés qui pourraient ainsi concevoir un véhicule autonome nettement moins cher – sans avoir dû consacrer des fortunes au développement d’une IA “native et légale”. Avec tous les risques de produit au rabais, imparfait, voire carrément dangereux, qu’on pourrait mettre entre les mains de conducteurs un peu trop crédules…

 

Bart Preneel: “Le vol d’un modèle IA peut également permettre aux hackers d’en déduire le type de données qui sont utilisées pour le concevoir. Il est donc essentiel de renforcer la sécurité au niveau du modèle lui-même.”

 

Quelle est alors la parade? Bart Preneel recommande quatre mesures fondamentales “pour réduire la surface d’attaque”: “authentification de toutes les personnes impliquées, de tous les objets concernés ; limitation scrupuleuse des droits d’accès aux différents éléments de la chaîne (par exemple: telle personne ou telle procédure automatisée ne pourra pas accéder aux fichiers de chiffrement des données) ; recours à des procédures d’audit fort afin de vérifier tous les éléments, événements, traitements, opérations ; recours au chiffrement pour protéger les données et les rendre illisibles par des acteurs non autorisés”.