Attention : Nous mettons à jour notre gestion des abonnements. Si vous rencontrez un bug, n'hésitez pas à nous contacter à bugs@regional-it.be

Pour rester informé(e) des dernières actualités de l'IT en Belgique francophone, lisez ceci • Comment / Pourquoi s'abonner ?

Un “trustworthy AI assessment tool” pour aider au chantier de l’IA “digne de confiance”

Article
Par · 25/03/2021
Partager

L’un des projets sur lequel planche le groupe de travail Ethique & Juridique d’AI4Belgium est la réalisation d’un “trustworthy AI assessment tool”.

Le groupe de travail ne travaille pas “hors sol” mais s’appuie et désire enrichir, dans la mesure du possible, ce que l’Union européenne a déjà préparé et publié, afin de proposer un cadre d’“intelligence artificielle éthique et de confiance” qui puisse guider développeurs, chefs de projets, responsables juridiques, responsables d’entreprise et quiconque se lance dans le développement d’un service ou d’une solution basé sur l’IA afin de respecter les conditions d’une intelligence artificielle “de confiance”.

Le socle du travail qui s’effectue au sein d’AI4Belgium est donc l’“Assessment List on Trustworthy AI” (ALTAI), publiée en juillet 2020, par l’Union européenne. Ce concept de “trustworthy AI” (IA digne de confiance) s’appuie sur sept principes fondamentaux: 

  • facteur humain et contrôle humain: “les systèmes d’IA devraient être les vecteurs de sociétés équitables en se mettant au service de l’humain et des droits fondamentaux, sans restreindre ou dévoyer l’autonomie humaine”
  • robustesse technique et sécurité: “une IA digne de confiance nécessite des algorithmes suffisamment sûrs, fiables et robustes pour gérer les erreurs ou les incohérences dans toutes les phases du cycle de vie des systèmes d’IA” (et cela inclut aussi une capacité de résistance face aux attaques, des mesures de recours en cas d’incident)
  • respect de la vie privée et gouvernance des données: “les citoyens doivent avoir la maîtrise totale de leurs données personnelles et les données les concernant ne peuvent pas être utilisées contre eux à des fins préjudiciables ou discriminatoires” (ce principe recouvre notamment les notions de qualité et d’intégrité des données)
  • transparence: “la traçabilité des systèmes d’IA doit être assurée” (sont ici en jeu, notamment, la capacité à comprendre les cheminements de l’IA et à l’expliquer)
  • diversité, non-discrimination et équité: “les systèmes d’IA devraient prendre en compte tout l’éventail des capacités, aptitudes et besoins humains, et leur accessibilité devrait être garantie”
  • bien-être sociétal et environnemental: “les systèmes d’IA devraient être utilisés pour soutenir des évolutions sociales positives et renforcer la durabilité et la responsabilité écologique” (sans oublier les dimensions d’impact social et de démocratie)
  • responsabilisation: “il convient de mettre en place des mécanismes pour garantir la responsabilité à l’égard des systèmes d’IA et de leurs résultats, et de les soumettre à une obligation de rendre des comptes”.

Pour chacune de ces sept facettes, l’Union européenne a rédigé une série de critères ou de questions à (se) poser lors du développement d’un projet ou d’une solution IA. Voici un exemple des balises auxquelles les développeurs, chefs de projets et autres décideurs seront invités de s’en tenir pour se conformer aux règles de “trustworthy AI” européennes.

 

Autre exemple de bonne pratique à suivre, cette fois au chapitre Diversité, Non discrimination et Equité: pouvoir répondre par l’affirmative à la question suivante “avez-vous défini une stratégie ou un ensemble de procédures en vue d’éviter de créer ou de renforcer des biais injustes dans le système d’IA, que ce soit en termes d’utilisation des données collectées ou lors de la conception de l’algorithme?” Ou encore “avez-vous pris en considération la diversité et la représentativité des utilisateurs finaux et/ou des sujets dans les données?” (avec une série de sous-questions pour faire bonne mesure et pour évaluer réellement le respect de ces balises).

Une spécificité belge?

A proprement parler, il n’y aura pas de “spécificité” belge, l’Europe et la notion de directive s’appliquant à tous les Etats-membres ne le permettraient pas.

Dès lors, à quoi peut servir le projet initié par le groupe de travail Ethique & Juridique d’AI4Belgium?

Le groupe de travail se propose d’“optimiser” la liste telle que publiée par l’Europe, “afin de la rendre plus concrète, davantage directement utilisable dans le contexte belge, et d’y ajouter des spécificités sectorielles, de telle sorte que les entreprises et organismes belges puissent améliorer le caractère fiable de leurs systèmes d’IA”.

Le but est de créer un outil d’évaluation en-ligne, permettant de vérifier plus facilement si un projet, une solution répond aux critères de “trustworthiness”.

Il y a une autre raison pour le projet d’AI4Belgium, comme l’expliquait Nathalie Smuha, juriste et chercheuse en Loi et Ethique de l’IA à la KULeuven, lors de la Belgian AI Week: “il existe déjà de nombreuses législations [en ce compris les directives édictées ou que prépare l’Union européenne] mais aussi de nombreuses lacunes dans les textes. L’Union européenne y travaille et viendra avec une proposition pour les combler mais cela prendra sans doute encore plusieurs années avant le vote final au niveau européen et avant la transposition dans les lois nationales.

Il est vrai qu’un Etat ne peut pas prendre de décision qui entrerait en conflit avec le cadre fixé par l’Europe mais cela n’empêche pas d’avancer entre-temps.

Comme une législation spécifique belge n’est pas possible, le dispositif d’“assessment tool” ne sera pas obligatoire mais le travail du groupe de travail aura permis de progresser, de combler certaines lacunes. Et cela permettra d’aider, anticipativement, les entreprises et les organisations dans la mesure où la réglementation viendra de toute façon. Grâce à cet outil, elles auront pu prendre de l’avance pour être sûres que leurs projets et services soient conformes en temps voulu…”

Les résultats du groupe de travail seront par ailleurs communiqués tant à l’Union européenne qu’à l’OCDE.

Giovanni Briganti (groupe de travail AI4Health): “L’outil d’évaluation n’est pas destiné à avoir droit de vie et de mort sur un projet. Le but est avant tout de faire naître des solutions IA dignes de confiance, de bâtir la confiance dans l’IA, d’obliger les gens à en passer par un exercice d’introspection et à vérifier s’ils ont bien tout pris en considération.”

La teneur des travaux à venir

Le groupe de travail dit vouloir faire intervenir un maximum de profils différents pour réfléchir et définir cet outil d’évaluation. Compte tenu du fait que les personnes qui, en final, seront aux commandes pour concevoir et déployer des solutions et services basés sur l’IA présentent des profils très différents (développeurs, chefs de projets, data scientists, responsables juridiques, managers…), une pluralité de profils pour plancher sur les questions qui devront figurer dans l’outil semble en effet nécessaire.

Pour rendre le questionnaire d’évaluation plus explicite et pertinent, le groupe de travail belge envisage d’ajouter notamment des notices explicatives et de permettre des réponses plus modulées qu’un simple oui ou non. Idem pour permettre aux responsables de projet d’effectuer un suivi plus efficace des réponses qu’ils donneraient aux lacunes ou manquements identifiés.

Des conseils seront également inclus afin de faciliter l’apport d’améliorations au projet.

 

Groupe de travail AI4Belgium: “L’outil d’évaluation n’est pas destiné à un usage ponctuel, unique. Il est censé être utilisé tout au long du processus de création d’un projet AI dans la mesure où certaines questions ne trouveront de réponse qu’en cours de projet.”

 

Dans un premier temps, le groupe de travail va s’intéresser plus spécifiquement aux conditions et contraintes d’un déploiement de projets IA dans les secteurs public, santé et RH.

Partager

Envie d’apporter votre voix dans le débat ?

Les commentaires sont réservés à nos abonnés.

Déjà inscrit(e) ?