Livre – Quel cadre juridique et éthique pour l’IA du secteur public en Wallonie?

Pratique
Par · 23/09/2022

Yves Poullet, Noémi Bontridder et Loïck Gérard, tous trois chercheurs au CRID/NaDI (Namur Digital Institute) de l’UNamur, signent un livre qui vient ponctuer leur analyse prospective de l’impact des technologies d’intelligence artificielle telles qu’elles sont ou pourraient être utilisées par le secteur public. “Secteur public” au sens large du terme puisqu’il englobe à la fois les instances gouvernementales, les parastataux, les entreprises publiques et les acteurs communaux.

En préface de l’ouvrage, Benoît Hucq, directeur de l’AdN, le qualifie de “véritable diagnostic des enjeux posés par l’intégration de l’intelligence artificielle au sein de l’administration” ou encore de “mise en perspective des défis de légitimité et d’efficacité” que cela implique. De quoi “inspirer la stratégie numérique publique pour son administration”.

Ce livre, intitulé “Intelligence Artificielle et Autorités publiques – Pour un cadre juridique et éthique de l’IA publique en Wallonie”, passe en revue les concepts-clé d’intelligence artificielle, dans ses divers manifestations, et se focalise sur les implications légales et juridiques que son application aura dans la sphère publique.

Le cadre juridique est toutefois dépassé puisque l’ouvrage aborde les dimensions d’éthique, de justice sociale, d’IA “digne de confiance” et ses éléments constitutifs. Et cela, en replaçant souvent le propos et l’analyse dans le contexte plus large de l’orientation et de l’éclairage que l’Union européenne désire imprimer au développement et à la mise en pratique de l’IA.

Il y est évidemment également question de droit au sens strict du terme. Spécifiquement, quelles notions les administrations publiques, de tous niveaux, doivent-elles maîtriser, de quelles implications juridiques doivent-elles être conscientes – qu’il s’agisse de propriété intellectuelle, de protection des données, de respect du cade légal dans lequel les actions publiques doivent s’inscrire (continuité, égalité…), ou encore de responsabilité civile. Un chapitre est en outre consacré aux marchés publics d’IA.

 

“Il incombe aux différents acteurs et décideurs publics et privés, au niveau local, national et international, de s’assurer que le développement et le déploiement de l’intelligence artificielle soient compatibles avec la protection et l’épanouissement des capacités humaines fondamentales”. En jeu: la dignité, l’autonomie, la justice sociale, l’apport bénéfique à l’individu et à la société. Passage de la Déclaration de Montréal pour un développement responsable de l’IA, cité par les auteurs.

 

Si “mesurer, c’est savoir”, être informé – plus spécifiquement en matière d’IA -, c’est, pour les acteurs publics, la seule façon de savoir où mettre les clous et comment se maintenir dans leur périmètre. C’est baliser le champ des risques et des responsabilités. C’est aussi éviter des dérapages ou des erreurs fondamentales de conception qui risqueraient, comme l’écrit également Benoît Hucq dans son préambule, de “laisser la voie libre à une gouvernance dominée par une vérité mathématique érigée en référence ultime d’efficience dans l’allocation des ressources publiques”.

Quelques recommandations en guise de conclusion

La conclusion qu’ont rédigée les trois auteurs mérite qu’on s’y attarde. Elle est structurée en trois avis. A commencer par des regrets inspirés par la situation et les réactions qu’ils ont relevées au fil de leur analyse et de leurs contacts avec les premiers intéressés. Ils parlent ainsi du “désarroi de l’administration qui manque de moyens tant humains, financiers que de réelle culture de gestion de l’information, faute d’une politique cohérente dont les autorités gouvernementales prennent, enfin, la mesure”. Une phrase qui, à elle seule, met le doigt sur plusieurs lacunes déjà d’ailleurs souvent soulignées.

Et d’ajouter cet avis en forme de voeu: “Les défis qui figurent en exergue de notre rapport sont loin d’être rencontrés, et il faudra les affronter progressivement, sans vouloir brûler les étapes.”

Parmi les mesures à prendre, les auteurs recommandent notamment l’installation d’une gouvernance de la donnée, avec, comme conditions sine quo non:
– la création d’un organe propre à la Wallonie, qui soit à même de “réfléchir de manière pragmatique et cohérente, en dialogue à la fois avec l’exécutif wallon et les secteurs économiques et sociaux qui seront les premiers bénéficiaires de cette politique de la donnée”
– la mise en place d’un cadastre des données au sein de l’administration et du secteur public.

Condition tout aussi indispensable, en amont de la démarche: gagner la confiance et l’adhésion des agents de la Région.

Au-delà de la vision de juriste

Précaution plus qu’oratoire que l’on retrouve dans la conclusion du rapport: ce dernier est le fait de juristes et n’ouvre donc pas (ou peu) le champ de l’analyse à d’autres regards et perspectives. Celles que pourraient ou devraient apporter, dès que l’on parle d’IA, des profils d’économistes, de sociologues, d’ingénieurs… Les auteurs soulignent ainsi qu’ils n’ont pas abordé les aspects “rentabilité” de l’IA, acceptabilité sociale, prérequis technologiques.

Leur propos se limite au cadre réglementaire, qui “est une exigence” mais aussi une dimension “multi-facettes”: toutes les branches du droit sont concernées. Et de lister: droit administratif, lois du service public, droit des libertés individuelles, droit de la propriété intellectuelle, droit de la responsabilité…

Avec, pour constat final, que “sur tous ces points, le droit se révèle incertain tant par la difficulté de confronter ces concepts à une réalité nouvelle et qui donc soulèvent des questions délicates d’interprétation, que par le fait que, constatant ces lacunes ou son inadéquation, le droit de l’IA se construit à un rythme effréné et à un niveau qui est loin d’être celui de la Région, à savoir celui de l’Europe, et se révèle encore muet sur certains points.”

L’incontournable éthique

La construction – donc toujours en cours – du “droit de l’IA” à la “sauce” européenne, selon des spécificités que l’UE voudrait foncièrement différenciatrices par rapport aux perceptions et pratiques américaines et/ou chinoises, se fonde sur les concepts d’excellence et de confiance, rappellent les auteurs. La fameuse “trustworthy IA” que l’Europe veut faire sienne et que l’on retrouve également en leitmotiv d’actions et de projets wallons (au TrAIL, notamment).

Mais ces concepts, eux-mêmes, insistent les auteurs, “renvoient, au-delà des textes réglementaires, à la nécessité d’une prise en considération des valeurs éthiques”. Ainsi qu’à la nécessité qu’il y a selon eux pour les acteurs publics – comme d’ailleurs pour leurs homologues du privé – de faire “appuyer le développement des applications d’IA non seulement par une équipe juridique mais également par des sociologues et des psychologues capables d’éclairer les équipes de réalisation sur les impacts et conséquences de leur travail et des options qu’elles pourraient prendre”.

Parmi les critères – ou boussoles – à intégrer, dès le départ, dans le travail de réflexion et de conception: l’explicabilité, le contrôle humain, la non-discrimination.

Autre recommandation figurant en conclusion: “La prudence exige que la réalisation des expériences puisse s’appuyer sur une coopération avec les institutions de recherche universitaire […] et se réaliser dans le contexte de programmes particuliers de type proof of concept, sans passer par les marchés publics et, sans doute, bénéficier d’un encadrement légal de type sandbox, qui exige l’évaluation et le suivi par les autorités publiques”.

“Intelligence Artificielle et Autorités publiques – Pour un cadre juridique et éthique de l’IA publique en Wallonie”
Auteurs: Yves Poullet, Noémi Bontridder et Loïck Gérard
Editions: Larcier, Collection du CRIDS.