Quel rôle pour les autorités publiques face à l’IA?

Hors-cadre
Par · 07/01/2021

Quel rôle pour les autorités publiques face à l’IA? Vaste et complexe débat. Les pouvoirs publics doivent-ils jouer aux juges, jurés, législateurs… par rapport à la manière dont l’IA est utilisée, voire conçue? Leur revient-il de poser un cadre réglementaire, juridique, légal? Ou simplement de faire oeuvre de sensibilisation, d’information? 

Et vis-à-vis de l’usage que les pouvoirs publics eux-mêmes peuvent faire de l’intelligence artificielle, pour le lancement de nouvelles solutions ou de nouveaux services, pour l’évolution de leurs outils de travail quotidiens, faut-il un cadre, une charte de bonnes pratiques, un droit de regard de la part des citoyens, une supervision ou des directives à l’échelon européen?

Le débat et la réflexion sont à peine entamés.

Ces questions étaient parmi celles qu’a abordé une conférence “IA et secteur public” organisée (en-ligne) par AI 4 Belgium à la mi-décembre (2020). Quand la question du principal rôle que peut ou devrait jouer l’“autorité” gouvernementale a été posée aux quelques 70 participants, ce sondage-minute a donné les résultats suivants (sans valeur scientifique vu le faible échantillon et le contexte mais…):
– régulateur: 45,3% des réponses
– facilitateur: 41,5%
– utilisateur: 7,5%
– créateur (builder): 5,7%.

Pour Nathanaël Ackerman, coordinateur d’AI 4 Belgium, la responsabilité de l’Etat ou du gouvernement est de “s’assurer que les individus disposent des compétences nécessaires, de procurer les formations de mise à niveau nécessaires, de collaborer avec la société civile et le monde universitaire en ce sens et de veiller à la dimension éthique dans le registre de la conception des algorithmes afin notamment d’éviter que les discriminations soient renforcées”.

Ou encore d’oeuvrer pour promouvoir l’“ethics by design” et la “security by design” afin d’éviter tout usage malveillant d’algorithmes disponibles en libre accès. A minima, les instances gouvernementales doivent donner le bon exemple en termes d’implémentation des directives éthiques et de leur inclusion “dès le début, dans la conception de tout projet IA”.

La notion d’“éthique” dans le domaine de l’intelligence artificielle est faite de multiples aspects qui s’entrecroisent. La preuve par cette énumération dressée par l’École polytechnique fédérale (ETH) de Zurich à l’issue de son étude “Global landscape of AI ethics guidelines” (2019).

 

A des degrés divers, les instances publiques ont donc, selon lui, un rôle à jouer dans chacun des “profils” évoqués – facilitateur, régulateur, utilisateur, créateur.

En 2021, un groupe de travail constitué dans le cadre de l’alliance AI 4 Belgium, planchera d’ailleurs sur certaines thématiques et problématiques citées. Notamment, l’encouragement à l’adoption de technologies IA par les administrations publiques ; un échange d’expériences tirées de projets publics (potentiellement mutualisables) ; une participation active à l’édification d’un cadre éthique et légal que les services publics se devront de respecter dans le cadre de tout projet faisant intervenir l’intelligence artificielle ; ou encore l’analyse de l’impact qu’a l’IA sur l’évolution des compétences au sein des services publics.

Compétences et conditions favorables

L’acquisition de compétences propres à permettre de s’approprier l’IA, d’initier de nouveaux projets, services ou modes de fonctionnement n’est pas une nécessité qui se limite aux seuls services publics mais elle y prend peut-être une dimension toute spéciale.

C’est en tout cas l’avis de Michel Philippens, spécialiste en analyse big data et responsable de la division Customer Solution de SAS Belux, orateur-invité lors de cette conférence “AI et secteur public” d’AI 4 Belgium.

“Trop peu de décideurs, en ce compris de décideurs IT, sont aujourd’hui capables d’utiliser les algorithmes et les outils analytiques. Il est absolument nécessaire de sensibiliser et de former davantage d’individus, de renforcer le degré de maturité dans l’utilisation et la modélisation des données.

Dans le secteur public, il est important de mettre en place des équipes plus diverses et plus agiles, combinant diverses compétences, et il est important de briser les silos qui existent entre analystes, développeurs, chef de projet, expert légal, ingénieur des données… L’IA est un sport d’équipe. Il est primordial de définir un objectif, une feuille de route [pour tout projet].

Le moment est aujourd’hui venu de se lancer. Il n’y a pas de temps à perdre. On pourrait ergoter pendant des siècles sur l’éthique. Ce qui importe réellement c’est la vision, la planification, la potentialisation, la collaboration, la suppression des silos. On a certes toujours besoin d’une discussion éthique mais il est, dans certains cas, immoral [vu les promesses de l’IA] de ne pas appliquer l’intelligence artificielle, tout en respectant bien entendu les nécessaires cadres et directives.”

En dehors du contexte professionnel, une chose sur laquelle les différents intervenants de la conférence étaient d’accord était la nécessité et le rôle des autorités dans l’acquisition des compétences nécessaires par le citoyen lambda. 

Nathanaël Ackerman: “L’une des actions à prendre de la part des autorités est de repenser la manière dont l’informatique est enseignée aux jeunes, la manière dont on peut combler le fossé des compétences.” Michel Philippens renchérissait en estimant que les principes de la “pensée computationnelle” doivent être expliqués dès l’âge de 5 ou 6 ans. “La pensée computationnelle, ce n’est pas de la programmation. C’est l’aptitude à comprendre les algorithmes, leur fonctionnement, la manière dont les données sont traduites en input et output. Dès l’âge de 5 ou 6 ans, les enfants sont à même de comprendre des concepts complexes. Il faut donc revoir les curriculums. Ce qui est enseigné à l’école est dépassé par rapport au contexte actuel.”

Florian Myter, responsable business development au Software Languages Lab de la VUB, estimait, lui aussi, que les citoyens doivent pouvoir se saisir des implications, usages et finalités de l’IA et avoir, par exemple, leur mot à dire ne serait-ce qu’au sujet des données qui sont collectées et des finalités que visent les pouvoirs publics. Ajoutant que, pour cela, ils doivent être en mesure de comprendre les “outils” qui peuplent le monde de l’IA…