Pour rester informé(e) des dernières actualités de l'IT en Belgique francophone, lisez ceci • Comment / Pourquoi s'abonner ?

La confiance, condition sine qua non de l’IA – surtout dans le secteur public

Hors-cadre
Par · 19/09/2022
Partager

A l’image de l’orientation plus spécifique que la Wallonie veut donner aux développements et au cadrage de l’IA – à savoir, investiguer et concrétiser des solutions IA “de confiance” (inutile de rappeler ici les fondements-même de la coupole de recherche TrAIL), plusieurs intervenants de la conférence organisée récemment par DigitalWallonia.ai et l’AdN ont souligné l’importance toute particulière que revêt le paramètre “confiance” lorsqu’il s’agit d’implémenter des algorithmes, systèmes auto-apprenants, prédictifs ou encore prescriptifs, au service du citoyen et de la collectivité.

Ce souci de confiance, soulignait par exemple Michel Herquet, patron de B12 Consulting, doit être présent, dès le début de toute conception de projet. Dans le chef du prestataire mais aussi dans celui du service public demandeur, cela implique “de réellement comprendre la demande.

La confiance doit être au rendez-vous de la collaboration qui s’instaure entre acteur public et privé dans la mesure où ils co-construisent le projet, les algorithmes et les modèles.

Il ne s’agit donc pas pour le prestataire de fournir une boîte noire et des logiciels pré-existants. La solution doit être ouverte et transparente, afin que l’on puisse comprendre ce qu’elle implique et comment elle fonctionne”.

Soit dit en passant, c’est là une règle de base, ou qui devrait l’être, pour tout projet – mais qui est plus particulièrement soulignée dans un contexte public.

Yves Poullet, co-fondateur du NaDI (Namur Digital Institute de l’UNamur), le soulignait d’ailleurs lui aussi, lors de son exposé, lorsqu’il déclarait à l’adresse des agents publics: “vous avez l’obligation de procéder à une évaluation interne de l’application IA que vous désirez développer et cette évaluation doit être multi-disciplinaire et être assortie d’un rapport – en ce compris sur les risques. L’évaluation doit en outre être continue, afin de surveiller l’évolution de fonctionnement de l’IA” .

La confiance s’inscrit par ailleurs en fil rouge de l’ouvrage “Intelligence Artificielle et autorités publiques” qu’il a co-signé récemment (et sur lequel nous aurons l’occasion de revenir prochainement). Il y est question de “confiance” – confiance dans l’IA, confiance et fiabilité de l’IA – au travers des optiques de responsabilités des auteurs et des utilisateurs, de valeurs éthiques à transposer, de légitimité des traitements, de droits des personnes visées par un service basé sur l’IA…

La confiance et l’IA de confiance sont, aujourd’hui, une préoccupation majeure à l’échelle européenne, l’enjeu d’une stratégie et d’un positionnement du “vieux continent”. Comme elles ont été et continuent d’être au centre des débats en France.

Tout récemment encore, le Conseil d’Etat français publiait une étude sur l’utilisation de l’IA par les services publics. Son intitulé? “Intelligence Artificielle et action publique: construire la confiance, établir la performance”.

Le Conseil d’Etat y plaide pour “un déploiement résolument volontariste de l’IA, au service de l’intérêt général et de la performance publique” – afin, notamment, d’améliorer la continuité de service public, la pertinence des décisions, l’égalité de traitement, de dégager du temps grâce à l’automatisation, “renforçant ainsi la relation humaine entre le citoyen et l’agent public”, de favoriser le raccourcissement des délais d’examens de demandes émanant des citoyens, l’anticipation d’incidents ou de catastrophes, la prévention de décrochages en tous genres (scolaire, numérique, social…), etc.

Un long travail de conviction

Comme chez nous, la France fait le constat d’une pénétration encore faible de l’IA dans le fonctionnement des acteurs publics. Ce qui amène le Conseil d’Etat à la recommandation suivante: “il est impératif et urgent de rehausser le niveau de compréhension des citoyens comme des agents publics sur ce qu’est et ce que n’est pas l’intelligence artificielle, sur ce que ces systèmes permettent de faire ou d’espérer et ce qui leur est inaccessible, sur leur potentiel, et les risques qu’ils comportent”.

Le rapport du Conseil d’Etat souligne “sept principes de l’IA publique de confiance”, rejoignant en cela, sur nombre de points, l’analyse faite chez nous, telle que relayée par Yves Poullet dans son exposé (voir notre autre article).

 

Conseil d’Etat français: “Il est impératif et urgent de rehausser le niveau de compréhension des citoyens comme des agents publics sur ce qu’est et ce que n’est pas l’intelligence artificielle, sur ce que ces systèmes permettent de faire ou d’espérer et ce qui leur est inaccessible, sur leur potentiel, et les risques qu’ils comportent”.

 

Ces sept principes sont:
– primauté humaine: l’IA doit se mettre au service de l’humain, “sans mise en service disproportionnée au regard des bénéfices attendus” ; à cet égard, l’être humain doit demeurer le garant du fonctionnement des solutions IA en les supervisant
– performance
– équité et non discrimination
– transparence
– sécurité
– soutenabilité environnementale
– autonomie stratégique.

Partager

Envie d’apporter votre voix dans le débat ?

Les commentaires sont réservés à nos abonnés.

Déjà inscrit(e) ?