Intelligence Artificielle. Gros enjeu pour l’homme et l’éthique

Hors-cadre
Par · 08/11/2018

A l’occasion de son inauguration officielle, fin octobre, l’Institut NaDI (Namur Digital Institute) de l’UNamur – voir plus de détails dans l’encadré en fin d’article – avait choisi de débattre du sujet de l’intelligence artificielle et de son impact sur la société et l’économie. Vaste sujet ! Entre promesses, enjeux, défis ou encore risques légaux et éthiques, les exposés et le débat s’annonçaient riches.

“L’IA voit se multiplier les applications au service de tout un chacun – voitures autonomes, frigos connectés, assistants personnels… – mais aussi des applications plus contestables – juges-robot, drones tueurs, analyse faciale pour le recrutement de nouveaux collaborateurs… Ces applications soulèvent des problèmes éthiques graves”, souligne Yves Poullet, co-directeur du NaDI. “Voilà pourquoi l’Institut NaDI propose de faire se croiser les regards disciplinaires afin de répondre aux enjeux et de mieux maîtriser les services face à une innovation qui est majeure.”

Défi de civilisation?

L’orateur principal invité par l’UNamur, à l’occasion de cette inauguration, était le professeur Pierre Giorgini, président-recteur de l’Université catholique de Lille, auteur notamment de “La Transition fulgurante, vers un bouleversement systémique du monde”.

A ses yeux, “l’IA franchit désormais la limite de l’informatique pour envahir les espaces biologique, psychologique, sociétal. Ce faisant, elle a le potentiel de déterminer le comportement [humain]. Le deep learning n’a plus besoin de l’homme, en amont, pour définir les algorithmes. La machine peut mimer les pratiques humaines pour prendre des décisions à une vitesse que ne peut atteindre l’homme.

Avec des machines qui, désormais, sont capables de progresser par essais et erreurs, par mise en situation et rétroactions, touche-t-on à la naissance d’une conscience, d’une évolution biologique de l’homme et du vivant?”, s’interrogeait-il, en évoquant le spectre d’un avenir bien peu rassurant: “Certains veulent recréer un vivant “naturficiel”, des humanoïdes plus intelligents que l’homme, un nouvel espace sans les défauts ou limitations de l’homme afin d’avoir, disent-ils, une maîtrise totale de nos fragilités. Le risque est en réalité de faire naître un système totalitaire et violent.”

Mais – pour rassurer -, il soulignait aussi qu’il y a une bonne dose de “hype” et de science-fiction dans ce que d’aucuns nous présentent comme les potentiels (actuels ou à court terme) de l’intelligence artificielle et de la robotique intelligente.

Autre question qu’il posait afin de replacer le concept d’intelligence dans son contexte réel, “quand on utilise le terme “intelligence artificielle”, de quelle intelligence parle-t-on en réalité? Depuis longtemps, l’homme est dépassé par la puissance de la machine – en vertu de ses capacités de mémoire, de calcul, de stockage… De quelle intelligence humaine [qui serait en danger d’être remplacée par une version artificielle] parle-t-on réellement? Quid de l’intelligence psychique, de la mémoire reptilienne, de la spiritualité, de la complexité biochimique, et de toutes les autres intelligences humaines – associative notamment?”

Autre vision (plus) inquiétante qu’il invoquait: comment concilier, faire cohabiter “chimie du carbone – l’homme – et chimie du silicium – la machine? Si l’on accepte que la machine soit capable d’une vitesse supérieure d’exécution, inégalable par l’homme, grâce à l’hyper-parallélisation, comment pourra-t-on encore programmer ces architectures? L’homme ne sera plus en mesure de le faire. La seule façon de le faire passera par des interactions de langages entre machines, qui ne seront plus compréhensibles par l’homme… Ce dernier l’acceptera-t-il? Et si la machine est faillible, puisque procédant par essai et erreur, que faire face à un robot devenu fou et ne pouvant plus être corrigé?

Dès à présent, des expériences IA se déroulent sans supervision”, rappelait-il. “Cela pose un problème fondamental. On oublie de maintenir les développements dans un espace “bac à sable” [“sandbox”] où les matériels et logiciels sont isolés de l’environnement humain” et où, dès lors, les erreurs n’ont pas d’impact direct sur la réalité…

Le Prof. Pierre Giorgini terminait son exposé sur une interrogation qui tient de la stratégie et de la préservation humaine et économique: “comment l’Europe répondra-t-elle face aux moyens que déploient les Etats-Unis et la Chine en matière d’intelligence artificielle?”

On le sait, notre approche européenne est différente, moins “libertaire” que celle de ces deux grandes puissances de l’IA. “Il y a là une profonde différence civilisationnelle…” Et de mettre sur la table l’idée d’une “IA open source, au moins en Europe, pour défendre et ériger l’intérêt commun.”

Ne pas perdre la maîtrise

Lors du débat qui a réuni plusieurs chercheurs du NaDI, d’autres voix se sont élevées pour mettre en garde contre certains pièges ou dérives de l’IA, en particulier dès l’instant où elle ne serait plus maîtrisée, compréhensible aisément par l’être humain. Ainsi Antoinette Rouvroy, chercheuse du CRIDS et professeur en faculté de philosophie, revenait-elle sur le risque d’erreur de la machine. “L’Intelligence artificielle peut créer des patterns vraies ou fausses mais considérées comme suffisamment fiables pour justifier des stratégies d’action. Il ne faut en effet jamais oublier que l’on est en face d’un système d’optimisation, pas d’un système scientifique [au sens de: s’appuyant sur la vérité scientifique]. Il n’y a plus de stabilité de la vérité.

Alexandre de Streel (CRIDS, UNamur): “il faut surveiller l’explicabilité de l’intelligence artificielle, l’incontestabilité des décisions algorithmiques. Il devrait y avoir, comme c’est par exemple le cas en droit du consommateur, une obligation de transparence, de motivation [des décisions] permettant de les contester.”

Les algorithmes peuvent certes nous rendre plus intelligents, par exemple en nous aidant à détecter des régularités qui ne sont détectables que sur de très grands nombres [de données] mais, en raison du principe premier qui est celui de l’optimisation, les algorithmes peuvent également optimiser ce qui n’est pas acceptable, par exemple des inégalités, des normes sociales dominantes…”

Face à ces risques, plusieurs des intervenants – dont Alexandre de Streel, juriste et directeur du CRIDS, et Annick Castiaux, du centre Circe et vice-rectrice de l’UNamur, évoquaient, tout comme le Prof. Pierre Giorgini, la piste de l’IA et des algorithmes en open source. Pour Alexandre de Streel, ce serait là un moyen de réguler l’IA, de surveiller son “explicabilité, l’incontestabilité des décisions algorithmiques. Il devrait y avoir, comme c’est par exemple le cas en droit du consommateur, une obligation de transparence, de motivation [des décisions] permettant de les contester.”

L’une des questions qui se pose, selon lui, est celle de la “loyauté” des algorithmes. Si un algorithme génère une recommandation à un utilisateur ou à un consommateur, comment déterminer s’il le fait dans l’intérêt de ce dernier ou dans celui du fournisseur ou de la plate-forme? Car cette boîte noire peut, au final, ne chercher que la maximisation du profit et, donc, celle de l’“engagement” du consommateur par rapport au produit. Benoît Frenay, professeur associé et chercheur au sein de l’institut Precise, embrayait sur cette idée en soulignant l’importance qu’il y a à poursuivre les recherches en matière d’interaction avec l’IA, “de telle sorte que l’utilisateur puisse lui dire: “non, ce n’est pas ce que je veux, le résultat que tu proposes n’est pas le bon.” Il faut en arriver à une relation bidirectionnelle.”

IA, éthique et santé

Sujet épineux que celui de l’éthique en matière d’intelligence artificielle et qui ne risque pas de devenir indolore à l’avenir.

La question se pose dans de très nombreux domaines, quasiment partout où l’IA et les algorithmes futés montrent le bout de leur nez, échappant souvent à la compréhension de leurs utilisateurs (“à l’insu de leur plein gré” aurait dit un célèbre cycliste). L’un des domaines sans doute les plus sensibles parmi tous est incontestablement celui de la santé.

A l’occasion du récent séminaire Patient numérique (communauté d’échange et de partages d’expérience entre professionnels hospitaliers), les organisateurs avaient invité David Gruson, expert français des questions de santé, d’intelligence artificielle et d’éthique, à venir aborder la question de la régulation éthique de l’e-santé à l’heure des objets connectés, de la collecte décuplée de données et du recours à l’intelligence artificielle pour les analyser et en dégager des processus d’aide (pose de diagnostic, recommandation de traitement…).

Membre de la chaire Santé de Sciences Po (Paris), David Gruson est aussi l’une des chevilles ouvrières de l’initiative académique et citoyenne Ethik-IA qui entend “défendre une régulation positive de l’intelligence artificielle et de la robotisation en santé, notamment dans le cadre des états généraux [français] de la bioéthique.”

Détail de la couverture du livre “S.A.R.R.A. Une intelligence artificielle”.

Il est par ailleurs l’auteur d’un livre intitulé “S.A.R.R.A., une intelligence artificielle”. Le scénario? Une épidémie soudaine d’ebola – forcément inattendue – à Paris qui incite les pouvoirs publics à prendre, disons, certains raccourcis. Les algorithmes prennent la main: conception d’un vaccin qui, pour des raisons de rapidité de réaction, ne sera pas testé, application généralisée via recours à des infirmiers-robots automatisés, recommandation d’action émanant en apparence des autorités sanitaires mais dont le rapport préalable a été rédigé… par une intelligence artificielle.

Voilà quelques ingrédients de la trame du livre qui pousse le lecteur à s’interroger sur la manière dont les différents acteurs (pouvoirs publics, professionnels de la santé, patients ou simples citoyens) réagissent ou réagiraient face à ce cocktail détonnant urgence-complexité de décision-fiabilité supposée… 

Comme l’écrit le professeur Guy Vallancien, membre de l’Académie Nationale française de Médecine, en préface du livre: “on mesure ici que l’intelligence artificielle et les robots dont on nous vante la précision et la fiabilité doivent aussi être interrogés quant à la portée et au sens de leurs actions.”

Au travers de ce livre, David Gruson tient notamment à formuler deux avertissements.

Primo, “les risques éthiques se modifient dans la pratique lorsque l’on se retrouve dans une situation de gestion de crise et de pression du temps.”

Deuzio, le principe-même de l’apprentissage automatique et d’une intelligence artificielle forte et indépendante doit nous faire prendre conscience que “rien n’indique qu’un robot ne puisse pas mentir” et rende ainsi insignifiante la première règle d’Asimov. “Un programme d’intelligence artificielle respecte certes l’objectif qui lui est indiqué mais peut également définir des voies inattendues. En ce compris en s’adaptant suite à la connaissance croissante qu’il collecte de nos propres réactions.”

Sa conclusion? “Le meilleur viatique contre les risques potentiels demeure une dose de libre arbitre et le fait de ne pas prendre pour argent comptant tout ce qui sort d’une machine.”

L’Institut NaDI: croiser les regards

L’Institut NaDI est une structure virtuelle en ce sens qu’il réunit des chercheurs indépendants ou émanant de centres de recherche existants de l’UNamur. Ils mettent en commun, en mode transversal et multi-disciplinaire, leurs compétences spécifiques (informatique, génie logiciel, sociologie, juridique, philosophie, gestion…) au service de projets et de recherches ayant trait à de grandes problématiques liées ou soulevées par le numérique.

Les cinq centres de recherche participants sont: le CRIDS, spécialisé en information, droit et société ; l’institut Precise, orienté recherches en ingénierie et gestion des systèmes d’information ; Focus, recherche en informatique fondamentale ; Circe, centre de recherche spécialisé en innovation ; et le Cercle, spécialisé dans les matières de consommation et de loisirs.

Quant aux sujets et domaines de recherche dans lesquels l’Institut interviendra, citons:

  • la sécurité et la vie privée: étude des moyens d’accès, de l’équilibre et de la proportionnalité des systèmes de surveillance, usages faits des données collectées par des dispositifs IoT… 
  • les logiciels et systèmes: mise en commun d’expertises en génie logiciel, science informatique et gestion de l’information pour mieux comprendre les fonctionnements et implications de plates-formes de plus en plus complexes
  • la “science des données” et l’intelligence artificielle: les compétences croisées dans ces domaines concernent l’intelligence computationnelle, l’apprentissage automatique, les mégadonnées (big data), les mathématiques, les langages de programmation… ; quant aux domaines d’application examinés sous un angle à la fois technologique, légal, social et éthique, ils toucheront notamment à la médecine, à l’industrie, aux ressources humaines…
  • la technologie au service de la société: projets de recherche dans le domaine de l’analyse critique des choix moraux et politiques, de la délibération démocratique de la conception technologique, et de l’évaluation de l’impact de la technologique sur diverses questions sociologiques (identité sociale, interactions sociales, organisation du travail, gouvernance)
  • les villes intelligentes/connectées et l’e-gouvernement: recherche scientifique appliquée à la simplification administrative, à la sécurité, aux données ouvertes (open data), à la participation citoyenne, à la visualisation de l’information, aux systèmes multi-partites…
  • l’économie collaborative: fonctionnement des plates-formes P2P, activation des processus psychologiques de participation et d’implication chez les utilisateurs, règles légales présidant aux échanges et interactions…

Relire l’article que nous avions récemment consacré à l’Institut NaDI.

Comité d’avis

Le NaDI n’opèrera pas en vase clos. L’UNamur a en effet décidé de lui associer un comité d’avis composé de personnes extérieures issues du secteur du numérique, “capables d’ancrer l’Institut dans le développement de son hinterland, de fournir de nouvelles pistes de recherches, ou encore de nous informer des problématiques qui intéressent les entreprises.”

Sont notamment membres de ce Comité d’avis: Séverine Dusollier, professeure à Science Po (et ancienne directrice du CRIDS) ; Daniel De Schreye, professeur à la KULeuven, spécialiste de l’IA et des méthodes formelles ; Yves Pigneur, professeur à l’Université de Lausanne ; Pierre Rion, président du Conseil Wallon du Numérique ; Jean-Claude Burgelman, directeur de l’unité Open Data Policy & Science Cloud de la Commission européenne ; Michaël Trabbia, CEO d’Orange Belgique ; Olivier de Wasseige, administrateur-délégué de l’Union Wallonne des Entreprises ; Pascal Laffineur, patron de NRB ; Dominique Demonté, nouveau directeur général d’Agoria. [ Retour au texte ]