Hugues Bersini, professeur à l’ULB et co-directeur de l’Iridia, a coutume, dans ses exposés, d’expliquer la différence, voire l’opposition, entre “IA consciente” ou “forte”, d’une part, et “IA inconsciente” ou “faible”, de l’autre.
La première est celle qui “raisonne”, qui est construite et propose une solution par déconstruction d’un problème, qui se base sur un accompagnement, une guidance, l’apport d’expertises et de pondérations par l’expert humain.
La seconde s’en passe allègrement, ne comptant (essentiellement) que sur la “force brute” de la puissance des processeurs, les gigantesques volumes mémoire et amas de données colletées et triturées, pour parvenir à ses fins.
Et c’est justement parce que l’expertise humaine n’est plus requise, n’est plus partie prenante à l’élaboration de l’algorithme, que nous ne pouvons plus “décrypter” les effets et résultats qu’il induit, soulignait Hugues Bersini.
Un bien ou un mal?
“Malheureusement, l’IA consciente disparaît de plus en plus”, regrette-t-il. Regret parce que le penchant naturel d’un chercheur ou d’un scientifique est d’encore jouer un rôle actif, majeur, dans le processus. Regret aussi – et avec une signification encore plus importante – en raison de l’incapacité croissante de l’être humain à comprendre comment l’IA inconsciente obtient des résultats et comment s’élaborent les méandres de ses constructions.
Cet effet boîte noire est désarçonnant, perturbant, mais a également des conséquences potentiellement néfastes: si un problème se pose, si un résultat est faux ou déviant, impossible de comprendre pourquoi et comment il a été obtenu et comment, sinon y remédier, du moins éviter qu’il se reproduise..
Le “malheureusement” a également une dimension “impuissance” face à la volonté et aux moyens d’acteurs tels que Google ou Facebook. “L’IA faible est en train de l’emporter parce que ces acteurs ont les moyens de rendre la “brute force” possible.”
Leur leadership s’accentue parce qu’actuellement, on n’entend plus que le discours “performance first”, “quel que soit le moyen d’y arriver”. “Les GAFA n’ont pas besoin de l’IA consciente.”
Jacques Corbeil (Université de Laval, Canada): “Vous pouvez placer le mot “deep” devant n’importe quoi pour décrocher des financements…”
Reste que la “force brute” et l’IA inconsciente sont utiles, voire nécessaires, dans des registres où, objectivement, la machine s’avère plus “performante” et rapide que le seul potentiel du cerveau humain. Et que la piste de l’IA “consciente” est un mirage dans des situations d’hyper-complexité. Exemple éloquent pris par Hugues Bersini: impossible de concevoir un algorithme qui, en s’appuyant sur tous les scénarios possibles et imaginables, permettrait de se sortir indemne de la circulation, à l’heure de pointe, au Square Montgomery ou sur la Place de l’Etoile à Paris…
Hugues Bersini (ULB) “On dispose désormais de tellement de données qu’il n’est plus nécessaire d’inclure l’intermédiaire humain dans le processus de construction de l’algorithme. En l’incluant, on ne fait que dégrader la puissance et l’efficacité de la machine.”
“L’une des questions fondamentales à se poser”, poursuit Hugues Bersini, “est la suivante: quel prix est-on prêt à payer [pour se passer du deep learning]? Les algorithmes fonctionnent tellement bien qu’il ne faudrait pas jeter le bébé avec l’eau du bain.”
“Comprendre” les algorithmes. Mais encore?
Rendre les algorithmes compréhensibles, “transparents”. Certes, mais jusqu’où? Et compréhensibles par qui? Par Monsieur/Madame Tout-le-Monde, par des experts plus ou moins “pointus”?
Autrement dit, quelle définition donner à la “transparence”? Et à quels types d’algorithmes, dans quels domaines, la préconiser ou l’imposer? Comment mesurer la performance d’un algorithme? Autant de questions dont il faudra s’emparer.
“La notion de transparence est une introspection qui commence à faire son chemin, même chez IBM ou Google. Et il est clair qu’il y a des cas évidents où un algorithme doit être transparent, compréhensible”, souligne Hugues Bersini. “J’ai moi-même milité pour la transparence de l’algorithme ParcoursSup [Ndlr: en France, solution IA qui décide de l’accès ou non des futurs bacheliers à l’enseignement supérieur]. “On a d’ailleurs ainsi pu constater que, tel qu’il avait été conçu [par les autorités françaises], l’algorithme fonctionnait parfois bizarrement…”
Vous avez dit bizarre? Relire par exemple, pour ceux que cela intéresse, cet article publié dans Science et Avenir
Lorsqu’il commente pour sa part la notion de “transparence des algorithmes”, Milad Doueihi, titulaire de la chaire d’humanisme numérique à la Sorbonne (Paris), ajoute deux autres dimensions. D’une part, celle de la “portabilité” de l’algorithme. Autrement dit, son applicabilité à un domaine autre que celui pour lequel il a été conçu et où, soudain, il donne des résultats “problématiques voire mauvais”. “C’est là un domaine où les compétences nous font encore défaut.”
Deuxième dimension: le biais et les “préjugés” présents dans les algorithmes. “Cela tient à la fois à la qualité des données et aux objectivations prescriptives du passé.”
Algorithme, “black box” et démocratie
On touche là à des considérations quasiment philosophiques, foncièrement sociales et morales, mais on ne saurait les oblitérer.
La notion de “transparence” des algorithmes – ce ne sont pas les partisans de l’open source, de l’open data et de l’open access qui diront le contraire – est une question majeure, un choix de société. Et les politiques ne peuvent rester muets ou aux abonnés absents.
Hugues Bersini évoquait, à cet égard, la perspective d’une possible “nouvelle forme de démocratie”. Retour à la question de l’acceptation des algorithmes dans tous les pans de notre vie. Il évoquait la perspective d’une “participation citoyenne”. Dans la lecture, la vérification voire la conception des algorithmes? Encore faudrait-il donner à tous les clés et moyens d’y arriver…
Milad Doueihi rappelait à cet égard que le balancier penche actuellement du côté des GAFA, de sociétés commerciales et des finalités juteuses de type “moteurs de recommandation” qui les motivent, fort loin des objectifs scientifiques ou académiques. “Il y a là un choix politique à poser, un recul à prendre. Attention au monopole des GAFA qui sont capables de nous imposer quelque chose [le deep learning] qui n’est pas un vrai paradigme.” Le problème est que ce sont eux qui ont les moyens, les données et… les meilleurs chercheurs.
Hugues Bersini (ULB, Iridia): “Messieurs les politiques, vous devez “faire de l’algorithme” mais à notre image.”
Hugues Bersini embraye: “Je suis effaré de voir avec quelle facilité le politique a démissionné de ses prérogatives. Un simple exemple: la mobilité, avec la place prise par Waze qui modifie la circulation dans nos villes.” Et ce à quoi le pouvoir public ne trouve d’autre parade que d’appliquer des amendes aux automobilistes qui se laissent guider par l’algorithme, passant dans des villages ou quartiers dont les rues sont devenues des autoroutes…
“Ce sont là deux mondes différents [les start-ups disruptives et les pouvoirs publics]. “Le monde politique n’a pas compris qu’il lui faut prendre pied dans le monde des algorithmes, créer leurs propres Waze. A chaque coup, ils perdent la bataille. Il faut au contraire s’inspirer de ces plates-formes et de leur efficacité mais en le faisant avec du bon sens et de l’éthique. Et pour le bien commun.
On peut être meilleur que Waze si on veut. En exploitant les données de chantiers, en y incluant [Ndlr: c’est à peine un clin d’oeil] l’élément des trottinettes électriques.
Messieurs les politiques, vous devez “faire de l’algorithme” mais à notre image.”
Qui (quoi) est responsable de quoi ?
L’IA de type “force brute” arrive donc à des résultats – sans savoir pourquoi ou comment et ne nous permet pas de le savoir. Mais le concept d’“inconscience” a aussi sa force, sa justification, d’un certain point de vue. Nous-mêmes, êtres humains, nous sommes plus “efficaces” lorsque nous laissons nos réflexes agir. Face à une situation d’urgence en voiture, nous ne commençons pas par à analyser mathématiquement et consciemment les différentes options qui s’offrent à nous…
Par ailleurs, l’homme lui-même, dans certains registres, ne peut pas démontrer scientifiquement les raisons d’une prise de décision. La médecin et les diagnostics posés peuvent en être un exemple. Certes, on pourra démontrer a posteriori que la décision de tel ou tel traitement a été prise à bon escient parce qu’on pourra arguer que les statistiques démontrent qu’il marche dans 90% des cas. Mais est-ce suffisant, s’interroge Hugues Bersini? Non…
Cela pose la question de la responsabilité de l’inconscient. Et donc de la machine…
Aux yeux d’Hugues Bersini, il est indispensable d’imaginer un moyen pour que “la machine s’explique”. Tout simplement parce que l’être humain n’acceptera pas des situations où il ne peut expliquer les raisons d’une décision qui ont été prises pour lui, ou qui l’impactent. Et ce, quel que soit probablement le domaine: médecine, pilotage automobile, choix de candidat dans l’attribution d’un poste, prononcé de justice…
En France, faisait-on remarquer lors de cette conférence BioWin, la Haute Autorité de Santé impose d’ailleurs d’ores et déjà que l’on sache comment les algorithmes utilisés en médecine fonctionnent. Et, dans certains cas, le Règlement européen pour la Protection des Données (GDPR) exige aussi la transparence des algorithmes.
Jacques Corbeil (Université de Laval, Canada): “Nous [le citoyen lambda, notamment] disposons de nombreux outils mais nous ne savons pas comment les utiliser. Il est de la responsabilité de tout un chacun de connaître les tenants et aboutissants de nos actes. Par exemple, lorsque nous portons un vêtement connecté, il faut être conscient de l’endroit où ces données sont stockées et de ce qui en est fait. En matière d’IA, les chercheurs ont besoin de travailler avec des avocats, des philosophes en raison des nombreux impacts…”
Découvrez-nous sur Facebook
Suivez-nous sur Twitter
Retrouvez-nous sur LinkedIn
Régional-IT est affilié au portail d’infos Tribu Médias.