Intelligence et technologie: le paradoxe – et le défi – du bon sens

Hors-cadre
Par · 21/11/2019

Luc De Brabandère était l’un des orateurs invités de la récente conférence “Impact du numérique sur l’emploi de demain” ou comment “Réinventer les métiers à l’ère du numérique”, un séminaire organisé mi-novembre par NRB en collaboration notamment avec Agoria et l’AdN.

L’angle sous lequel il a abordé la question cruciale de la “réinvention des métiers” (sans oublier les compétences) était – profil et parcours obligent – largement teinté de considérations sociologiques, voire philosophiques, mais aussi, de manière rafraîchissante, de bon sens.

La manière dont l’être humain construit sa perception et compréhension des choses suit un parcours en deux étapes, selon Luc De Brabandère. Dans un premier temps, un processus d’induction – qui correspond à un schéma de conceptualisation, d’abstraction, de simplification. Notre perception des choses est influencée par notre passé, notre contexte, notre statut social, notre rôle dans la société. Ce qui explique que deux personnes placées devant la même situation n’en feront pas forcément la même représentation.

Vient ensuite l’étape de la déduction. C’est ce deuxième mécanisme que la machine et l’intelligence artificielle sont sensées reproduire, reprendre à leur compte. “Par contre, il n’existe pas de science de l’induction”, pas de “reproduction” possible dès lors, selon Luc De Brabandère.

Autre démonstration à laquelle il se livrait: la nécessité face au numérique – et au chambardement des métiers et des compétences – de faire preuve non pas d’innovation mais de créativité. “Innover, c’est faire mieux, plus vite, moins cher. Cela s’épuise après in certain temps. La créativité, c’est penser à autre chose”. Changer de paradigme. “Penser digital, c’est penser plus et mieux, avoir l’esprit prospectif, ne pas rester dans le même schéma de pensée. […] On n’additionne pas l’actuel, on n’ajoute pas au présent pour créer l’avenir. Il est essentiel de changer les modèles mentaux afin de pouvoir imaginer les métiers de demain. Il faut casser métiers et compétences en petits morceaux, dont certains disparaîtront et d’autres se réinventeront.”

Le “propre” de l’homme change mais ne disparaît pas

Reliant ses deux raisonnements, il affirme: “on ne pourra jamais se passer de créativité et d’abstraction. C’est le rôle profond de l’être humain.”

Selon lui, tout un pan des activités humaines, une série de types de métiers ne pourront pas être remplacés par la “machine”. “Là où la machine est forte, c’est dans le rapprochement de concepts existants. Par contre, elle n’est pas capable d’inventer des concepts. Elle n’aurait par exemple pas pu “imaginer” la comptabilité en partie double.”

Par contre, le numérique bouscule, redéfinit les règles du jeu et il faut s’y préparer – changer, comme il le dit, de schéma mental pour ne pas se faire surprendre et démonétiser par l’IA. “Chacun se doit de développer de nouvelles compétences personnelles touchant à la créativité. Il est important d’adopter une posture mentale audacieuse. On dit parfois du big data qu’il est le nouvel or noir. Il ne faut pas brûler les data, il faut les faire exploser” – allusion au saut novateur qu’a représenté l’invention du moteur à explosion après que l’homme, pendant des dizaines d’années, se soit contenté de brûler le pétrole.

Cette intelligence artificielle qui n’est pas… intelligente

Le bon sens, c’est aussi cela que l’on attend de l’être humain, cet “homo sapiens” intelligent, face à la déferlante de l’IA – cette capacité de raisonnement de la machine dont certains craignent qu’elle ne rende l’homme obsolète, inutile et décadent.

Question philosophico-sémantique évidemment: comment définir l’“intelligence”?

Luc Julia, de nationalité française et par ailleurs Chief Innovation Officer de Samsung, a publié un livre au titre iconoclaste: “L’Intelligence Artificielle n’existe pas”.

Lors du récent séminaire Patient numérique organisé par OZ Consulting sur le thème “Le patient numérique à l’ère du smart data”, il était venu en faire la démonstration.

Une démonstration qui s’appuie sur un démontage d’appellations trompeuses et sur une comparaison des moyens et ressources que sollicitent l’homme et son cerveau, d’une part, et une machine douée d’“intelligence artificielle”, de l’autre, pour réaliser une même tâche ou un même ensemble de tâches.

Vu sous l’angle adopté par Luc Julia, le jury n’a plus qu’à plier bagage et l’IA à revenir dans “un certain temps” pour retenter sa chance… Petits morceaux choisis de l’exposé de Luc Julia.

Deep Blue (solution d’IBM basée sur le principe de systèmes experts) a fait sensation en 1997 en battant Garry Kasparov aux échecs “simplement parce que le jeu d’échecs avait été modélisé, en encodant préalablement les 1049 coups possibles, permettant à la machine d’avoir 20 coups d’avance.”

Autre technique qui a, depuis, connu un bel essor: les réseaux neuronaux s’appuyant désormais sur des machines très puissantes et, surtout, des masses de données disponibles à profusion, autorisant l’apprentissage automatique. “Dès 2007, la machine pouvait reconnaître un chat avec un taux de certitude de 98%. Mais il lui a fallu utiliser les photos de 10.000 chats pour y arriver. Un enfant de deux ans n’a besoin que de deux ou trois chats…”

Plus élaboré et plus impressionnant, Deep Mind a battu un champion de go en 2016: “via réseaux neuronaux, 30.000 parties jouées ont été soumises à une analyse statistique.” Certes, la machine a gagné mais “moyennant 2.000 processeurs, dont 1.500 cpu, 300 dpu et 30 tpu. Pour une consommation de 440 kW/heure soit celle d’un data center. Le cerveau de l’homme, lui, consomme du 20 watts…”

Autre argument avancé par Luc Julia pour dire que l’expression “intelligence artificielle” est surfaite: le côté mono-modal du potentiel de l’IA. La machine, l’algorithme est bon (meilleur potentiellement que l’homme) dans une tâche spécifique mais le cerveau humain demeure le champion du multi-tâche.

Il s’avance même jusqu’à affirmer que “la voiture totalement autonome [de niveau 5] pouvant opérer seule en tout circonstance ne verra jamais le jour.” Simplement parce que les cas d’exception sont sans fin – impossibles donc à programmer et prévoir. “L’homme, lui, grâce à son cerveau, sait que faire… même quand il ne sait pas. Une machine a toujours besoin d’une règle ou d’un exemple…”

La machine impuissante devant les paradoxes

Luc De Brabandère aussi part en guère contre les appellations et intitulés trompeurs. Sans parler ds buzzwords qui sont surtout faits pour marquer – et s’implanter dans – les esprits.

Quelques petits exemples qu’il évoquait lors du séminaire Réinventer les métiers à l’ère du numérique? “Ce qu’on appelle une voiture autonome n’a rien d’autonome. Jamais une voiture aura été moins autonome, bardée de capteurs, connectée à des satellites… Il vaudrait mieux parler de voiture automatique. Parler d’autonomie ici, c’est mal penser les choses, c’est sacrifier à une pensée inadéquate.”

Autre exemple: le “big data”. “Il vaudrait mieux parler d’other data, parce que que ce n’est pas simplement “plus de la même chose”. Il s’agit de toutes ces traces que l’on laisse avec tout et n’importe quoi, en ce compris les baby phones…”

Le “cloud” ! “C’est l’ordinateur d’un autre !” Mais “s’interroge-t-on sur qui est cet autre?”.

Le Libra n’est pas une “monnaie” mais un “moyen de paiement”.

Quant à l’“intelligence artificielle”, il rappelle que l’intelligence est multiple – émotionnelle, musicale, spatiale… “Il faut parler d’intelligences au pluriel mais au singulier. En reconnaissant ces différentes intelligences, on avait fait un pas dans la bonne direction. Mais maintenant, avec le digital, on remet soudain cela au singulier.”

Ou encore cette petite phrase qui en dit long: “un ordinateur gagne mais ne sait pas qu’il joue aux échecs.”

Ou encore ceci: “L’éthique est bourrée de paradoxes. C’est quelque chose de tellement riche, d’improgrammable. On apprend aux enfants que c’est mal de mentir et qu’il faut être gentil. Mais il arrive que l’on mente pour être gentil. Une machine ne peut traiter cela.”

 

Défauts humaines, défauts machine

Peut-on réellement parler d’intelligence quand le raisonnement d’une machine repose sur des algorithmes biaisés, intentionnellement ou non? Quand les mécanismes de raisonnement automatisés ont été programmés au départ par un homo sapiens avec ses défauts, lacunes et a priori?

Restons un instant dans le champ de la médecine. Dans un article récent publié dans le New York Times (Dealing With Bias in Artificial Intelligence”), Daphne Koller, co-fondatrice de la plate-forme d’e-learning Coursera et professeure associée au département informatique de l’université de Stanford, expliquait que ses travaux portaient notamment sur la compréhension des mécanismes que mettent en oeuvre les algorithmes et qui les font parfois obtenir de bons résultats mais selon des prémisses biaisées et dans un cadre bien défini, peu ou pas du tout reproductible dans d’autres circonstance.

“Imaginez que vous tentiez de prédire des fractures à partir de radiographies en utilisant les données de différents hôpitaux. Si l’on n’y prend garde, l’algorithme apprendra à reconnaître l’hôpital qui génère les clichés. Certains équipements radiographiques présentent en effet des particularités d’image que les autres ne produisent pas et certains hôpitaux comptabilisent un pourcentage nettement supérieur de fractures comparés à d’autres.

On peut donc apprendre à prédire des fractures avec un degré certain de réussite à partir d’un jeu de données, simplement en reconnaissant l’hôpital qui a réalisé la radiographie, sans même analyser l’os.

L’algorithme fait quelque chose qui semble efficace mais il le fait en réalité pour les mauvaises raisons. Il se focalise sur quelque chose sur laquelle il ne devrait pas baser sa prédiction.”

Si l’exercice se limite systématiquement aux données d’un même hôpital ou d’un nombre restreint et fixe d’hôpitaux, le résultat sera “légitime et acceptable”. Par contre, si l’on veut appliquer l’algorithme à des jeux de données venant d’autres hôpitaux, qui ne disposent pas des mêmes équipements et sur les données desquels l’algorithme n’a pas été entraîné, “ce serait le lâcher sur un lot où ses biais seraient totalement erronés.”