L’intelligence artificielle – Faut-il changer de perspective?

Hors-cadre
Par · 17/11/2022

Une réunion, en mode atelier, se déroulait ce lundi 14 novembre au Parlement européen. Le sujet: la perception, la compréhension qu’a (ou non) le grand public, le “citoyen lambda”, de l’Intelligence Artificielle (IA) et la nécessaire multidisciplinarité qu’il conviendrait de mettre en oeuvre en vue de bâtir une IA réellement pertinente.

Parmi les orateurs invités: Mieke De Ketelaere, directrice du programme IA à l’IMEC. En dehors d’une sorte de remise à l’échelle des capacités réelles de l’IA (un point sur lequel nous revenons plus tard dans le présent article), elle soulignait aussi que, dans l’état actuel des choses, nos sociétés évoluent dans une sorte de schéma “tour de Babel” quand on parle d’IA.

Chacun en a – ou en donne une perception, une interprétation spécifique. On promet ou attend beaucoup de l’IA mais rares sont ceux qui comprennent réellement ce qu’elle est et ce qu’elle peut faire.

La faute à? Le discours est influencé à la fois, et de manière souvent contradictoire, par des scientifiques, des spécialistes du marketing, des prédicateurs d’Armageddon, des scénaristes à l’imagination fertile, des médias qui se laissent trop emballer ou induire en erreur par certains de ces discours…

Autre écueil conduisant à cette tour de Babel 4.0. Le fait que l’IA soit construite essentiellement par des geeks. D’où la recommandation de Mieke De Ketelaere: pour restaurer une vision objective de la part du grand public, il faut que ce dernier ait droit de cité autour de la table qui ne peut être réservée aux seuls ingénieurs. L’IA et sa mise en oeuvre doivent faire intervenir d’autres critères que des potentiels purement technologiques, potentiellement “hors sol”, pour inclure, dans la vision globale et dans l’élaboration des solutions, des critères de validité économique, d’impact environnemental ou sociétal, de droits humains…

Et pour faire en sorte que toutes les parties prenantes (ou intéressées) potentielles puissent réellement dialoguer, co-construire, et se comprendre, Mieke De Ketelaere remet sur la table son idée de “traducteurs IA”, de “human-AI translators”, “des personnes qui ne connaissent pas forcément toutes les arcanes de l’IA mais qui puissent réinsérer de l’empathie dans l’état d’esprit […] afin de garantir notamment que l’IA réussisse son insertion dans notre société.

Il faut ouvrir le débat, faire appel à des social skills. C’est nécessaire si nous voulons nous protéger pour l’avenir et ne pas laisser les choses uniquement entre les mains d’ingénieurs”.

 

Mieke De Ketelaere (IMEC): “There is always a certain degree of efficiency certainty with AI. AI has the potential to create insights and to undue uncertainties [which humans aren’t always able to do] but this is not without risks… In certain contextes, AI will misbehave.” 

 

Ce concept de “traducteurs IA”, elle le défend depuis déjà plusieurs années. Elle s’en était d’ailleurs expliquée lors d’un exposé effectué lors de la Belgian AI Week 2020. Voilà ce qu’elle déclarait alors: “Nous avons besoin de “traducteurs IA” qui puissent faire comprendre à toutes les parties intéressées – citoyens, entreprises, acteurs publics -, les aspects et conséquences sociologiques, légales, technologiques de l’IA.” Selon elle, ce rôle d’“AI translator” échoit à chacun, en fonction de son rôle dans la société: “La traduction doit être une pratique quotidienne. Cela signifie trouver et utiliser le bon langage pour éliminer les biais (perçus) de la complexité”. Et la cible est triple: le cercle familial, les instances publiques, les entreprises.

Relire l’article que nous lui avions consacré lors de cette première Belgian AI Week. Mieke De Ketelaere (IMEC): “The good, the bad and the ugly in AI”

L’image tronquée de l’IA

Le grand public – dans toute sa multiplicité et diversité – se fait trop souvent une fausse idée de l’IA, de ce qu’elle peut ou ne peut pas faire – maintenant ou demain.

Lors de l’atelier-débat au Parlement européen, plusieurs causes ont été pointées du doigt. Il y a tout d’abord le “buzz”, l’image que les concepteurs et responsables marketing en donnent.

Il y a aussi – pointés à plusieurs reprises par divers intervenants -… les médias. Des médias qui tomberaient trop dans la simplification, dans la présentation à l’excès d’une seule vision (parfois construite de toutes pièces) de l’IA. De ses risques. De ses dangers. De ses potentiels. Sans rééquilibrer le discours et le raisonnement. Avec des narrations biaisées qui amplifient les fausses perceptions.

“Il faudrait au contraire davantage se baser sur les faits et sur les preuves”, entendait-on pendant les échanges. “Pour les médias, il est important de faire davantage du journalisme d’investigation, de privilégier une perspective équilibrée, qui ne tombe ni dans l’utopie, ni dans la dystopie. Faits et preuves doivent également être la démarche des législateurs…”

 

“Il est important de se baser sur les faits et sur les preuves, de privilégier une perspective équilibrée, qui ne tombe ni dans l’utopie, ni dans la dystopie. Faits et preuves doivent être la démarche des médias comme des législateurs…”

 

Donc oui – et cela a déjà été largement démontré -, l’IA a des potentiels. Elle propose des perspectives venant suppléer aux limitations de l’être humain. Pour l’“augmenter”, lui faciliter certaines tâches…

Mais, rappelait Ivo Hristov, parlementaire européen (bulgare), l’IA présente des risques. Il comparait ses promesses et la perception que certains en ont aux promesses de la chirurgie esthétique : des gains parfois fallacieux, éphémères, un risque d’uniformisation de l’humain, la perte de personnalité, de ce qui fait les traits distinctifs de l’homme. “Il faut être prudent, contrôler les risques, se servir de l’IA sans en abuser. L’une des questions que soulève le court-métrage “La meilleure option” [voir ci-dessus] est fondamentale: notre personnalité nous appartient-elle encore?”

Répondant à une question d’un participant qui évoquait le risque de voir de mauvaises choses se produire en raison de l’IA et d’une “salle de contrôle entre des mains indésirables”, il évoquait un autre risque à ses yeux. Celui justement de “salles de contrôle” ou de “maîtres/concepteurs” de l’IA qui mettent sur le marché des algorithmes gouvernant nos vies et nos pensées selon des marqueurs générationnels en constante évolution, qui réponde à des motivations ou perceptions mouvantes. Preuve selon lui: la génération TikTok qui n’a déjà plus rien à voir avec la génération Facebook. Avec une succession de générations en accélération constante… D’où sa recommandation d’en revenir ou d’adopter une “démarche plus globale, avec élaboration d’une charte comportant un certain nombre de principes”. Loin, notamment, des intérêts fugaces et particuliers des investisseurs.

L’IA n’est rien sans l’homo sapiens

Pour Mieke De Ketelaere, l’état de maturité ou la capacité de “pensée”, de “raisonnement” de l’IA, actuellement, peut être comparée à celle d’un petit d’homme de… 18 mois. “Après les masses d’investissement qui ont déjà été consenties…”

N’oublions pas par exemple, soulignait-elle, que l’IA, contrairement à l’homo sapiens que nous sommes, n’est pas capable d’abstraction. Un exemple? “Collez dans une photo, une étiquette iPad sur une pomme et l’IA vous dira qu’il s’agit d’un iPad…”.

Source: Exact.

Autre exemple cité par un autre orateur: l’émerveillement que peuvent susciter les célèbres robots de Boston Dynamics, capables de courir, sauter, franchir des obstacles… “Soit mais que l’on vienne à baisser les lumières dans la pièce où ils évoluent et ils sont perdus. Il ne faut pas perdre de vue qu’ils ont appris [lisez: que les algorithmes qui les animent ont été entraînés] pour des conditions de luminosité spécifique…” L’adaptabilité spontanée de l’IA n’est pas encore de ce monde…

Autre travers – et défaut – de l’IA: ses dérapages, ses “mauvais comportements”. Notamment “parce que l’IA ne s’adapte pas à un monde qui change sans arrêt”, déclare Mieke De Ketelaere.

Un exemple très éloquent et foncièrement effrayant (en tout cas interpelant) en est donné par le court-métrage “La meilleure option” du Belge Serge Goriely, ingénieur en gestion, docteur en philosophie et lettres et spécialiste des arts du spectacle. Un court-métrage qui a été projeté lors de cet atelier du Parlement européen.

Une candidate à un emploi se voit proposer une implantation d’un dispositif qui lui permettra, en théorie, d’accroître ses capacités et compétences pour les tâches qui lui seront confiées. Le dispositif implanté, en lui dictant les comportements à adopter (sur base d’une IA compagnon de tous les instants, modifie évidemment ses comportements, sa personnalité. Jusqu’à ce que son “vrai” compagnon, celui en chair et en os qui partage sa vie, ne la reconnaisse et ne la comprenne plus. Jusqu’au clash. Une confrontation où une incompréhension totale surgit entre le petit ami et la jeune femme “augmentée” par ses conseils IA implantés. L’IA lui “conseille” de frapper avant qu’elle ne soit – soi disant – agressée par son ami. La jeune femme, à divers moments, veut se libérer de cette emprise de l’IA, en extrayant de force ses implants IA mais la résistance de l’IA pose, là aussi, un sérieux cas de “conscience”.

Selon le scénario de ce court-métrage, l’IA “dysfonctionne”, tombe dans les “misbehavings”, interprétant mal la situation relationnelle entre les deux humains et, pire, pousse la jeune femme implantée au “misbehaving” puisqu’elle devient agresseur d’une personne qui n’avait aucune réelle intention de nuire…

Creepy

Comment redresser l’image

Comment faire en sorte que l’IA se bâtisse selon des principes qui soient en accord avec nos valeurs et nos attentes?

Comment, par ailleurs, faire en sorte que la perception qu’en ait “Monsieur/Madame Tout le Monde” soit correcte et “éclairée”?

Plusieurs propositions ont été mises sur la table. Il y a cette nécessité qu’évoquait Mieke De Ketelaere d’une multidisciplinarité pour la conception et l’encadrèrent de l’IA. Plusieurs autres intervenants ajoutaient leurs voix à ce message. Il faut en effet, selon eux, faire dialoguer, se parler et co-construire le monde de la science, de la technologie, du légal, des sciences sociales, de l’éthique, des arts…

Plusieurs artistes, dans diverses disciplines, ont notamment pris la parole lors de cet atelier-débat au Parlement européen. Parmi leurs messages, la conviction que les artistes sont particulièrement bien placés, grâce au foisonnement de leur imagination et de leur perception du monde, pour expliquer plus clairement au grand public pourquoi et comment l’IA, en réalité, diffère de l’homo sapiens. Pour lutter, entre autres, contre les tendances à l’anthropomorphisme qui brouille les perceptions.