Mieke De Ketelaere (IMEC): “The good, the bad and the ugly in AI”

Pratique
Par · 16/12/2020

L’alliance d’acteurs – et programme d’action – AI 4 Belgium a récemment organisé une conférence virtuelle qui s’est plus spécifiquement intéressée à l’impact humain, sociétal voire éthique de l’intelligence Artificielle.

Pour aborder ce thème, AI 4 Belgium avait invité Mieke De Ketelaere, directrice de programme à l’IMEC, où elle est chargée du développement de la stratégie IA de cet institut de recherche flamand. Mieke De Ketelaere y officie depuis près de deux ans, après plus de 20 années passées à parler et évangéliser l’analyse de données et l’aide à la décision notamment au sein de sociétés IT telles qu’IBM, Microsoft et SAS (où elle s’était hissée jusqu’au poste de directrice Customer Intelligence pour la zone Europe de l’Ouest).

Elle est l’auteur d’un livre récent intitulé “Mens versus Machine – Artificiële intelligentie ontrafeld”, (L’homme vs la machine – L’Intelligence artificielle démystifiée), publié chez Pelckmans.

Un livre qu’elle a voulu à la fois pédagogique et “démystificateur”, afin de démonter ce qu’elle appelle un biais de complexité et une opposition croissante entre ceux qui y croient et veulent se lancer (à corps perdu ou à leur corps défendant?) dans lIA et ceux qui lui opposent une résistance acharnée. Entre les précurseurs, d’une part, et les sceptiques trainards, de l’autre…

Lors de son exposé, Mieke De Ketelaere a donc mis dans la balance, d’un côté, les avantages et promesses de l’IA, dans une kyrielle allant croissant de domaines et de métiers, et, de l’autre, les freins, incompréhensions, visions biaisées mais aussi les limites qui perdurent, les réels problèmes éthiques et fonctionnels que pose encore l’IA.

Voici quelques-unes des réflexions et observations qu’elle a partagées…

Des explications et mises en contexte lacunaires

Oui, l’Intelligence Artificielle “se plante” parfois. Des projets déraillent. Des algorithmes débouchent sur des échecs ou décuplent risques et/ou anomalies. “Mais il y a un manque flagrant de traduction [vis-à-vis du grand public, des entreprises, etc.] de ce que peut réellement faire l’IA et des raisons qui expliquent certains problèmes rencontrés”.

Mieke De Ketelaere (IMEC): “Nous avons besoin de “traducteurs IA”, un rôle dévolu à chacun de nous, au quotidien…”

Sa critique? On n’explique pas au grand public, à l’observateur lambda, au décideur… pourquoi certaines décisions sont prises, que ce soit l’arrêt du programme de voitures autonomes par Uber (trop d’accidents, mais encore…?) ou le licenciement d’une chercheuse en éthique IA par Google. Sans explication (plausible et crédible), les réticences ne feront que croître.

“Nous avons besoin de “traducteurs IA” qui puissent faire comprendre à toutes les parties intéressées – citoyens, entreprises, acteurs publics -, les aspects et conséquences sociologiques, légales, technologiques de l’IA.”

Ce rôle d’“AI translator” échoit à chacun, en fonction de son rôle dans la société: “La traduction doit être une pratique quotidienne. Cela signifie trouver et utiliser le bon langage pour éliminer les biais (perçus) de la complexité”. Et la cible est triple: le cercle familial, les instances publiques, les entreprises.

Le bon, la brute et le truand…

En matière d’IA, il y a des erreurs, de fausses pistes, des espoirs déçus, et de véritables dérapages aux conséquences diverses et variées. Ce qui fait dire à Mieke De Ketelaere qu’il faut effectuer une distinction entre les bonnes, les mauvaises et les horribles erreurs en matière d’IA. The good, the bad and the ugly…

Les bonnes erreurs sont celles dont on peut tirer des enseignements propices, qui peuvent servir à progresser. Exemple: les erreurs analytiques des algorithmes qui sont à la manoeuvre sous le capot des voitures autonomes, qui provoquent des accidents… par manque d’anticipation ou parce que les développeurs et data scientists n’ont pas imaginé tel ou tel scénario ou tel ou tel “dilemme” auquel serait confronté la machine.

A eux d’en tirer les leçons et de rectifier le tir pour concevoir des algorithmes et solutions (plus) performances et sûres.

“On sait désormais par exemple que l’IA a encore des problèmes avec les opérateurs logiques, qu’elle est incapable par exemple de résoudre un captcha qui combine chiffres et signes d’addition ou de multiplication pour donner un résultat exact.

De même, l’IA ne s’adapte pas bien aux changements contextuels, incapable par exemple de “comprendre les changements de comportement humain lors de la pandémie, ce qui a provoqué d’efficacité dans les modèles AI déployés par les enseignes commerciales…” 

Les mauvaises erreurs de l’homme en matière d’IA? Elles interviennent pour une série de raisons, qui se combinent ou non. Première erreur: l’individu qui conçoit la solution ne comprend pas correctement le mode de “fonctionnement” de l’IA.

Autres problèmes: la mauvaise qualité des données alimentant l’IA et sur lesquelles elle s’entraîne, “ou des données qui ne correspondent pas réellement au contexte” ; la présence de biais inconscients ; une mauvaise maîtrise des principes de l’anonymisation des données ; …

Les “ugly ones”, elles, surgissent souvent en raison de détournements inavouables – et souvent non imaginés au départ – par l’être humain qui demeure, en coulisses, le manipulateur de marionnette.

L’exemple-type pris par Mieke De Ketelaere est celui de la technique d’“auto-génération”, autrement dit de ces outils qui permettent désormais de produire des contenus (images, vidéo, sons, morceaux musicaux, oeuvres d’art…) construits par la “machine” mais “plus vrais que nature”. C’est la porte ouverte et une invasion sauvage de “fakes” en tous genres, utilisés à des fins peu reluisantes. Les exemples de déclarations factices d’hommes politiques sont déjà légion. Ce qui était potentiellement “marrant” au départ peut avoir des répercussions incommensurables. Exemples cités par Mieke De Ketelaere: des étudiants qui imitent la signature de leurs parents (ça c’est pas nouveau mais l’efficacité et le mimétisme viennent d’atteindre des sommets) ou rédigent de fausses lettres en demandant à un algorithme de recourir à l’écriture d’un de leurs parents sur base d’un certain nombre d’exemples ou, nettement plus inquiétant, l’auto-génération ou la modification de clichés d’imagerie médicale! Objectif: la fraude à l’assurance…

Le rôle des pouvoirs publics

Face à ces risques et ces “dérapages”, des balises et précautions doivent être imaginées. Parmi les recommandations formulées par Mike De Ketelaere: faire preuve de vigilance et instaurer un contrôle scrupuleux pour valider des algorithmes avant de les rendre disponibles via des API open source. Ou encore, de manière encore plus fondamentale et transversale, veiller à appliquer l’“ethics by design”. Et pour définir cette éthique, ce cadre acceptable pour la mise en oeuvre de l’IA dans tel ou tel contexte, “plusieurs profils doivent se retrouver autour de la table: des ingénieurs, des psychologues, des sociologues… C’est comme cela aussi qu’on apprendra de nos erreurs et que l’on pourra déterminer et comprendre, en communauté, comme on peut résoudre un problème et progresser.”

 

Mieke De Ketelaere (IMEC): “Les autorités gouvernementales devraient veiller à ce qu’une information détaillée soit disponible au sujet de l’origine d’une solution IA qu’on achète, des risques potentiels qui y sont liés. Tout comme c’est déjà le cas pour les produits d’alimentation ou les médicaments.”

 

“Le but n’est pas de dire non à l’Intelligence Artificielle mais de définir un cadre dans lequel humains et IA peuvent collaborer, chacun apportant ses propres forces, et où tous deux se renforcent mutuellement. Pour cela, il faut comprendre le contexte, déterminer les impacts à court et long terme [de l’IA], déterminer ses finalités d’utilisation – une solution est-elle destinée à une utilisation interne à une entreprise, par exemple pour son helpdesk, ou externe, par exemple une IA qui décidera de l’octroi de prêts par une banque. Dans ce dernier cas, l’être humain doit demeurer inclus dans la boucle de décision…”

Il s’agit, selon elle, de savoir “doser” l’IA. Et tout dépendra, selon les cas, de l’endroit où on positionnera quatre curseurs déterminants qui forment l’acronyme FATE – “fair, accountable, transparent, exploitable”.

Source: Mieke De Ketelaere (IMEC).