Pour rester informé(e) des dernières actualités de l'IT en Belgique francophone, lisez ceci • Comment / Pourquoi s'abonner ?

Promouvoir l’équité en Intelligence artificielle imposera des choix difficiles

Tribune
Par Laurent Sorber (Radix) · 09/06/2020
Partager

A mesure que l’Intelligence Artificielle s’immisce de plus en plus dans notre vie et dans nos activités professionnelles, nous prenons conscience que l’IA est “all too human”: elle est le reflet des biais qu’elle trouve dans les données sur lesquelles elle est entraînée. L’IA est-elle condamnée à répéter sans fin nos lacunes? Peut-être pas. Il est plus facile en effet de détecter des biais dans l’IA que chez les humains. C’est là un avantage dont on peut se saisir.

L’importance de l’équité

Le déploiement de systèmes décisionnels automatisés connaît une ampleur inconnue à ce jour. Alors que l’IA s’apprête à prendre ou à influencer un nombre croissant de décisions qui influencent nos perspectives sociales et économiques, l’idée d’“équité en IA” fait l’objet d’ardents débats. L’IA va-t-elle faire obstacle à votre rentrée ou votre retour sur le marché du travail juste parce que vous êtes une femme ou parce que vous êtes issu(e) de l’émigration? L’anxiété à ce sujet est prégnante et n’est sans doute pas totalement injustifiée.

Comment peut-on y faire face? Comment devrions-nous “réguler” l’Intelligence Artificielle? L’IA est déjà, en partie, régulée en Europe. Lorsque l’IA prend des décisions qui concernent des personnes protégées aux termes du RGPD, le propriétaire du logiciel devrait être capable d’expliquer comment le logiciel a pris ces décisions. L’article 22 dub RGPD stipule en effet que les personnes concernées par les données ont un droit d’opt out par rapport à toute décision “fondée exclusivement sur un traitement automatisé” – autrement dit, le droit de ne pas faire “l’objet d’une telle décision” – si cette décision “produit des effets juridiques la concernant ou l’affectant de manière significative de façon similaire”. Et ce n’est que le sommet de l’iceberg…

Technologie de pointe, débat vieux comme le monde

Au lieu d’attendre une vague de réglementations, les dirigeants d’entreprise peuvent d’ores et déjà plancher sur la genèse d’une IA “équitable”. Mais qu’est-ce exactement que l’équité? Voici déjà plusieurs siècle que ce concept fait l’objet de débats dans les rangs des politiciens, des philosophes ou encore des économistes. L’une des caractéristiques qui fait de nous des humains est notre aptitude à faire des choix en toute conscience. Nos choix sont influencés par d’innombrables variantes dont, bien souvent, nous n’avons même pas conscience. Sommes-nous réellement capables de prendre des décisions éclairées qui soient totalement exemptes de biais et 100% objectives?

Les biais sont omniprésents. Ils sont difficiles à mesurer, plus encore à combattre. Le problème tient en partie dans la distinction à établir entre les définitions techniques et sociales du concept d’“équité”. Au bout du compte, chacun et chacune d’entre nous imagine l’une ou l’autre signification sociale lorsqu’il ou elle pense à l’équité mais, bien souvent, nous n’avons que des moyens techniques pour nous y attaquer à faible échelle. On pourrait évoquer ici, en guise d’analogie, le sparadrap, par opposition à des actions politiques et à des changements de politique de plus grande ampleur.

Des choix indispensables

Ce qu’il est important de comprendre à propos de l’équité en matière d’IA, c’est qu’elle obligera à faire des choix difficiles. Et ces choix nous définiront en tant qu’ingénieurs du machine learning, en tant que développeurs, data scientists mais surtout en tant qu’êtres humains. Actuellement, lors de la mise en œuvre de solutions IA, l’attention des ingénieurs IA se porte principalement sur l’« utilité » du modèle. Lorsqu’ils présentent les résultats de leurs développements aux commanditaires, ces ingénieurs ont souvent tendant à se poser la question suivante: “Le modèle que je livre est-il aussi précis que possible?”.

La réponse? La précision n’est pas (ou n’est plus) le seul objectif majeur. La précision des algorithmes est un défi technique qui est aujourd’hui très bien compris dans le monde de l’IA. Lorsqu’on ajoute comme exigence supplémentaire la nécessité d’équité du système, on se rend compte qu’un compromis devient indispensable: le système deviendra nécessairement moins “précis”.

C’est logique. En fait, vous pourriez constater que plus votre modèle est précis, plus il est biaisé – dans la mesure où l’IA apprend à partir de données venant du monde réel. L’IA pourrait, par exemple, avoir tendance à orienter les femmes vers des emplois d’infirmière et les hommes vers des métiers d’ingénieur. Un exemple tristement célèbre est le récent outil de recrutement d’Amazon qui faisait preuve d’une certaine aversion envers les femmes. Compas, un algorithme utilisé aux États-Unis pour évaluer la probabilité qu’un accusé devienne récidiviste, a été et est toujours fortement critiqué aujourd’hui pour les biais dont il fait preuve à l’égard des afro-américains.

balance, justiceSi ces exemples nous rappellent qu’il nous reste encore beaucoup de chemin à parcourir, le débat sur l’équité en matière d’IA est également une énorme opportunité. L’IA nous permet également de concrétiser le choix d’une entreprise en faveur de l’équité. Les politiques de fairness en intelligence artificielle doivent être considérées comme un nouvel outil puissant, basé sur les données, qui permet d’approfondir des questions millénaires sur l’équité, la discrimination et la justice. C’est précisément parce que les modèles de machine learning sont désespérément formels et explicites que nous sommes obligés de définir précisément nos valeurs et d’opérer des choix. Nos choix en tant qu’êtres humains et en tant que sociétés. 

Comment rendre l’IA “équitable”? 

Les préférences d’une entreprise en matière d’équité devraient être débattues par sa direction, voire par son conseil d’administration pour les sujets les plus importants. Ce n’est pas quelque chose qui peut se décider au niveau des développeurs. Si vous n’abordez pas les questions d’équité avant de lancer un projet IA, certains développeurs pourraient choisir la solution de facilité: opter pour la précision, s’assurer que le logiciel fonctionne d’un point de vue purement technique, sans trop se soucier des conséquences ou des considérations fondamentalement équitables. Il est cependant possible de se préparer et d’apporter des réponses à ces questions d’équité. Et ensuite, de les mettre en œuvre, de les expliquer et de les défendre. 

L’équité en IA est trop importante pour s’en remettre totalement à un partenaire technologique — c’est une matière qui doit être prise à bras-le-corps par l’entreprise elle-même.

 

“L’équité en matière d’apprentissage automatique commence par se demander et déterminer l’objectif que l’on veut atteindre.”

 

Songez aux biais habituels et aux groupes de personnes qui en sont victimes : sexe, race, origine socio-économique et migratoire, âge, situation de famille, handicap, antécédents médicaux, ou encore religion. Avant de lancer un projet IA, vous devez décider, en tant qu’entreprise, comment vous voulez contrer ces biais.

Il existe de multiples manières d’aborder la question. Mais tout commence par l’objectif que l’on veut atteindre. Que définir comme norme? Souhaite-t-on refléter les biais (implicites) de la société dans le système? Veut-on s’assurer que chaque groupe soit traité de manière représentative? Ou désire-t-on garantir que l’égalité soit bien présente dans le résultat final?

En guise d’exercice expérimental, on pourrait imaginer un système IA qui propose une liste de tous les biais possibles qu’il peut dénicher dans les données — et demander ensuite dans quelle mesure le “propriétaire” [du système IA ou de l’algorithme] est prêt à accepter ces biais ou désire les corriger.

La stratégie que vous définirez aura un grand impact sur l’équité des décisions prises par le modèle IA mais aussi sur sa précision, et in fine, sur les bénéfices que vous en tirerez.  

L’équité transcende l’IA

L’équité transcende l’IA et nécessite une réflexion de la société dans son ensemble. Si vous n’êtes pas prêt à répondre à ces questions d’équité, vous devriez au moins vous efforcer de faire preuve de transparence (expliquer comment l’IA fonctionne) et respecter la vie privée des personnes (expliquer aux personnes concernées par l’IA comment le système prend ses décisions).

En fin de compte, le Saint-Graal de l’équité en matière d’IA n’est pas de trouver une intelligence artificielle idéale, celle qui sera précise à 100% tout en étant parfaitement impartiale, car c’est tout simplement impossible. Il s’agit de se poser la question “Comment être un bon membre de la société? Comment pouvons-nous utiliser l’IA pour apporter de la valeur à la société, tout en posant des choix conscients et moraux qui seront reflétés dans nos logiciels”?

Ces aspects doivent être abordés avant de développer une IA. Il est essentiel de se rendre compte qu’il n’existe pas de définition standard de l’équité. Une telle définition nécessiterait … un biais. C’est vrai pour les décisions humaines, et c’est vrai pour les décisions faites par des machines. Sans une mesure parfaite de l’équité, un compromis doit être trouvé. La promotion de l’équité et la réduction des inégalités transcendent l’IA et le machine learning et nécessitent une approche pluridisciplinaire, impliquant notre société dans son ensemble. En fin de compte, ce sont nos choix qui feront la différence. 

Laurent Sorber

directeur technologique et co-fondateur
Radix

Dans la suite du raisonnement et de la démonstration “pro-équité” à laquelle se livre Laurent Sorber, directeur technologique et co-fondateur de Radix, nous découvrirons une mise en situation, sur base d’un scénario réaliste, qui illustrera combien il est important, et pas forcément aisé, de combattre les biais dans les projets IA.

A découvrir dans la suite de ce billet, dès cette semaine…

Partager

Laisser un commentaire