IA et soins de santé: entre promesses et risque de “dilution” des valeurs

Hors-cadre
Par · 21/04/2021

Déontologie, éthique médicale, d’une part. “Solutionnisme technologique”, avec un rôle important voire essentiel laissé à l’analytique, à l’intelligence artificielle, d’autre part. Les deux sont-ils compatibles, réconciliables? A quelles conditions, selon quelles précautions?

Le débat ne fait sans doute que commencer. Et il était présent, récemment, tout au long de la Semaine de l’Intelligence Artificielle. Ou encore lors d’un colloque Lux-Health “Assises de la Santé” organisé en virtuel par la Province de Luxembourg et l’intercommunale de soins de santé Vivalia. Intitulé de ce colloque: “L’intelligence artificielle au service de la santé: virage ou mirage?”

Avant de relayer certaines prises de positions que ce sujet a inspirées à l’occasion de ce colloque, faisons une petite parenthèse pour définir ce concept de “solutionnisme technologique” (certains parleront de fuite en avant numérique)… 

La notion a été formulée comme telle par le chercheur américain Evgeny Morozoz (d’origine biélorusse). Elle désigne la tendance à imaginer une solution technologique avant même d’avoir cerné un problème ou ne voir une solution possible à tout défi que par le numérique, sans en analyser en amont les implications réelles ou probables. Ce qui, à ses yeux, constitue une dérive, une quasi-idéologie risquant d’être préjudiciable, voire funeste, pour l’humanité. C’est aussi passer à côté d’une analyse plurale des causes et des effets.

Cette expression de “solutionnisme technologique” a donc (re)fait surface lors du colloque Lux-Health, dans l’exposé de Gregory Lewkowitz, professeur attaché au Centre Perelman de philosophie du droit de l’ULB. Selon lui, il y a un risque énorme à se laisser entraîner par cette “croyance dans le solutionnisme technologique”, plus particulièrement lorsque le contexte est celui de la santé. “Il s’agit de passer d’une impression que l’action de la machine, de l’apprentissage automatique par exemple relève de la magie pour adopter une attitude et une démarche de compréhension du fonctionnement de la technologie” – plus spécifiquement lorsque l’on parle d’intelligence artificielle.

A ses yeux, la méprise trop répandue est que “la machine fait tout le travail”. En réalité, un énorme travail en amont, en coulisses, s’effectue ou doit s’effectuer sur les données, sur le choix et la qualification des algorithmes à utiliser pour l’apprentissage de la “machine”, pour tester les modèles résultants. Cela on le savait – ou on devrait en avoir conscience…

En matière de médecine, rappelle-t-il encore, trois écueils méritent qu’on y attache toute l’attention voulue. Primo, “plus un modèle est précis, plus il est difficile d’expliquer pourquoi il marche”. Deuzio, les modèles sont faillibles – une simple perturbation externe suffit pour les faire dérailler. Tertio, le système (lisez l’IA) est prévu pour trouver quelque chose. “Un algorithme ne vous dira jamais Je ne sais pas ou Je n’ai pas trouvé.” Autrement dit, il produira un résultat d’un travail effectué sur des hypothèses, sur des données. Sans garantie scientifique infaillible.

Un métier en “dilution”?

L’IA serait-elle donc une menace pour les professions médicales? On ne parle pas tant ici de risque de disparition ou de transformation du rôle des professionnels – beaucoup, notamment, a déjà été dit, écrit, théorisé sur l’avenir des radiologues…

L’enjeu, tel que le mettait en exergue la conférence Lux-Health, est plutôt l’impact que l’Intelligence artificielle peut avoir sur la déontologie, les pratiques, ou encore sur la perception qu’a le public des professionnels de la santé.

L’IA, c’est un instrument d’assistance à la décision, voire, à terme ou dans des cas extrêmes, de décision, diagnostic, préconisation thérapeutique automatique. De quoi entraver, limiter, remplacer potentiellement, selon lui, la liberté de décision du praticien, et ce, “au nom du caractère “evidence based’ de l’approche médicale fondée sur les données”. 

L’IA, c’est la toute-puissance de l’analytique. Et donc le précepte de collecte d’une masse optimale de données. En conflit potentiel avec la notion et les balises du secret médical. Certes, il y a le garde-fou du RGPD mais qui ne correspond pas exactement aux règles du secret médical, dans la mesure où ce RGPD s’installe sur fond de “pratique générale de libre circulation des données”.

L’IA et l’analytique, c’est également un transfert de compétences vers la “machine”, vers des techniques souvent obscures, non explicables, “la perte du sens critique du devoir de compétence qui est celui du professionnel de soins”.

Tout, bien entendu, dépendra de la manière dont l’intelligence artificielle, ses outils et leviers, seront utilisés. Mais, estime Gregory Lewkowitz, il y a un risque de dilution de la déontologie médicale. “Cette déontologie est en train de fondre dans la perspective générale de libre circulation des données.”

Circulation mais aussi création et collecte de données. Selon lui, “l’affaiblissement de l’identité professionnelle [médicale] risque de se traduire par un renforcement du contrôle de l’activité des médecins et par leur transformation en travailleurs de la chaîne de valeur des données de santé”. Explication?

“Dès à présent, l’un des modèles consiste à voir le médecin à la fois comme un fournisseur de données et un prescripteur de soins. En tant que “fournisseur de données” [ce qui en fait un “travailleur de la chaîne des données”], il doit garantir la qualité des données et permettre leur analyse par l’IA ainsi que la génération de directives de soins.”

 

Philippe Kolh, directeur informatique du CHU de Liège (lors de la semaine ImagéSanté): “RGPD et gestion de la garantie des données sont essentiels pour susciter la confiance du patient. Sans quoi, il ne sera pas impliqué [dans sa prise en charge santé] et ne sera pas acteur de sa santé.”

 

L’enjeu est énorme. Il est urgent, selon lui, que les professionnels des soins s’en saisissent. “Les médecins doivent se saisir de cette problématique et se positionner afin de demeurer les garants d’une profession qui soit indépendante, compétente et gardienne du secret médical.”

Et une profession qui soit également en mesure de faire barrage à des dérives plus ou moins évidentes et explicites. Il y a bien entendu l’interprétabilité, le “décryptage”, des algorithmes et de leurs chemins décisionnels. Il y a aussi l’usage, les finalités que les autorités – ou les directions hospitalières – pourraient faire de la collecte des données médicales et de l’usage des outils analytiques.

IA et “garantie humaine”

Le concept de “garantie humaine” prévoit que l’homme demeure un maillon indispensable dans l’interprétation des résultats générés par les algorithmes afin de garantir “la maîtrise finale des décisions diagnostiques, préventives ou thérapeutiques prises à partir des conclusions tirées par des applications d’intelligence artificielle compte tenu, d’une part, des limites résiduelles des algorithmes utilisés au regard de la variabilité des situations individuelles spécifiques de chaque personne, d’autre part, des conséquences potentielles de ces décisions.”
Cette “garantie humaine” peut prendre diverses formes ou intervenir à différents stades du processus décisionnel: au stade ultime, avant l’acte médical, ou moyennant information préalable – au patient ou au professionnel – qu’un algorithme intervient à l’un ou l’autre stade du parcours de prise en charge en santé.

Au rayon “transparence” de l’IA, l’une des parades proposées est celle de la “garantie humaine” (voir encadré ci-contre).

Mais ce concept ne suffit pas, estime Gregory Lewkowitz. “Il faut interpréter les choses dans le contexte précis de l’utilisation qui est faite et de la multiplicité d’intérêts différents. Il y a par exemple, d’un côté, l’Etat, qui vise avant tout à réduire les coûts de santé. Et, de l’autre, les hôpitaux qui doivent assurer leur rentabilité.” Vu sous cet angle, le recours à l’intelligence artificielle pourrait avoir des finalités bien différentes de celles (thérapeutiques) auxquelles on pense a priori. En effet, “l’Etat pourra toujours raisonner comme suit: puisque la machine fait le travail, Messieurs les docteurs, veuillez traiter dix fois plus de patients” [sous-entendu, condition sine qua non de maintien du financement de l’hôpital].

Mis sous pression, quelle pourrait être la réaction des médecins? Refus d’obtempérer, au risque de mettre leur établissement en danger financier? Ou acquiescement? “Pour traiter dix fois plus de patients, le médecin se contentera de pousser sur le bouton, laissant la main à l’intelligence artificielle…” Et la boucle (que certains disent perverse) est bouclée !

 

Gregory Lewkowitz (ULB): “Attention au risque d’érosion de la confiance du public dans le corps médical, ce dernier ne pouvant être ni un agent de l’Etat ou un auxiliaire de police, ni un informateur du monde de l’entreprise.”

 

“Interpréter les choses dans le contexte précis de l’utilisation qui est faite et de la multiplicité d’intérêts différents”. C’est là une préoccupation bien présente dans l’esprit et les réflexions des professionnels de soins. Les fournisseurs et prestataires commerciaux ainsi que les autorités publiques, eux aussi, s’y intéressent – dans des proportions et selon des degrés variables.

Il en fut notamment question, sans doute trop furtivement, lors de la semaine ImagéSanté organisée notamment par le CHU de Liège, fin mars. Dans son intervention lors de la conférence “L’hôpital de demain”, Melchior Wathelet, directeur général de Xperthis (désormais rebaptisé Zorgi), abordait la question de l’utilité des solutions informatiques et de l’analytique dans le monde des soins de santé. Voici ce qu’il déclarait en substance: “nous n’en sommes pas encore au stade où l’on peut démontrer la plus-value de l’outil, en termes de qualité, de pertinence et d’aisance de soins. Aux yeux des professionnels de soins, l’outil demeure avant tout une contrainte supplémentaire. Les lourdeurs administratives et réglementaires demeurent. Et le système est lent à s’adapter. 

Il y a abondance de données mais on n’en fait pas encore assez. On se prive ainsi d’un outil de recherche, de [soutien au] financement et de plus-value pour le patient. Il faut repenser le système et faire des données un vecteur de changement.”

Le tout est de déterminer lequel…