Radiologie et Intelligence Artificielle: les clés de la confiance dans la “machine”

Pratique
Par · 19/08/2020

La radiologie est l’une de ces disciplines où l’Intelligence Artificielle semble devoir apporter à la fois nombre d’avancées et de défis nouveaux, pour ne pas parler de modifications dans le métier et les procédures.

Au tout début de l’été, la jeune société liégeoise Osimis, positionnée sur le terrain de l’imagerie médicale (des solutions open source d’échanges et d’exploitation d’imagerie médicale et de résultats d’examens) y avait consacré un séminaire, en mi-présentiel mi-virtuel.

En dépit de ses multiples promesses (aide ou automatisation du diagnostic, rapidité, identification et prédiction de pathologies supérieures aux capacités humaines, allègement de la charge pesant sur les praticiens…), la courbe d’adoption de l’IA en radiologie n’affiche pas encore l’accélération que certains disent espérer. En cause, une foule de facteurs qui viennent enrayer le processus.

L’orateur principal du séminaire organisé par Osimis – Erik Ranschaert, radiologue et responsable de lie projet IA à l’hôpital ETZ (Elisabeth-TweeStedenziekenhuis) de Tilburg aux Pays-Bas – en alignait toute une série, s’appuyant notamment sur les conclusions d’une étude menée auprès de 1.041 de ses confrères (voir encadré ci-dessous pour plus de détails).

Selon lui, l’adoption somme toute lente de l’IA en radiologie vient de facteurs à la fois “soft” et plus techniques.

Côté “soft perception”, il y a tout d’abord, selon lui, un manque de prise de conscience des potentiels de l’intelligence artificielle mais aussi une bonne dose de manque de confiance dans l’“outil”: “les applications doivent encore prouver leur utilité ainsi que la réalité de résultats probants”.

Un autre problème vient des difficultés d’accès à des données dont la qualité et la fiabilité soient à la fois suffisantes et dûment validées.

D’un point de vue plus technique, il évoque des problèmes de sécurité, un manque d’algorithmes optimisés directement exploitables par les spécialistes, un manque également d’applications spécialisées et un manque d’intégration, à l’heure actuelle, dans les processus cliniques existants.

Quel impact de l’IA sur le méditer de radiologue?

Les conclusions d’une étude internationale, menée récemment auprès de 1.041 radiologues, ne laissent aucun doute. Les radiologues sont largement persuadés que l’IA va chambouler leur métier. 85% des praticiens interrogés répondent de manière affirmative. 89% sont par ailleurs convaincus que l’IA peut s’avérer une aide précieuse dans les processus de diagnostic. Comment?
– 80% d’entre eux y voient un outil de type “deuxième avis/seconde lecture”
– 77% estiment que l’IA peut optimiser processus et flux de tâches.
Quels sont les principaux obstacles qu’ils identifient pour l’implémentation de l’IA dans leur quotidien?

Source: WeLL.

Un déficit en connaissance et compétences est cité par 56% des répondants. 61% d’entre eux évoquent par ailleurs des problèmes éthiques et/ou légaux.
Le coût de l’implémentation arrive également en bonne position, avec 35% des réponses pour ce qui est des coûts de développement et 38% des réponses pour ce qui est du coût des logiciels concernés.
Autre obstacle très souvent cité (61% des réponses): une inadaptation de l’infrastructure informatique hospitalière existante.

La jeune génération, elle aussi, est convaincue d’un impact majeur de l’IA sur le domaine de la radiologie. Preuve en est les résultats d’une enquête menée au Canada en 2018 (publiée en 2019) auprès de 322 étudiants en médecine venant de 17 écoles de médecine canadiennes.
Un peu plus de deux tiers des participants à l’étude (67,7%) sont persuadés que l’IA va avoir pour effet de réduire le nombre de radiologues, dans la mesure où une partie de leurs tâches seront désormais assumées par les algorithmes. Près de 30% des étudiants sont même persuadés que l’IA, à terme plus ou moins proche, remplacera carrément les radiologues.
La perspective de voir l’IA s’arroger un rôle grandissant dans ce domaine refroidit d’ailleurs nombre d’étudiants d’en faire leur choix d’étude. Souvent parce qu’ils n’ont qu’une perception et compréhension limitée de ce que l’IA implique réellement pour leur métier.

Tout un métier à (re)convertir

L’arrivée de l’IA dans le paysage de la radiologie est déjà une réalité et continuera de prendre de l’ampleur, touchant un nombre croissant de cas d’usages et de types de pathologies – à mesure que des progrès dans les outils et la mise à disposition de données seront réalisés.

L’un des principaux défis, soulignait Erik Ranschaert lors du séminaire d’Osimis, réside dans l’entraînement des algorithmes – “pour leur apprendre à apprendre”. 

Certes, les radiologues sont, de facto, formés et habitués à sélectionner, annoter, évaluer des images mais ce travail de préparation et d’extraction, nécessaire pour “nourrir” l’algorithme et l’entraîner, est en soi une nouvelle discipline et pratique qui exige précision et compétences nouvelles.

Pour entraîner utilement et efficacement un algorithme, rappelait Erik Ranschaert, une série de ressources doivent être disponibles. A commencer par des “cas d’usage”. Autrement dit, des éléments anatomiques et pathologies que l’algorithme devra pouvoir identifier, signaler et “interpréter”. Ce travail de préparation incombe à l’homme. “Les radiologues doivent apprendre à définir ces use cases – blessures musculo-squelettiques, lésions, tumeurs…”

Deuxième condition sine qua non: “des jeux de données suffisants et équilibrés pour entraîner, tester et valider l’algorithme.”

Il faut ensuite disposer d’une plate-forme d’annotation (automatisée) des données, d’outils de “curation” (sélection, annotation, segmentation, marquage) des données, mettre en place des solutions et processus d’intégration de l’algorithme dans les processus cliniques existants. Et, enfin, une aptitude (là aussi, notamment, via des outils) à évaluer et mesurer les résultats fournis par l’algorithme.

 

Erik Ranschaert: “C’est la totalité de la profession qui doit se reconvertir. Le concept de diagnostic intégré implique que les données [générées par l’IA] sont intégrées aux rapports. De ce fait, les radiologues deviennent de facto des data scientists.”

 

A différents échelons, des carences se font encore sentir, estime Erik Ranschaert. Selon lui, la profession manque par exemple encore d’outils d’annotation d’images efficaces et rapides. Ce à quoi Frédéric Lambrechts, patron d’Osimis, ajoute que “certaines solutions commerciales ne sont pas adaptées aux besoins des radiologues parce que ces derniers, ainsi que leurs pratiques, n’ont pas été pris en compte ou compris lors de la phase de développement.”

Un travail non négligeable doit par ailleurs encore être fait pour intégrer le diagnostic assisté – voire automatisé – dans les processus et flux de tâches tels qu’ils existent.

Or, “il est important de veiller à cette intégration de l’IA dans les workflows dans la mesure où le but de l’IA est d’aider à la prise de décision dans des spécialités médicales grandes consommatrices de données, telles que la radiologie, l’ophtalmologie, l’oncologie…”, rappelle Erik Ranschaert.

“Le concept de diagnostic intégré implique que les données [générées par l’IA] sont intégrées aux rapports. De ce fait, les radiologues deviennent de facto des data scientists. L’intégration de données [générées par l’IA] les mène vers des pratiques de médecine personnalisée et de traitement prédictif. A cet égard, c’est la totalité de la profession qui doit se reconvertir.”

Formation nouvelle et adaptation des compétences sont d’autant plus nécessaires que le recours à l’IA, en radiologie, ne se limitera pas à de nouvelles pratiques de diagnostic, qu’il soit assisté ou automatisé.

Les outils IA interviennent en effet aussi de plus en plus pour organiser de manière plus efficace la planification des rendez-vous des patients (par exemple, pour allouer des plages horaires et programmer les systèmes de radiologie en fonction du temps qui sera nécessaire à chaque patient), pour prioriser les listes de tâches (présentant au radiologue les clichés qui “à son avis” requièrent son attention ou une action davantage en urgence), pour préconiser le recours à telle ou telle technique d’examen, pour préparer les images, en améliorant artificiellement leur qualité (“une meilleure résolution permet de réduire les doses de produits de contraste à injecter”) ou encore pour automatiser le processus de protocolage d’image. Des rôles que le radiologue doit apprendre à partager voire à confier à l’IA – et, dès lors, à superviser.

Deux approches différentes?

L’importance des nouvelles compétences à acquérir de la part des radiologues ou des équipes hospitalières dépendra dans certaine mesure de l’option qui sera prise par chaque établissement hospitalier. Acquerra-t-il des outils ou solutions IA off the shelf, qu’il lui “suffira” d’intégrer dans son infrastructure, ou préfèrera-t-il développer lui-même ses solutions et algorithmes?
“Certains hôpitaux optent pour les solutions commerciales off the shelf parce qu’ils veulent avant tout gagner du temps”, indique Frédéric Lambrechts, patron d’Osimis. “D’autres, essentiellement du côté des hôpitaux universitaires, désirent avoir la main et ne veulent pas se contenter d’une boîte noire.” Mais ce ne sera pas pour autant un choix noir ou blanc. “Nous prévoyons que les hôpitaux universitaires marieront off the shelf et développements propres – parce que les solutions commerciales ne sont pas suffisantes…”
Quelle influence la nature du choix aura-t-il sur le besoin de compétences? “Le deuxième scénario [du développement propre] sera notamment nettement plus impactant en termes de compétences, d’apprentissage et d’adaptation des procédures”, “Cela impliquerait de concevoir des outils d’extraction, de curation, structuration, annotation de données, de se former à l’annotation pour les besoins de l’entraînement des algorithmes…
Quel que soit le scénario, toutefois, les radiologues devront se former à l’utilisation des outils IA, à la capacité de pouvoir déterminer quand les utiliser et dans quelles conditions leur faire confiance. Ils devront apprendre à construire et à comprendre l’IA…
La toute première étape à franchir consiste à répondre à un important besoin de clarté, pour déterminer et évaluer ce qui existe sur le marché. On dénombre en effet aujourd’hui [dans ce secteur de la radiologie] plus de 220 solutions venant d’une centaine de sociétés…
L’un des rôles que se propose de jouer Osimis est de démystifier l’IA en radiologie et analyse d’images et de former les hôpitaux afin de leur prouver qu’elle est utile et les aider à déterminer dans quel contexte, dans quels cas d’usage, elle serait pour eux la plus utile. Nous voulons également les accompagner dans leurs processus d’insertion et d’intégration de l’IA dans leurs processus.”

Le défi des données

On le signalait plus haut, l’une des conditions sine qua non pour entraîner un algorithme qui soit “performant”, efficace et fiable est de disposer, au départ, de “jeux de données suffisants et équilibrés pour entraîner, tester et valider l’algorithme.”

Source: Orthanc / Osimis.

En la matière, les problèmes s’entrecroisent. Toutes les images médicales ne se valent pas – notamment en termes de qualité. Comment entraîner efficacement un algorithme sur des images de qualité médiocre? Ou quelle garantie avoir de son “verdict” sur des images de mauvaise qualité?

Se pose également le problème des quantités de données disponibles. Pour entraîner utilement un algorithme et le rendre “performant” (précis et exact), mieux vaut disposer de grands jeux de données (images). Si cela ne pose pas de problèmes pour des usages classiques de la radiographie (par exemple la radiographie pulmonaire), il en va tout autrement pour des maladies, pathologies ou lésions rares ou atypiques.

Certes des techniques existent pour gonfler artificiellement les bases de données existantes – par exemple des techniques d’“augmentation”, de duplication et simulation d’images par rotation virtuelle… – mais, pour beaucoup, elles ne font que multiplier des instances d’une même information. Ce qui n’équivaut pas à diversité.

 

Erik Ranschaert: “Le sujet des performances des algorithmes doit être géré au niveau de l’établissement hospitalier. La gouvernance en matière de sécurité [au sens du terme anglais “safety”] relève pour sa part du niveau national. Notamment pour être en capacité de signaler un mauvais algorithme. Quant aux problèmes éthiques, ils doivent être abordés et traités au niveau international.”

 

Même lorsque les données image existent en abondance, elles ne sont pas exemptes de vices cachés. “Les rapports de radiologie ne sont pas toujours parfaits, la qualité des données n’est pas forcément garantie”, souligne Erik Ranschaert. “Pour effectuer un entraînement pertinent d’algorithme, il faudrait savoir qui a annoté les images. Or, on ne le sait pas toujours. Parfois même, l’annotation est faite… par le développeur lui-même” – qui est rarement un radiologue… “On constate un manque de jeux de données reposant sur des “vérités de terrain” robustes, annotées par des radiologues, et qui soient associés à des scores définis par des experts, de telle sorte que les chercheurs et développeurs puissent les utiliser pour comparer leurs modèles…”

Sans parler des biais cachés… Par exemple, la base de données de départ concerne-t-elle une population de patients suffisamment disparate, en termes socio-démographiques? Ou bien encore, “le raisonnement qu’on a inculqué à l’algorithme ou que celui-ci développe est-il pertinent et valable dans la vie réelle ou se fonde-t-il uniquement sur des notions purement statistiques?”

 

Frédéric Lambrechts (Osimis): “Le fait de publier la base de données – ou au moins un résumé de cette base – qui a servi à entraîner l’algorithme pourrait influencer positivement la confiance des professionnels.”

 

L’enjeu de la “confiance” peut notamment être abordé en induisant divers paramètres relevant de la “garantie humaine”. C’est tout l’enjeu de la “transparence”, “lisibilité”, vérification des algorithmes. Qui a produit l’image, au départ? Sur base de quelle pertinence d’annotation l’algorithme a-t-il été entraîné? Qui l’a entraîné d’ailleurs? A-t-il été testé, son efficacité évaluée, et comment?

Erik Ranschaert rappelait que “les médecins devraient pouvoir juger des mérites de la black box. Pour ce faire, il faut pouvoir disposer d’outils permettant d’auditer les logiciels IA, en évaluant les résultats qu’ils produisent. Or, les jeux de test – standardisés – pour validation font encore défaut.

“La disparité des tests de validation effectués par les différentes équipes de développement [au niveau des éditeurs] pose un sérieux problème”, confirme Frédéric Lambrechts d’Osimis.

“Les sociétés de radiologie [lisez: les associations de radiologues] doivent encore définir une méthodologie cohérente de validation des bases de données. La tendance est à une organisation au niveau européen entre corporations.” Processus identique et parallèle, d’ailleurs, aux Etats-Unis où il n’y a toutefois pas unicité.

“Il faut par ailleurs pouvoir comparer entre eux plusieurs algorithmes qui sont présentés comme faisant la même chose”, ajoute encore Erik Ranschaert. “Les professionnels de la santé doivent pouvoir être en mesure de signaler des résultats suspects ou contradictoires.”

Autre point d’attention: l’évolution des algorithmes. Un algorithme, soulignait Erik Ranschaert, n’est pas un outil coulé dans le bronze. Il faut pouvoir le recalibrer au moindre changement – qu’il s’agisse de nouveaux types de traitements ou d’appareils médicaux, d’évolution de la population, ou d’autres paramètres contextuels. “L’évaluation devrait être un processus continu, de telle sorte à veiller à ce que l’Intelligence Artificielle réponde à chaque instant aux attentes.”