Intelligence artificielle au RSNA 2017

Note de synthèse pour le groupe IA de la Société Française de Radiologie

Dr Gaspard d’Assignies (MD, PhD)

Séance d’ouverture, séances plénières, sessions scientifiques, exposition technique, learning center … L’IA était cette année LE SUJET central du RSNA.

Les salles étaient souvent remplies bien avant le début des séances, les files de congressistes grossissaient à l’extérieur devant la porte, dans l’attente d’une éventuelle place qui ne venait jamais…

Au delà de l’effet de mode, largement commenté par les orateurs avertis, le congrès a permis aux participants de se faire une idée concrète du potentiel des applications, de la réalité que constitue la mise en place d’une étude / un cas d’usage en machine learning et des difficultés d’implémentation dans le workflow radiologique. Enfin quelques pistes d’avenir semblent se dessiner autour de l’hybridation toujours plus étroite de l’homme et de la machine.

Le but de cette synthèse n’est pas d’être exhaustif, elle serait indigeste compte-tenu de la masse d’information présente sur le congrès. Elle a pour objectif de vous fournir un instantané nécessairement subjectif de ce qui était en quelque sorte l’année 1 du Machine Learning au RSNA en tant que domaine de recherche, d’innovation et de transformation des usages professionnels.

Cette note se compose de la manière suivante :

  • Revue des grands messages des séances plénières et pédagogiques
  • Liste des principales sessions scientifiques avec les liens vers les PDF des abstracts.
  • Point sur l’exposition technique.
  1. Séances plénières et pédagogiques, learning center.

Il y a donc eu beaucoup d’informations échangées en peu de temps entre des intervenants très divers : industriels, chercheurs en médecine, en mathématique, en informatique, cliniciens …

Je retiens personnellement 4 messages clés :

  1. La « hype » du Machine Learning est à son maximum. Elle va retomber, puis les outils engendrés seront progressivement implémentés dans la vie réelle. Une phrase marquante d’un spécialiste de l’intelligence artificielle glanée au passage : Dans ma carrière en IA j’ai déjà connu deux bulles et trois hivers, believe-me, winter is coming ! (rires)
  2. La ressource essentielle et difficile à obtenir est la donnée médicale dans un format « bien rangé » et multimodale (image, clinique, biologie, génomique …)
  3. Les cas d’usage doivent être déterminés en fonction de leur utilité médicale, donc par des médecins, et non pas en fonction des algorithmes et des données disponibles.
  4. Enfin, le radiologue du futur devra développer ses connaissances informatiques et algorithmiques pour devenir non plus un imageur mais un intégrateur de données complexes en santé. Il jouera alors « naturellement » un rôle clé dans la prise en charge personnalisée des malades compte tenu de sa position à la croisée des chemins de l’information. Nous serons (peut-être) les piliers de la médecine de précision…

 

Séance d’ouverture (Dimanche matin)

Le Président du RSNA (R . L. Ehman) rappelle en ouverture la forte appétence des radiologues pour l’innovation en général et leur capacité, particulière parmi les autres spécialités, à rapidement intégrer les nouveaux outils que la science met à leur disposition et à trouver des applications cliniques pertinentes au service des patients. On commence avec les Rayon X, puis Echo-TDM-IRM puis la numérisation, le PACS jusqu’ à … l’intelligence artificielle bien-sûr !

Le ton est donné et ce sera un des grands leitmotivs du congrès : les radiologues n’ont pas peur de la technologie, n’ont pas peur de la disruption qu’elle porterait en elle, mais sont les acteurs centraux de l’appropriation de ces nouveaux algorithmes par la médecine comme ils l’ont été pour les autres innovations. Il ne s’agit que d’outils, aussi puissants soient-ils (ils ne le sont pas encore, on le verra), au service de la médecine, donc qui doivent être pilotés par les médecins au service des patients.

C’est d’ailleurs le sujet du deuxième intervenant, R. Pettigrew,  qui propose deux piliers pour la radiologie du futur (Tomorrow’s Radiology) :

  1. Favoriser l‘innovation pour transformer les découvertes de la recherche en santé en applications cliniques.
  2. Former des experts en science des données d’imagerie au sein du système de soin. (je traduis littéralement « Imaging data science expert in Health Care system »)

Enfin le troisième orateur, le Dr E. Zerhouni (Radiologue – Ancien directeur du NIH – actuellement Directeur de Recherche chez Sanofi) propose de partir du contexte actuel dans lequel la science se place pour anticiper les changements et dessiner les directions d’avenir : une réalité complexe faite de multiples couches pour un patient donné, en partant de son ADN jusqu’à son environnement en passant par son ARN, ses protéines, son métabolisme, son comportement social… Il existe une tension entre l’extrême complexité du vivant et la médecine de précision à laquelle nous aspirons. Cette tension pourrait être résolue en partie grâce à :

– l’imagerie cellulaire et moléculaire pour comprendre les mécanismes des traitements à ces échelles, prévoir et suivre leurs effets.

– le diagnostic radiologique augmenté par la machine (donc le machine learning) qui permettra non seulement de mieux détecter, caractériser et quantifier les maladies mais aussi de rendre plus reproductibles le suivi dans le temps des pathologies tumorales et

de découvrir des nouveaux bio-marqueurs grâce à la radiomic et ses corrélations avec les autres « – omics ».

C’est beau, c’est lyrique … Allons voir maintenant « en vrai » ce qui se cache derrière ces machines apprenantes et ce qu’en disent ceux qui les créent et ceux qui les utilisent.

Session Deep learning et Machine Intelligence in Radiology (Dimanche 14H).

Après un rappel sur les fondamentaux du Deep learning (cf posters électroniques des JFR 2017) on rentre ici dans le cœur de certains sujets cruciaux : la quantité de données nécessaires à l’entrainement algorithmique, l’organisation de la collecte des données, le problème de la validation clinique et l’intégration dans le workflow clinique.

Il est rappelé en introduction les cas dans lesquels le machine learning n’est pas adapté :

  • Lorsque le domaine requiert une grande expertise et possède peu de données
  • Lorsqu’il est nécessaire de pouvoir expliquer de bout en bout le raisonnement aboutissant au diagnostic.
  • Lorsqu’il existe un besoin de dégradation progressive de la performance.

Des tentatives d’ouvrir la « boite noire » des algorithmes existent cependant, qui consistent à afficher des cartes de chaleurs (heat-maps) superposées à l’image traitée à différentes étapes du calcul.

A.H. Halabi, employé chez NVIDIA, passe en revue les algorithmes disponibles (Fig1.) et rappelle l’explosion des publications scientifiques en santé observée depuis quelques mois.

 

Fig1.

Trois types de labellisations sont possibles : celle de toute l’image à travers le compte-rendu, celle dans l’image réalisée manuellement et enfin la labellisation simulée. Je ne sais pas encore en quoi consiste cette dernière mais j’ai trouvé cela intriguant donc je vous fournis une des références cités par l’orateur : Comaniciu D. et al. Med Image anal. 2016 ;33/19-26.

Si la quantité de données est un élément important, il semble possible d’arriver à de bons résultats sur de relativement faibles échantillons (dizaines-centaine) en fonction du type de question posée. Une autre manière de résoudre le problème des données serait de travailler sur de l’analyse non-supervisée dans un premier temps puis d’utiliser les résultats en analyse supervisée. La chose semble avoir été faite avec un certain succès dans le cas des nodules pulmonaires au scanner. Par ailleurs les algorithmes de deep learning initialement implémentés en 2D sont maintenant adaptés aux images 3D par les équipes de recherche afin d’épouser les contraintes et la richesse spécifique des données d’imagerie volumique.

Le machine learning ne se résume pas au Deep, ce qui sera souvent rappelé par les spécialistes durant le congrès, et il est très intéressant de créer des architectures agrégeant ces différents outils. L’utilisation des statistiques bayésiennes peut se révéler à ce titre complémentaire avec les réseaux de Neurones.

Le troisième orateur est le Dr Paul Chang de l’hôpital Universitaire de Chicago. Ce spécialiste des systèmes informatiques appliqués en radiologie et inventeur d’un des premiers PACS (Stentor) propose une lecture éclairante du sujet. Je vous conseille vivement de regarder la vidéo de son interview par Aunt Minnie durant le congrès.

Les challenges radiologiques auxquels nous avons à faire face sont :

  • L’augmentation significative du volume et de la complexité des données,
  • La transformation qualitative de la radiologie, auparavant essentiellement morphologique et qui devient fonctionnelle, quantitative voire cellulaire,
  • La nécessité de développer des outils de caractérisation phénotypiques plus précis de type radio-génomics (on y revient) et d’intégrer plus efficacement l’interprétation des images dans une synthèse d’information multi-modale.

Pour réussir il faut …

… créer les infrastructures informatiques (« Information technologie infrastructure » pour être précis) qui permettront la constitution des bases de données et le traitement en temps réel de ces informations par les algorithmes d’intelligence artificielle. Les objectifs de cette infrastructure sont (dans le texte c’est mieux) :

– « Yin to EMR’s Yang » [1]

– « data and contextually driven human-machine cybernetic collaborate workflow orchestration »

Tout cela peut sembler un peu abstrait mais pour avoir vu toutes les interventions de P. Chang au RSNA 2016, je peux vous assurer qu’il y a derrière tout un schéma de pensée, certes complexe mais très construit, sur la manière d’y arriver.  Je vous propose un exemple ici :

Le constat est que nos infrastructures IT ne sont pas aujourd’hui compatibles avec l’utilisation à grande échelle de ces outils et que l’effort à fournir pour s’adapter sera très important.

Une autre question soulevée par Chang est celle de la validation clinique des algorithmes qui doit être basée sur des études statistiques solides. Un premier problème vient du fait que derrière le mot Deep se cachent deux sens : profond ET obscur. C’est la fameuse boite noire algorithmique qui nous cache, par construction, ses modèles de raisonnement. L’orateur dénonce par ailleurs l’utilisation de la base de donnée « ArXive » qui serait utilisée par certain pour faire passer des articles de validation clinique à la méthodologie particulièrement légère voire « suspecte ». Le sujet est d’une grande importance car il me semble que cette base est massivement utilisée par les chercheurs en informatique, en mathématiques et en physique pour partager leur recherche. Elle est modérée mais ne répond pas à la définition d’un peer review. ArXive serait donc peu propice au domaine de la validation clinique très spécifique à la recherche médicale. J’entrevoie des débats passionnants et passionnés sur le sujet, le principe du Peer Review imprimant par ailleurs une tendance conservatrice plutôt toxique en ce qui concerne les formes les plus innovantes de recherche (Cf E. Zerhouni, collège de France 2010-2011).

 

A la question les radiologues doivent-ils avoir peur du Deep learning ? P. Chang répond avec une sympathique décontraction : «stay calm, don’t panic », nous avons déjà connu cette situation de nombreuses fois auparavant. Les radiologues se sont toujours renouvelés en incorporant les technologies nouvelles et potentiellement disruptives, en général au bénéfice des médecins et de leurs patients. Le Deep learning n’est ni cette chose horrible, ni cette panacée technologique magique, mais un outil qui nous permettra probablement d’améliorer notre efficacité et notre pertinence, et donc au final notre valeur ajoutée médicale au service de nos patients. S’il fallait ajouter du crédit sur ce thème à P Chang, on pourrait rappeler qu’il est au board de plusieurs startups en Deep learning et possède une forte expérience du domaine, ce qui n’est pas si fréquent même chez ceux qui parlent abondamment du sujet.

Il y a encore deux sessions dont je voudrais vous rendre compte ici :

La session du Lundi matin intitulé « Deep Learning in Radiology : How DO I Do It ? »

Il s’agissait d’interroger certaines grandes universités américaines sur leur projet en machine learning. J’ai pu voir Stanford et la Mayo-Clinique.

L’équipe de Stanford semble investir avec beaucoup de détermination le sujet comme en témoigne la création d’un cursus spécial Machine Learning pour ses étudiants en médecine et la conduite d’un projet de labellisation de grande ampleur. Il semblerait que les internes soient mis à contribution. C’était d’ailleurs le sujet principal de leur intervention en montrant la puissance du Weak labelling à travers l’utilisation de millions d’images radiologiques associées à leur compte rendu. L’orateur (Curtis P. Langlotz) insistait également sur les limites des outils avec l’exemple que je vous retransmets ici.

 

Ce cas d’école a été cité à plusieurs reprises dans les différentes interventions et montre des panneaux Stop devenus non reconnaissables par la machine après l’adjonction de simples autocollants faits de bandes noires et blanches. Un problème de sécurité inquiétant pour le projet « self-driving cars of healthcare » ?

 

L’équipe de la Mayo-clinique, quant à elle, propose un outil de recherche appelé PESSCARA accessible sur github correspondant, si j’ai bien compris, à un CMS pour Content, Management, System. L’acronyme signifie Platform to Enable Sharing of Scientific Computing Algorithms and Research Assets. Il s’agit d’un outil de recherche permettant de manipuler les bases de données et les algorithmes.

 

Enfin l’American College of Radiology (ACR) propose une initiative particulièrement intéressante lors d’une séance plénière le mardi matin : le Data science Institut (DSI)

L’objectif est d’encadrer le développement de l’IA en radiologie de manière à ce que les algorithmes soient :

  • Utiles : en définissant les cas d’usage standardisés par des collèges d’experts ;
  • Faciles à développer : en définissant des standards pour les données, l’entrainement et l’implémentation ;
  • Secure : en travaillant avec la FDA pour définir les contraintes de vérification des algorithmes et la surveillance de leur efficacité ;
  • Utilisés en pratique : en éduquant les professionnels de santé à l’utilisation de ces outils dans différents contextes cliniques pertinents.

 

Le groupe SFR-IA est déjà en contact avec le DSI à travers le Canadian Association of Radiologists Artificial Intelligence Advisory Working Group représenté par le Dr An Tang lors de notre réunion aux JFR 2017.

Le learning center abritait de nombreux poster électroniques et papiers sur le sujet du machine learning mais surtout une salle consacrée au NVIDIA Deep Learning Institute labs. La compagnie productrice de cartes graphiques nécessaires aux calculs en Deep Learning proposait tous les jours des séances de formation par tranche de 45 minutes pour apprendre à entrainer un réseau de neurones sur une tâche de classification ou de segmentation, utilisant soit les ressources élaborées par l’industriel (DIGIT), soit les algorithmes de Google (TensorFlow). On notera avec intérêt la disparition d’IBM Watson et sa show-room très orientée marketing, présente dans le learning center en 2016. Cette année, l’industriel présent à cet endroit, NVIDIA, proposait d’apprendre vraiment quelque-chose…. tant mieux ….

2. Sessions scientifiques

Le spectre des sujets abordés était, vous l’aurez deviné, très vaste : depuis la classification automatique d’examen ou du temps d’injection jusqu’aux scores pronostics par analyse de texture corrélée aux mutations tumorales, il y en a eu pour tous les goûts. Personnellement je suis allé voir l’imagerie abdominale.  Le programme des séances concernant les sujets « classiques » du Deep, comme la sénologie et l’imagerie thoracique, est facilement accessible sur le site du RSNA.

3. Exposition technique

L’exposition technique rassemblait dans un village dit « machine learning » plus de 40 start-up. En dehors du village la thématique était également mise en avant avec force marketing par la plupart des constructeurs.

Les grands thèmes abordés par les start-up étaient la radiographie thoracique, le nodule pulmonaire au scanner, la mammographie, la permanence des soins (AVC, fractures …)

Les pays bien représentés étaient, en dehors des USA, Israël, la Corée, la Chine, l’Inde et en Europe les Pays-Bas et l’Angleterre. Il ne s’agit là que d’une impression personnelle, je n’ai pas pu voir tout le monde.

 

Voilà, j’espère vous avoir montré que ce RSNA 2017 était dense et passionnant pour ceux qui s’intéressent de près à l’IA en radiologie. L’excitation ambiante autour du sujet frôlait parfois une forme hystérie propice à l’agacement pour un européen culturellement pétri d’esprit critique 😉 Néanmoins le sentiment de voir éclore un nouvel archipel au sein de notre océan d’outils et de connaissance radiologique avait bien quelque-chose de grisant…

La France était peu présente mais nous avons tout ce qu’il faut pour nous emparer du domaine : un système de soin structuré (à peu près), d’excellents radiologues, une recherche dynamique et parmi les meilleurs mathématiciens et informaticiens du monde.

A nous maintenant de mettre en mouvement nos énergies pour participer à cette aventure technologique.

Dr Gaspard d’Assignies (MD,PhD)

Chair of Artificial Intelligence Working Advisory Group – SFR

 

[1] EMR = Electronic Medical Record, le DPI

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *