Qu’appelle-t-on intelligence artificielle ?

Qu’entend-t-on par ce terme « Intelligence Artificielle » mis à toutes les sauces, des médias grand-publics jusqu’aux rapports parlementaires en passant par les startups ?

Une mise en contexte s’impose tellement le sujet est dense.

Après avoir lu/vu un certain nombre d’article scientifique/vidéo/blogs et conférences j’en ai tiré la conclusion que les termes étaient souvent confondus par les profanes et complexifiés à l’extrême par les spécialistes, ce qui est vrai dans beaucoup de disciplines mais particulièrement ici et assez troublant pour les gens comme vous et moi qui voudraient comprendre de quoi il s’agit.

Je vous propose donc un tour d’horizon, nécessairement imparfait mais qui permettra de poser les bases du problème et d’introduire le sujet qui nous intéresse ici, le Machine learning (DL) en imagerie médicale.

Que les spécialistes de l’IA me pardonnent mes approximations, imprécisions et erreurs, et surtout qu’ils n’hésitent pas à m’envoyer leurs corrections ☺.

L’intelligence artificielle :

L’intelligence artificielle (IA) n’est pas une discipline unifiée ou une méthode homogène et ne répond à aucune définition simple. On comprend donc bien les difficultés rencontrées lorsqu’il s’agit d’en dessiner les contours ce que nous ne nous risquerons pas à faire ici.

Si le sujet de l’IA en général vous intéresse il est bien résumé ici.

On peut dire que l’IA regroupe les sciences et les technologies qui permettent d’imiter, d’étendre voire d’augmenter l’intelligence humaine à l’aide de machine. Elle est étroitement liée au développement de l’informatique, des sciences cognitives, des statistiques et de l’algorithmie.

Les champs disciplinaires qu’elle rencontre sont vastes comme en témoigne ce schéma :

Historiquement le terme d’intelligence artificielle a été conceptualisée en 1956 par John McCarthy (MIT) et Marvin Minsky (MIT) à Dartmouth lors d’une conférence soutenue par Nathan Rochester, alors directeur scientifique d’IBM, et Claude Shannon, ingénieur, mathématicien et père des théories de l’information et de la Communication.

De nombreux domaines de recherche au sein de l’IA se sont développés depuis cette date jusqu’à aujourd’hui avec une succession de phases d’enthousiasmes stimulant une intense activité de recherche et des phases de déceptions appelées « hivers de l’IA ».

Un des difficulté pour tracer les contours de l’IA nous est bien expliquée par l’académicien des technologies Gérard Sabah : l’informatique classique traite traditionnellement de questions résolues par des algorithmes connus, alors que l’intelligence artificielle s’intéresse plutôt aux problèmes pour lesquels aucun algorithme satisfaisant n’existe encore. Le paradoxe résultant de cette définition est le suivant : dès que le problème a été résolu par une technologie dite d’intelligence artificielle, l’activité correspondante n’est plus considérée comme une preuve d’intelligence de la machine. Les progrès en matière d’intelligence artificielle étant tangibles depuis les années 1950, les frontières de l’intelligence artificielle sont donc sans cesse repoussées et ce qui était appelé intelligence artificielle hier n’est donc plus nécessairement considéré comme tel aujourd’hui. (Citation Rapport Parlementaire sur l IA 2017)

 

On se retrouve donc avec un ensemble de méthodes conçu pour résoudre un ensemble de problèmes. Pour avoir une idée des méthodes utilisées ont peut dire qu’elles s’organisent en deux grands groupes « philosophiquement » séparées :

L’approche symboliques ou paradigme cognitiviste. Elle est à l’origine de l’IA Dite classique ou GOFAI (pour Good Old Fashion Artificial Intelligence) et a donné naissance aux systèmes basés sur la logique, les règles et les raisonnements. Un présentant emblématique de cette approche est le système experts.

L’approche sub-symbolique ou paradigme connexionnistes. Ce paradigme, inspiré des observations effectuées en neurobiologie, cherche à produire une intelligence sans représentation spécifique de la connaissance. Le connexionnisme s’affirme dans la croyance suivante : les fonctions cognitives ne sont pas forcément calculables, il est possible de spécifier seulement l’enveloppe des dynamiques possibles sans spécifier formellement un algorithme, et de laisser les réseaux établir leurs propres modes de représentation. Cette branche conduit notamment à la naissance du machine learning puis aux réseaux de neurones et au deep learning qui nous intéresse ici.

Les questions philosophiques passionnantes soulevées par cette dualité d’approche entre en résonnance avec les grandes oppositions inné et acquis ou statique et dynamique ; pour aller plus loin dans cette direction je vous conseille la thèse de Ay. Poulain Maubent partiellement publiée sur médium.

Enfin il existe des tentatives d’union entre ces approches symboliques et sub-symboliques fait appel aux concepts d’hybridation, domaine de recherche très actif …

On voit qu’une méthode peut s’appliquer à plusieurs champs. La complexité vient du fait que les méthodes fonctionnent comme des briques qui peuvent se combiner entre elles pour résoudre des problèmes dans un champs d’application. Les champs peuvent eux même se combiner pour résoudre des problèmes plus complexes comme dans le cas emblématique de la robotique.

Parmi les approches connexionnistes, voire parmi toutes les familles d’approches en intelligence artificielle, l’apprentissage machine et en particulier l’apprentissage profond est devenu un courant dominant au cours de ces dernières années.

C’est de lui dont nous allons parler maintenant en le replaçant dans son contexte d’origine :

Le « machine learning »

Dr Gaspard d’Assignies

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *