Grammairien rationnel et pondéré, c’est avec une curiosité circonspecte que votre serviteur observe cet objet juridique encore mal défini, dénommé « Intelligence artificielle » (IA) car « ce qui se conçoit bien s'énonce clairement, et les mots pour le dire arrivent aisément », écrivait Boileau.

 

Les établissements de santé et les professionnels de santé (comme la société tout entière) se trouvent en effet confrontés à un changement de paradigme provoqué par des données chaque jour plus volumineuses, complexes (génomiques, physiologiques, biologiques, cliniques, sociales, etc.), hétérogènes (textes, valeurs numériques, signaux, images 2D et 3D, séquences génomiques, etc.). C’est sans filtre que cette avalanche se déverse sur les acteurs concernés qui doivent dès lors intégrer de plus en plus de variables à leur pratique.

 

D’où l’apparition de l’expression « big data » (BD), désignant des ensembles de données devenus si volumineux qu’ils dépassent les capacités humaines et informatiques d’analyses classiques. Cette révolution se caractérise par le triptyque des 3V : vitesse, variété et volume.

 

Nécessaires mais non suffisantes, les données doivent être exploitées à l’aide d’un outil, l’algorithme, qui peut se définir comme la description d’une suite finie et non ambiguë d’étapes (ou d’instructions) permettant d’obtenir un résultat à partir d’éléments fournis en entrée. L’exemple particulièrement évocateur de la recette de cuisine est éloquent car la recette permet d’obtenir un plat à partir d’ingrédients.

 

L’algorithme peut être exprimé dans un langage informatique, transcrit en un programme, lequel peut ensuite être exécuté dans un logiciel ou compilé sous la forme d’une application. Un seul logiciel peut avoir recours à plusieurs algorithmes.

 

La véritable révolution tient, d’une part, à la percée des nouvelles technologies d’analyse associées aux BD et, d’autre part, à l’automatisation de certaines décisions prospectives en s’appuyant sur une expérience rétrospective connue. Ce sont les fameux algorithmes de machine learning qui se présentent comme des systèmes d’aide à la décision médicale (SADM) en se basant sur l’apprentissage de données rétrospectives dont le résultat est connu.

 

À ce stade, on distingue l’apprentissage automatique de l’apprentissage profond.

 

L’apprentissage automatique (ou machine learning) n’est qu’une technique d’IA, parmi d’autres. Il serait d’ailleurs plus juste de parler « d’expérience artificielle » puisqu’elle bâtit des modèles corrélationnels à partir des observations passées. On voit déjà une première limite entre corrélation et causalité.

 

L’apprentissage profond  (ou deep learning) en est une variante très sophistiquée, inspirée du fonctionnement d’un réseau organique de neurones. Il est alors question d’IA dès lors qu’un algorithme est conçu de telle sorte qu’il est en mesure d’évoluer dans le temps, en fonction des données qui lui sont fournies.

 

La conjonction d’un réseau de neurones profond et de données d’apprentissage massives rend, en effet, le comportement de l’IA infiniment plus complexe qu’un système automatisé traditionnel.

 

Sur le terrain, les résultats découlant de la mise en œuvre de l’IA se révèlent déjà prometteurs.

 

Des logiciels aux performances sensiblement similaires à celles des radiologues, dermatologues ou encore oncologues ont ainsi pu être développés grâce à de grands volumes de données rétrospectives. Par exemple, des revues rapportent qu’une équipe de l’université de Stanford, aux Etats-Unis, a conçu un outil capable de détecter les signes d’un cancer de la peau, avec une spécificité et une sensibilité équivalentes à celles des dermatologues. Les chercheurs se sont appuyés sur un logiciel créé par Google capable d’analyser le contenu de près de 130.000 images, en les classant par catégories. À travers l’étude, l’IA a « appris » à faire la différence entre plus de 2.000 pathologies. La fiabilité du logiciel a égalé celle des spécialistes en identifiant des tumeurs malignes et des taches bénignes dans respectivement 96 et 90% des cas contre 95 et 76%.

 

On pourrait multiplier les exemples de ce type.

 

Mais en Europe, et plus particulièrement en France, se posent des interrogations juridiques (et éthiques). L’IA représente un véritable défi pour le droit tant de la protection des données que celui de la responsabilité, sans parler de la relation soignant/soigné.

 

Concrètement, qui serait responsable si le robot chirurgical provoquait une lésion irréparable au patient ? Peut-on reprocher au médecin d’avoir utilisé et de s’être fié à un système d’IA ? Imaginons une personne handicapée suivie à domicile qui se verrait poussée par un robot devenu agressif, provoquant des fractures : que se passerait-il ?

 

De nombreuses questions émergent. Mais ce sera l’objet d’un prochain volet.