Eh oui : depuis 17 ans, la commission informatique de la FNMR organise des audits annuels. Depuis 2015, quand j’ai repris la conduite de cette commission, j’ai cherché à la fois à entretenir la base des premiers audits initiés par notre actuel président Jean-Philippe Masson (alternance entre enquêtes sur les RIS et les PACS ; derniers audits PACS en 2017 et RIS en 2019), et j’ai introduit de nouvelles thématiques qui sont ou vont devenir le quotidien de notre exercice : en 2015 la première étude sur les Serveurs d'Applications (SA) ; en 2016 le premier audit sur les RIS-PACS intégrés ; en 2018 la première analyse de l’offre de téléradiologie commerciale sur le territoire français qui a servi de catalyseur pour la rédaction de la nouvelle charte de Téléradiologie du Conseil National Professionnel de la Radiologie (G4) puis validée par le CNOM ; en 2020-2021 la première étude sur les DACS (décalé en raison de la pandémie Covid-19), suite à l’obligation à compter du 1er juillet 2019 d’assurance qualité pour l’utilisation en imagerie médicale des rayonnements ionisants.

Dr Jean-Christophe Delesalle
Responsable de la Commission informatique de la FNMR

Cet audit a été publié dans la revue « Le Médecin Radiologue Libéral » N° 467 - juin 2023

L’an passé, notre seconde étude sur les SA publiée en juillet 2022 dans notre revue (n° 457) ouvrait délibérément et à dessin la voie vers l’Intelligence Artificielle (IA) en demandant aux éditeurs quels outils IA ils avaient eux-mêmes développés et/ou quels partenariats ils menaient dans ce domaine, sans vouloir trop rentrer dans les détails car j’avais déjà en tête qu’en 2023 l’audit serait centré exclusivement sur l’IA.

Et comme monsieur Jourdain de Molière, nous utilisons (ou subissons) déjà quotidiennement des outils d'IA sans nécessairement le savoir, tant à titre privé que professionnel : reconnaissance vocale des smartphones puis dans nos logiciels RIS–PACS6, reconnaissance faciale d'outils informatiques ou d'institutions étatiques autoritaires, suggestions publicitaires (Google) ou de contenu (YouTube) et j'en passe. ChatGPT7 d’Open IA que tout le monde connait ou un de ses concurrents comme Bard de Google, sont des exemples d'IA dites génératives ou conversationnelles (“chatbot” des anglosaxons) qui permettent à partir de quelques mots saisis (“prompt” des anglosaxons) de générer un contenu textuel. Midjourney ou Dall-E génèrent pareillement des photographies toujours plus réalistes, MusicLM de la musique, Fliki de la vidéo à titre d'exemples. D'autres outils permettent de créer artificiellement à partir d'élément existants de la musique (exemple Flow Musiques sur la base de données des Beatles) ou des peintures (The Next Rembrandt). Et ce n'est qu'un début car toutes les grandes firmes de la “tech” s'y mettent, y compris celle d’Elon Musk (projet X-AI). Et le monde médical n’y échappe pas (projet Med-PalM de Google).

Si les résultats parfois bluffants sont source de curiosité, voire parfois d'espoir pour les plus démunis en créativité, ils sont aussi bien souvent à l’origine de déceptions dans leurs performances comparativement à l’inventivité humaine. En outre, il est rigoureusement impossible de connaître le cheminement d'analyse du système (“explicabilité” des algorithmes ; cf. couches cachées des réseaux de neurones ci-après) : l'objectif des concepteurs d'une application comme Google-Maps ou Waze est-il de vous faire arriver à votre destination le plus vite possible et/ou sur le trajet le plus court, ou de faire en sorte que la circulation soit la plus fluide possible pour éviter les embouteillages ? L’IA est aussi source d’“hallucinations” que n’aurait pas renié Sigmund Freud, résultats déconnectés de la réalité car ne s’appuyant que sur des données statistiques hors de contrôle.

Pour rappel mais sans trop rentrer dans les détails, il faut distinguer deux types d’IA :

  • Le premier est ce qu'on appelle l'apprentissage automatique (“machine learning” des anglo- saxons) où l’algorithme se fonde sur une approche linéaire mathématique et statistique pour donner au système la capacité d'apprendre à partir de bases de données (datas) et prédire une donnée de sortie. En organisant et en nettoyant la base des données, des modèles vont ainsi être créés et testés afin d'évaluer puis d’améliorer leur performance (rôle des experts et analystes en données, respectivement “data-scientists” et “data- analysts” des anglosaxons). Il existe trois types d’apprentissage : supervisé, non supervisé ou semi- supervisé. Dans le premier, les données sont toutes labélisées et étiquetées sur la base de leurs caractéristiques validées par un expert, et le modèle choisit une cible à prédire qui peut être une valeur numérique (on parle de régression), ou une classe d'élément (classification). Dans le second, les données ne sont pas étiquetées, l'algorithme devant lui-même créer des groupes d'éléments ayant des caractéristiques proches (clustering des anglo-saxons), alors que dans l'apprentissage semi- supervisé les données sont partiellement étiquetées.
  • Le second est l'apprentissage profond (“deep learning”), sous-genre plus élaboré du précédent, qui s'inspire du fonctionnement du système nerveux des êtres humains afin de le mimer, grâce à des architectures complexes non linéaires, les fameux réseaux neuronaux. Chaque unité fonctionnelle du réseau (neurone) peut produire un effet sur tous les autres éléments auxquels il est connecté, chaque élément étant pondéré d'un poids décisionnel plus ou moins important et ajustable par le concepteur, le tout organisé en un certain nombre de couches (d'où la notion de profondeur du réseau et le terme de “deep” learning). Certaines couches sont masquées (cf. schéma) et le cheminement du processus est impossible à démanteler comme indiqué plus haut. La base de données nécessaire à l'apprentissage profond est bien plus importante (mégadonnées ou bigData), avec des temps d'apprentissage beaucoup plus longs et des puissances de calcul beaucoup plus importantes (nécessitant souvent un processeur graphique GPU8) qu'en apprentissage automatique.

L'intégralité de ce document est accessible aux Adhérents FNMR.
Pour voir les avantages & adhérer à la FNMR, cliquez ici

Vous êtes Adhérent FNMR et ne disposez pas de vos identifiants ?
Veuillez cliquez-ici pour les recevoir.