Retour à la liste
Illustration Caractériser les risques des logiciels médicaux : que faut-il retenir du guide IMDRF N88 (2025) ?

Caractériser les risques des logiciels médicaux : que faut-il retenir du guide IMDRF N88 (2025) ?

DM, IA et Cybersécurité

L’IA médicale avance plus vite que les lignes directrices

Les dispositifs médicaux intégrant de l’intelligence artificielle (IA) progressent à une vitesse impressionnante. Diagnostic assisté, détection d’anomalies, tri automatisé, personnalisation des traitements : les cas d’usage se multiplient. Mais la réglementation, elle, peine parfois à suivre.


Face à ce constat, le guide IMDRF N88 publié en janvier 2025 propose un ensemble de principes directeurs pour favoriser le développement de dispositifs médicaux à base d’IA sûrs, efficaces et de haute qualité. Ce document s’adresse autant aux fabricants qu’aux autorités réglementaires, avec une ambition claire : poser les fondations d’une “Good Machine Learning Practice” (GMLP).


Ce n’est ni une norme, ni une obligation réglementaire. Mais c’est un signal fort. Et une base de travail précieuse, notamment pour ceux qui veulent structurer leur dossier technique ou anticiper les attentes d’un auditeur ou d’un organisme notifié.




Ce que dit le guide IMDRF N88 : 10 principes à connaître

Le cœur du guide repose sur 10 principes fondamentaux pour encadrer le cycle de vie d’un dispositif médical intégrant de l’IA, depuis sa conception jusqu’à son suivi post-commercialisation.


Les 10 principes de la GMLP (Good Machine Learning Practice) :

  • 1.Compréhension claire de la destination du dispositif et mobilisation de compétences pluridisciplinaires.
  • 2.Mise en œuvre de bonnes pratiques de conception logicielle, sécurité et gestion de la qualité.
  • 3.Utilisation de données représentatives de la population cible.
  • 4.Séparation rigoureuse entre datasets d’entraînement et de test.
  • 5.Utilisation de standards de référence adaptés.
  • 6.Choix du modèle aligné avec les données disponibles et la destination.
  • 7.Évaluation de la performance en interaction humain-IA, pas seulement du modèle seul.
  • 8.Tests cliniquement pertinents, réalisés dans des conditions réalistes.
  • 9.Communication claire auprès des utilisateurs (professionnels ou patients).
  • 10.Surveillance post-déploiement et gestion des risques liés au re-entraînement.



Les 10 principes de la GMLP (Good Machine Learning Practice) schématisés :

Pasted Graphic 2.png




Ce qui ressort de manière transverse :

  • L’importance de l’intended purpose (destination) dans toutes les étapes,
  • Le rôle du facteur humain (interactions, interface, erreurs prévisibles),
  • Le besoin d’anticiper les risques liés à la dérive des modèles,
  • La nécessité de documenter, tracer, et expliciter chaque choix technique.




Cas pratique 1 – Un logiciel de détection de lésions dermatologiques

Un fabricant développe une application mobile qui identifie automatiquement les lésions suspectes à partir de photos prises par le patient. Le modèle est entraîné sur des milliers d’images annotées par des dermatologues.


Principes clés à appliquer :

  • Principe 3 : la base d’entraînement doit refléter la diversité des phototypes, âges, genres, géographies… pour éviter les biais.
  • Principe 4 : les images utilisées pour l’entraînement ne doivent en aucun cas se retrouver dans le dataset de test.
  • Principe 6 : le modèle doit être robuste aux variations de qualité des images (flou, luminosité, etc.) typiques d’un usage grand public.
  • Principe 9 : l’utilisateur doit être clairement informé des limites du modèle (ex. : “ne remplace pas un avis médical”).


Risques identifiés :

  • Faux négatifs sur certaines carnations mal représentées,
  • Surconfiance de l’utilisateur dans l’application (“effet IA magique”).


Mesures de maîtrise :

  • Constitution de sous-populations pour l’analyse des performances,
  • Intégration d’un module pédagogique dans l’interface utilisateur.




Cas pratique 2 – Une solution d’IA embarquée dans un dispositif connecté

Autre contexte : une start-up conçoit un capteur embarqué sur un dispositif de perfusion. Il analyse en temps réel des signaux physiologiques pour adapter automatiquement le débit.


Défis rencontrés :

  • Principe 7 : la performance de l’algorithme dépend étroitement de la réactivité de l’utilisateur humain, notamment en cas d’alerte.
  • Principe 10 : après le lancement, le modèle doit être surveillé. Un changement de type de patient (ex. : population pédiatrique) peut induire une dérive.


Ce que le fabricant a mis en place :

  • Des scénarios de simulation intégrant l’équipe soignante pour tester la synergie humain-IA.
  • Une politique de versionning clair du modèle, avec validation réglementaire avant chaque mise à jour significative.



Exemples de risques GMLP vs. mesures de maîtrise


Risque identifié

Principe GMLP

Exemple de maîtrise mise en place

Dataset non représentatif

#3

Inclusion multicentrique, suivi des sous-groupes

Overfitting après re-training

#10

Validation croisée externe, gel du modèle validé

Erreur d’interprétation utilisateur

#9

Interface simplifiée, FAQ intégrée, message d’alerte

Mauvaise sélection du modèle

#6

Justification documentée du choix algorithmique





Mini FAQ – Ce que les fabricants se demandent souvent


Ce guide IMDRF est-il obligatoire pour un marquage CE ou FDA ?

Non, ce n’est pas un texte contraignant. Mais il est hautement recommandé par les autorités (dont la FDA), et s’aligne sur les pratiques attendues en audit.


Faut-il être conforme à ces principes pour obtenir un marquage ?

Pas en tant que tel, mais leur intégration dans votre QMS ou votre documentation technique renforce considérablement votre crédibilité.


Quelle différence avec les exigences de l’ISO 13485 ?

L’ISO 13485 donne un cadre général de management de la qualité. Le N88 cible spécifiquement les défis de l’IA et du machine learning.


Et si j’utilise un modèle génératif (type LLM) ?

C’est justement l’un des enjeux évoqués. Le guide souligne la difficulté de valider les performances de modèles issus d’un “foundational model” non contrôlé par le fabricant.


Ce guide remplace-t-il le N81 ?

Non, il le complète. Le N81 aide à caractériser le logiciel en tant que dispositif, tandis que le N88 porte sur les bonnes pratiques de développement IA.




Anticiper, structurer, documenter : les clés d’une IA maîtrisée

L’IMDRF trace un chemin. Ce n’est pas encore la norme, mais ce sera très probablement l’évidence de demain.


Si vous développez un dispositif médical intégrant de l’IA, chaque décision algorithmique, chaque jeu de données, chaque interaction avec l’utilisateur peut avoir un impact clinique, éthique et réglementaire. Le guide N88 vous donne un cadre pour sécuriser vos choix.


Et si vous ne savez pas par où commencer ? Contactez-nous. CSDmed vous accompagne, du design au déploiement, pour structurer votre approche IA, sécuriser votre stratégie réglementaire, et transformer vos modèles en dispositifs prêts pour le marché.




Ressources associées



Source