Loi de l'UE sur l'IA et l'IA à haut risque dans les dispositifs médicaux : se préparer à la conformité, concourir pour l'avenir
6 min de lecture

L'Intelligence Artificielle n'est plus seulement un avantage technologique dans l'industrie des dispositifs médicaux ; elle devient une fonction réglementée de confiance, de responsabilité et de performance. L'Europe a établi une frontière distincte entre le progrès technologique et la responsabilité en adoptant la loi formelle de l'UE sur l'Intelligence Artificielle le 1er août 2024.

La nouvelle législation fournit aux fabricants de dispositifs médicaux, en particulier ceux qui travaillent avec des logiciels en tant que dispositif médical (SaMD) alimentés par l'IA, à la fois des exigences réglementaires et des indicateurs de marché.

La loi de l'UE sur l'IA : Un nouveau paradigme réglementaire

La Loi établit de nouvelles normes pour le développement, l'évaluation et les opérations de surveillance de l'IA sur le territoire de l'Union européenne grâce à ses mesures complètes. Tous les développeurs de solutions d'IA visant le marché de l'Union européenne doivent comprendre que le message concernant le déploiement de l'IA reste clair et concis. Le système réglementaire détermine que tout système affectant le diagnostic médical, le traitement des patients ou la santé doit être classé à haut risque.

Comprendre l'essence de la loi européenne sur l'IA : basée sur les risques, spécifique à chaque secteur, axée sur l'impact

La loi européenne sur l'IA intègre un modèle de classification basé sur les risques qui crée trois catégories : Pratiques interdites, Systèmes d'IA à haut risque et Systèmes à risque limité. L'IA médicale relève presque toujours de la catégorie à haut risque, en particulier en vertu de l'article 6, paragraphe 1, point b), qui classe par défaut comme à haut risque tout composant d'IA d'un dispositif médical nécessitant l'examen d'un organisme notifié.

Les systèmes d'IA pour le diagnostic, la planification thérapeutique, l'aide à la décision clinique et la surveillance à distance relèvent tous de cette catégorie à haut risque. Cela comprend ceux qui emploient :

  • Modèles de Machine Learning (ML)
  • Algorithmes d'apprentissage profond
  • Réseaux neuronaux ou classificateurs statistiques.
  • Logiciels de prédiction ou de reconnaissance de formes intégrés dans les dispositifs médicaux

Principales exigences pour les fabricants en vertu de la loi sur l'IA de l'UE :

La mise en œuvre des exigences techniques fondamentales au sein d'un système de gestion de la qualité nécessite l'attention des fabricants pour une conformité efficace.

  • Gestion des risques (Article 9) :
    Des stratégies organisées de gestion des risques liés à l'IA devraient être élaborées et maintenues par les fabricants, car elles permettent de résoudre l'instabilité des modèles de préjugés algorithmiques, ainsi que les violations des systèmes de sécurité et les problèmes liés aux préjugés algorithmiques. De plus, selon la norme IEC 62304, la classification de la sécurité des logiciels est une étape critique. Chaque élément logiciel doit être classé comme Classe A, B ou C en fonction du risque. Cette classification détermine l'étendue des activités requises tout au long du cycle de vie du logiciel. Il est important d'intégrer cette classification dès les premières phases de conception et d'évaluation des risques.
  • Gouvernance des données (Article 10) :
    Les fabricants devraient sélectionner des ensembles de données de haute qualité, ainsi que des échantillons représentatifs et des informations annotables et non biaisées pour la sélection des ensembles de données, entre autres critères.
  • Documentation technique (Article 11) :
    Organisez un système de documentation actif pour afficher des informations complètes sur la structure du système d'IA, ainsi que les mesures de performance, les contrôles opérationnels et les composants de sécurité. Conformément à la norme IEC 82304, une spécification des exigences de sécurité du produit doit également être incluse lors de l'étape de finalisation des exigences. Ce document définit les besoins essentiels en matière de sécurité, de sûreté et de convivialité et doit être examiné comme un livrable clé.
  • Transparence et explicabilité (Article 13) :
    Les utilisateurs doivent recevoir des descriptions accessibles de la logique des systèmes d'IA, expliquant à la fois les capacités opérationnelles et les limites du système, ainsi que la justification de ses processus de prise de décision.
  • Supervision humaine (Article 14) :
    Les professionnels qui suivent une formation peuvent utiliser des procédures autorisées pour éviter que les décisions automatisées ne causent des préjudices, tout en maintenant le contrôle opérationnel grâce à ces procédures.
  • Journalisation et traçabilité (Article 12) :
    Les entrées du système ainsi que les sorties et les enregistrements de l'arbre de décision doivent être entièrement enregistrés, en particulier lors du déploiement clinique pour les activités de surveillance après commercialisation.
  • Surveillance après commercialisation (Article 72) :
    Des lignes directrices devraient être mises en œuvre pour mesurer en continu les performances du système d'IA après son implémentation commerciale. Le système devrait utiliser des analyses réelles des performances opérationnelles pour intégrer les retours des utilisateurs et optimiser les systèmes de contrôle des risques. De plus, la norme IEC 62304 exige un plan de maintenance logicielle documenté. Ce plan doit définir la manière dont les anomalies logicielles, les correctifs et les mises à jour post-lancement sont gérés et validés. Les activités de maintenance devraient s'aligner sur les pratiques de surveillance à long terme.
  • Marquage et enregistrement CE (Article 17) :
    Lors de l'application du marquage CE sur les dispositifs médicaux d'IA, ceux-ci doivent satisfaire aux exigences du Règlement sur les dispositifs médicaux (MDR 2017/745) ou du Règlement sur les dispositifs médicaux de diagnostic in vitro (IVDR 2017/746) et de la Loi européenne sur l'IA.

Plus que la réglementation : Une refonte du cycle de vie

La transformation va au-delà des exigences réglementaires car elle exige une refonte complète du processus de développement du cycle de vie du système d'IA, de la création à la maintenance. L'excellence des performances techniques cède la place à une surveillance réglementaire permanente et au suivi des normes éthiques.

En intégrant les principes de la norme IEC 62304, un processus formel de résolution des problèmes logiciels est requis tout au long du cycle de vie. Les fabricants doivent définir des procédures pour identifier, documenter, analyser et résoudre les anomalies logicielles. Cela doit être intégré à chaque étape de contrôle qualité, en particulier après la vérification.


La gestion des SOUP (logiciels de provenance inconnue) est également obligatoire. Chaque composant SOUP doit être identifié, évalué en termes de risques et contrôlé par des revues de la documentation de conception et d'architecture. Cela garantit que les dépendances externes sont sûres et gérées de manière appropriée.


De plus, la norme IEC 82304 met l'accent sur des processus définis pour l'installation, la gestion de la configuration et le démantèlement du système. Ceux-ci doivent être validés et documentés au cours des dernières étapes du développement avant la mise sur le marché. Un processus d'atténuation des risques de cybersécurité doit également être intégré au SDLC et vérifié à chaque étape du cycle de vie.

Adoption de l'IA en Europe : Le paysage de 2024

Le rapport 2024 d'Eurostat sur l'utilisation de l'IA dans les entreprises européennes, basé sur des données à distance, montre une tendance croissante à l'implémentation de l'IA dans les entreprises européennes en 2024 :

  • 41,2 % des grandes entreprises utilisent actuellement l'intelligence artificielle.
  • 34,1 % des entreprises bénéficient aux opérations de marketing et de vente.
  • Un bénéfice de 27,5 % dans les opérations commerciales.
  • Un bénéfice de 6,1 % dans la logistique.

L'écart dans l'adoption de l'IA est apparent entre les grandes et les petites entreprises :

  • La technologie de l'IA est appliquée pour la sécurité des TIC par 46,4 % des grandes entreprises, mais seulement 17,2 % des petites entreprises l'utilisent à cette fin.
  • Un pourcentage significatif de 34,7 % des grandes entreprises emploient l'IA dans leurs processus de production, comparé aux petites entreprises avec 21,6 % d'utilisation de l'IA.
  • L'adoption industrielle de l'intelligence artificielle présente à la fois des avantages et des difficultés, car 13,5 % des entreprises de l'UE appliquent actuellement des technologies d'IA.

 Ces chiffres révèlent une double réalité : d'une part, l'IA est déjà en train de remodeler des fonctions commerciales essentielles ; d'autre part, il existe un écart important dans l'adoption à grande échelle, en particulier dans les domaines réglementés comme la santé, où la confiance et la sécurité sont des conditions préalables à la croissance.

L'Europe ne se contente pas de réglementer, elle investit pour développer une IA fiable.

Contrairement aux vagues précédentes de transformation numérique, l'approche de l'UE en matière d'IA combine la politique avec des investissements proactifs.

Un rapport du Parlement européen reconnaît que l'innovation en matière d'IA doit être accélérée, mais pas au détriment de la sécurité des patients ou de la surveillance éthique.

  • 1,8 milliard de dollars de soutien financier pour les startups européennes d'IA (2023)
  • L'UE ne reçoit que 6 % du capital-risque mondial en IA, avec des investissements quatre fois inférieurs à ceux des US.

Les initiatives de financement comprennent :

  • Programme pour une Europe numérique : 1,3 milliard d'euros (2025–2027) pour les installations d'essai et les pôles de développement des compétences.
  • InvestAI: Fait partie de la stratégie de la Décennie numérique, visant à rassembler 200 milliards d'euros pour :
    • Usines d'IA
    • Services Cloud
    • Réseaux d'innovation transfrontaliers

Les institutions de l'UE établissent un environnement favorable grâce à des changements réglementaires qui permettent des systèmes d'IA éthiques, cliniquement fiables et évolutifs pour les fabricants de SaMD.

Ce que cela signifie pour les entreprises de dispositifs médicaux

Les réglementations de la loi européenne sur l'IA, ainsi que leurs implications commerciales essentielles, présentent deux points principaux que les fabricants de dispositifs médicaux doivent aborder.

Ces points sont encore renforcés lorsqu'ils sont alignés sur les normes IEC 62304 et IEC 82304, qui apportent une structure, une rigueur de classification, une continuité après la publication et une gouvernance de la sécurité tout au long du cycle de vie du logiciel.

Se préparer à la conformité avant la mise sur le marché.

  • Réaliser une analyse des lacunes de la loi sur l'IA
  • Mise à jour des dossiers techniques, des RMF et des SOP
  • Intégrez des mécanismes de traçabilité dès la phase de conception
  • Prendre contact tôt avec les organismes notifiés pour une pré-évaluation
  • Planifier la surveillance après commercialisation à long terme avec des boucles de rétroaction

Convertir la conformité en avantage concurrentiel

  • Les entreprises qui excellent en matière de conformité sont également celles qui inspirent le plus confiance et détiennent les plus grandes parts de marché.
  • Élaborer un SMQ en alignement avec l'AI Act dès la phase de conception
  • La transparence et l'auditabilité comme facteurs de différenciation sur le marché
  • Utilisez le marquage CE et la conformité à l'IA comme un gage de confiance.

Foire Aux Questions (FAQ) sur la loi européenne sur l'IA pour les dispositifs médicaux

Pour aider les fabricants de dispositifs médicaux à naviguer dans le paysage de conformité en constante évolution, voici quelques-unes des questions les plus fréquemment posées :

  1. Qu'est-ce que la loi européenne sur l'IA et quel est son impact sur les fabricants de dispositifs médicaux ?
    La loi européenne sur l'IA est le premier cadre réglementaire complet au monde en matière d'IA. Elle impose des exigences obligatoires en matière de gestion des risques, de gouvernance des données, de surveillance humaine et de surveillance après commercialisation, en particulier pour l'IA médicale à haut risque comme les outils de diagnostic et les logiciels d'aide à la décision clinique.
  2. Quels systèmes d'IA dans les dispositifs médicaux sont classés à haut risque en vertu de la loi européenne sur l'IA ?
    Tout système d'IA utilisé dans le diagnostic, la planification thérapeutique ou la surveillance des patients est considéré à haut risque. Cela inclut les SaMD basés sur le ML, les modèles d'apprentissage profond et les outils d'IA qui influencent les décisions ou les résultats en matière de santé.
  3. Quelles sont les principales exigences de conformité pour les dispositifs médicaux basés sur l'IA en vertu de la loi européenne sur l'IA ?
    Les fabricants doivent garantir :
    • La traçabilité des entrées et des sorties
    • Une qualité et une gouvernance des données robustes
    • Des mécanismes de surveillance humaine
    • Une documentation technique complète
    • Le marquage CE selon les normes MDR/IVDR et de la loi sur l'IA
  4. Comment la loi européenne sur l'IA (EU AI Act) se rapporte-t-elle au MDR (2017/745) et à l'IVDR (2017/746) ?
     

    La loi européenne sur l'IA s'appuie sur le MDR/IVDR en ajoutant des exigences spécifiques à l'IA telles que l'explicabilité, la transparence des algorithmes et les contrôles des risques. Tous les dispositifs alimentés par l'IA doivent respecter une double conformité – les règles traditionnelles des dispositifs médicaux et les nouvelles normes en matière d'IA.

    Les leaders du marché abordent la loi de l'UE sur l'IA non pas comme un obstacle, mais comme un plan directeur pour la construction de technologies médicales fiables et performantes. Ils intègrent la conformité au niveau de l'architecture et l'utilisent pour éclairer la stratégie, le marketing et le positionnement de la marque.

    Les entreprises de dispositifs médicaux doivent intégrer la préparation à la Loi sur l'IA dans l'ensemble de leur écosystème de produits et de conformité pour obtenir un avantage concurrentiel. Contactez-nous dès aujourd'hui pour aligner votre innovation sur la conformité et transformer la préparation réglementaire en un avantage concurrentiel.

 

S'abonner au blog Freyr

Politique de confidentialité