Qu'est-ce que la loi européenne sur l'IA ?
La loi européenne sur l'intelligence artificielle (règlement UE 2024/1689) est désormais en vigueur ; elle redéfinit la manière dont les dispositifs médicaux basés sur l'IA, en particulier les logiciels utilisés comme dispositifs médicaux (SaMD), sont réglementés dans l'Union européenne. En tant que premier cadre juridique contraignant au monde en matière d'IA, cette loi instaure une structure de classification des risques et impose des exigences strictes pour les systèmes à haut risque, notamment ceux utilisés dans le diagnostic, l'aide à la décision clinique et la surveillance des patients.
Chez Freyr Solutions, nous combinons notre expertise approfondie des SaMD MDR, IVDR et SaMD avec les exigences en constante évolution de la loi sur l'IA afin d'aider les fabricants de technologies médicales à atteindre end-to-end transparente et end-to-end tout en continuant à innover en toute confiance.
La loi sur l'IA et EU MDR: un double cadre réglementaire
Pour les dispositifs médicaux basés sur l'IA, la conformité n'est plus régie uniquement par le RDM. La loi sur l'IA ajoute un niveau réglementaire supplémentaire, en particulier lorsque le système d'IA influence les résultats pour les patients ou la prise de décision des cliniciens.
Cette double supervision nécessite une nouvelle approche : une stratégie de conformité harmonisée qui intègre à la fois la documentation technique du RDM et les exigences spécifiques à l'IA sous un même cadre réglementaire. Freyr est spécialisé dans la mise en œuvre de cette approche intégrée, qui permet de rationaliser les demandes d'autorisation, de garantir la préparation aux audits et d'accélérer la mise sur le marché.
Classification des risques au titre de la loi européenne sur l'IA
La loi sur l'IA définit quatre niveaux de risque liés à l'IA, chacun étant assorti d'obligations de conformité spécifiques. La plupart des dispositifs médicaux basés sur l'IA (SaMD) relèvent de la catégorie à haut risque, ce qui exige une documentation rigoureuse, des essais, une grande transparence et une surveillance post-commercialisation.
Risque inacceptable (IA interdite)
Ces produits sont interdits dans toute l'Union européenne :
- La reconnaissance des émotions dans les milieux de la santé ou de l'éducation
- Surveillance biométrique en temps réel dans les établissements de santé publics
- Évaluation sociale dans le triage des patients ou la hiérarchisation des soins
- IA prédictive utilisée pour l'évaluation individuelle des risques criminels ou comportementaux
- Exploitation de groupes de patients vulnérables par le biais de l'IA
Freyr réalise des audits de conception en phase précoce afin de s'assurer que les fonctionnalités interdites sont éliminées avant le début du développement ou la saisine d'un organisme notifié.
Haut risque (la plupart des dispositifs médicaux basés sur l'IA)
La catégorie « haut risque » comprend :
- IA diagnostique (par exemple, radiologie, pathologie)
- L'analyse prédictive dans la prise de décision thérapeutique
- Outils de planification chirurgicale basés sur l'IA
- Plateformes d'interprétation des données physiologiques
- Modules d'IA dans les appareils portables et implantables
Freyr garantit la conformité tout au long du cycle de vie, de la classification et du marquage CE à la transparence algorithmique et à la cybersécurité.
Risque lié à la transparence
Cela s'applique à :
- Résumés cliniques, recommandations ou alertes générés par l'IA
- Chatbot dans la communication avec les patients
- Tout résultat généré par l'IA ayant une incidence sur les décisions en matière de santé
Nous mettons en place une documentation claire et un étiquetage de l'interface utilisateur conformes aux obligations de transparence de l'UE.
Risque minime ou nul
Les outils de base (par exemple, l'automatisation non clinique) entrent dans cette catégorie, mais Freyr garantit une base de conformité pérenne, en particulier pour les systèmes en constante évolution.
Modèles d'IA à usage général (GPAI) dans le domaine médical
La loi sur l'IA impose de nouvelles obligations aux dispositifs médicaux utilisant des modèles d'IA à usage général, tels que les modèles de base, les grands modèles de langage (LLM) ou les algorithmes pré-entraînés. Ces dispositions entreront en vigueur en août 2025 et revêtent une importance cruciale pour :
- SaMD basées sur des systèmes de type GPT
- Des chatbots médicaux formés à partir de vastes corpus cliniques
- Outils de synthèse basés sur l'IA dans les dossiers médicaux électroniques (DME)
Comment Freyr Solutions ses clients :
- Évaluer le risque systémique
- Se conformer au code de bonnes pratiques de la GPAI
- Divulguer les ensembles de données d'entraînement
- Éviter les biais, les erreurs et la dérive des performances
Calendrier de mise en conformité : étapes clés pour l'IA appliquée aux dispositifs médicaux
Selon la page de la Commission européenne consacrée à la mise en œuvre de la loi sur l'IA, voici le calendrier prévu
| Étape clé | Date | Conséquences pour les dispositifs médicaux |
|---|---|---|
| Application de la réglementation | 1er août 2024 | Lancer les activités de préparation et de classification |
| Interdiction des IA interdites | 2 février 2025 | Il faut mettre fin à toutes les fonctionnalités non autorisées |
| Règles de transparence de la GPAI | 2 août 2025 | Éléments requis pour les modèles de base intégrés |
| Application complète de la loi sur l'IA | 2 août 2026 | Les appareils basés sur l'IA doivent répondre à toutes les exigences |
| Conformité des dispositifs médicaux à haut risque | 2 août 2027 | Date butoir pour l'intégration complète du règlement MDR et de la loi sur l'IA |
Freyr facilite la planification réglementaire en fonction de ces phases, ce qui permet de réduire au minimum les perturbations opérationnelles.
Services complets liés à la loi européenne sur l'IA nécessaires pour assurer la conformité
Pour se conformer pleinement à la loi européenne sur l'IA, les fabricants de dispositifs médicaux basés sur l'IA doivent répondre à un large éventail d'exigences techniques, réglementaires et opérationnelles. Parmi celles-ci figurent :
- Classification et justification des risques liés aux systèmes d'IA
- Gouvernance des données (représentativité, qualité, contrôle des biais)
- Validation des algorithmes et évaluation clinique
- Documentation technique (conforme au règlement MDR et à la loi sur l'IA)
- Conception d'un mécanisme de contrôle humain
- Protocoles de cybersécurité et de résilience
- Coordination en matière d'évaluation de la conformité avec les organismes notifiés
- Exigences en matière de transparence et de divulgation dans le domaine de l'IA
- Marquage CE pour les dispositifs basés sur l'IA
- Surveillance post-commercialisation des risques spécifiques liés à l'IA
- Signalement des incidents et suivi du cycle de vie
- Analyse des risques et mise en œuvre du code de bonnes pratiques de la GPAI
- Préparation aux audits et relations avec les autorités réglementaires
- Adaptation de l'étiquetage et de l'interface utilisateur pour les résultats générés par l'IA
- Formation destinée aux équipes internes chargées de la réglementation, de QA et du développement

Freyr Solutions : accompagnement Freyr Solutions tout au long du cycle de vie de la loi sur l'IA
Freyr Solutions un accompagnement réglementaire complet, adapté à l'ensemble du champ d'application de la loi européenne sur l'IA (EU AI Act) et s'intégrant parfaitement aux cadres réglementaires du MDR et de l'IVDR. Notre approche repose sur la conciliation de la conformité et de l'innovation, afin de garantir que les dispositifs médicaux basés sur l'IA reach marché plus rapidement, en toute sécurité et parfaitement préparés pour faire face aux contrôles réglementaires.
Nous accompagnons les organisations à chaque étape du cycle de vie du produit, de la planification initiale à la surveillance post-commercialisation, grâce à des services comprenant, entre autres :
Classification des risques liés à l'IA et cartographie des cas d'utilisation
Déterminer le niveau de risque du système au titre de la loi sur l'IA et s'aligner sur les voies de classification prévues par le règlement MDR pour les dispositifs médicaux et SaMD.Stratégie réglementaire et élaboration d'une feuille de route
Une planification de bout en bout qui concilie les obligations découlant de la loi sur l'IA, du règlement MDR et du règlement IVDR, offrant ainsi un modèle de conformité unifié.Documentation technique et transparence algorithmique
Élaboration d'une documentation spécifique à l'IA, comprenant notamment des indicateurs de performance, des protocoles d'explicabilité et la traçabilité des données, conforme à la fois aux exigences de l'annexe II du RDM et à celles de la loi sur l'IA.Gouvernance des données et réduction des biais
Garantir l'intégrité, l'équité et la représentativité des ensembles de données, éléments essentiels pour la sécurité de l'IA, la validité clinique et l'acceptabilité après la mise sur le marché.
Assistance en matière de marquage CE et d'évaluation de la conformité
Intégration des résultats attendus de la loi sur l'IA aux évaluations de conformité existantes au titre du RDM et aux interactions avec les organismes notifiés.Conception de mécanismes de contrôle humain
Mettre en place des cadres opérationnels afin de garantir que les cliniciens gardent le contrôle des résultats générés par l'IA, tout en respectant les normes de gouvernance centrées sur l'humain.Surveillance post-commercialisation des dispositifs intégrant l'intelligence artificielle
Mettre en place des cadres de surveillance permettant de détecter les dérives algorithmiques, la dégradation des performances et les facteurs déclencheurs d'incidents propres aux systèmes adaptatifs ou d'apprentissage.Cybersécurité, robustesse et résilience des modèles
Mise en place de contrôles visant à atténuer les risques liés aux attaques adversaires, à garantir la robustesse des modèles et à renforcer la sécurité dans tous les environnements cliniques.
Stratégie en matière de transparence de l'IA et de communication avec les utilisateurs
Étiquetage, mentions obligatoires et informations destinées aux patients, conçus pour respecter les obligations de transparence prévues par la loi sur l'IA.Gouvernance relative à l'intégration de l'IA à usage général
Évaluations des risques et documentation relatives aux dispositifs médicaux logiciels SaMD des modèles de base, y compris la mise en conformité avec les codes de bonnes pratiques et l'atténuation des risques systémiques.Préparation à l'audit et collaboration avec le Bureau de l'IA de l'UE
Conseils et assistance documentaire pour les inspections, les examens et les interactions officielles avec les autorités de régulation et le Bureau de l'IA.Accompagnement interfonctionnel et formation interne
Accompagner les équipes RA, QA, de la recherche et du développement ainsi que les équipes de direction grâce à des modules de formation sur mesure et des sessions d'information sur l'actualité réglementaire.
Les services de Freyr sont conçus pour s'adapter à l'évolution de vos innovations. Ainsi, que vous lanciez votre premier appareil doté d'une intelligence artificielle ou que vous vous développiez sur les marchés internationaux, votre infrastructure réglementaire sera solide, prête pour l'avenir et en phase avec l'écosystème en constante évolution de l'IA dans le secteur de la santé.