- Introduction
- Que signifie « évaluation des performances » dans le cadre du règlement IVDR ?
- Pourquoi le règlement IVDR place la barre plus haut : l'intention réglementaire derrière la notion de « preuves suffisantes »
- Le modèle du cycle de vie : les données de performance en tant que système évolutif
- Élaborer un plan d'évaluation des performances solide
- À quoi ressemble un rapport d'évaluation des performances bien étayé ?
- Concevoir des données probantes sur les performances cliniques qui résistent à l'examen
- Suffisance des preuves au regard du règlement IVDR : passer de « nous disposons de données » à « cela suffit »
- Surveillance post-commercialisation et PMPF : garantir la validité des performances dans le temps
- Traçabilité : la fonctionnalité qui rend un PER vérifiable et exploitable par l'IA
- Questions fréquentes concernant les organismes notifiés et comment des procédures d'évaluation de la conformité (PER) solidement étayées permettent de les anticiper
- Conclusion
Introduction
Le passage au règlement européen IVDR a profondément et concrètement redéfini les normes en matière de preuves de performance pour les fabricants de dispositifs médicaux de diagnostic in vitro (IVD). Sous l’ancien règlement IVDD, la documentation relative aux performances s’appuyait souvent sur des ensembles de données limités, des protocoles d’étude variables et des pratiques de documentation incohérentes, qui différaient considérablement d’un produit à l’autre et d’un marché à l’autre. Dans le cadre du règlement européen IVDR, de telles approches sont rarement suffisantes. Les autorités de réglementation et les organismes notifiés attendent désormais de plus en plus des fabricants qu'ils démontrent les performances de leurs dispositifs à l'aide d'un cadre de preuves structuré, traçable et basé sur le cycle de vie, capable de résister à un examen scientifique rigoureux et de rester crédible alors que les dispositifs sont utilisés au sein de populations diverses, dans des contextes cliniques variés et selon des normes de soins en constante évolution.
Au cœur de ce cadre se trouve l'évaluation des performances prévue par le règlement européen IVDR : un processus clairement défini et continu qui intègre la validité scientifique, les performances analytiques, les performances cliniques et les enseignements tirés après la mise sur le marché au sein d'un récit cohérent fondé sur des données probantes. L'évaluation des performances au titre de l'IVDR consiste en fin de compte à construire un récit factuel scientifiquement fondé, méthodologiquement transparent et durable tout au long du cycle de vie du dispositif. Un rapport d'évaluation des performances (PER) défendable doit clairement relier la validité scientifique, les performances analytiques, les performances cliniques et l'apprentissage tout au long du cycle de vie en une justification unique et cohérente des performances et de la suffisance des preuves. En pratique, cela implique d'aligner la production de données de performance sur une approche unifiée de l'évaluation clinique et de la performance, en appliquant des principes rigoureux de conception d'étude tels que le contrôle des biais et la sélection des critères d'évaluation lors de la conception d'une étude de performance clinique, en fondant les arguments de suffisance sur les données cliniques de l'IVDR, et en veillant à ce que la confiance dans la performance tout au long du cycle de vie soit maintenue grâce aux PMS, PMPF et PSUR de l'IVDR.
Que signifie « évaluation des performances » dans le cadre du règlement IVDR ?
En vertu du règlement IVDR, l'évaluation des performances ne se limite pas à la simple réalisation d'études et à la compilation des résultats. Il s'agit d'un processus structuré, décrit à l'annexe XIII, qui démontre que les résultats fournis par le dispositif sont scientifiquement pertinents, analytiquement fiables et cliniquement significatifs pour l'usage prévu déclaré. Le cadre réglementaire de l'IVDR repose sur trois piliers interdépendants :
- La validité scientifique, qui établit le lien entre l'analyte (ou marqueur) et l'affection clinique ou l'état physiologique.
- Performances analytiques, qui démontrent et confirment que le dispositif est capable de mesurer ou de détecter l'analyte de manière fiable dans les conditions d'utilisation prévues.
- Performance clinique, qui démontre que le résultat est en corrélation avec un état clinique ou une issue clinique au sein de la population cible et dans le contexte clinique concerné.
Un aspect pratique essentiel à prendre en compte est que ces piliers ne constituent pas de simples cases à cocher isolées. Une évaluation des performances conforme au règlement IVDR démontre clairement comment ils fonctionnent ensemble. La validité scientifique explique pourquoi l'analyte est cliniquement pertinent, la performance analytique explique dans quelle mesure il peut être mesuré, et la performance clinique explique ce que le résultat signifie dans la pratique clinique. Lorsque ces éléments sont alignés, les preuves de performance forment un récit clair et crédible. Lorsqu'elles sont fragmentées ou justifiées de manière incohérente, les preuves ressemblent souvent à un patchwork, susceptible de susciter des questions de la part de l'organisme notifié.
C'est pourquoi une planification en amont est essentielle. La solidité des données de performance ne résulte pas du volume des données collectées, mais d'une conception mûrement réfléchie. Elle commence par une définition précise de l'objectif visé, suivie d'une mise en correspondance claire entre les allégations de performance et les critères d'évaluation, puis d'un alignement de ces critères sur les sources de données et les plans d'étude appropriés. Cette approche structurée, qui est au cœur d'un plan d'évaluation de la performance (PEP) solide, réduit les incohérences, renforce la traçabilité et facilite l'élaboration d'un rapport d'évaluation de la performance défendable.
Pourquoi le règlement IVDR place la barre plus haut : l'intention réglementaire derrière la notion de « preuves suffisantes »
Les exigences accrues de l'IVDR en matière de données probantes s'inscrivent dans une réalité politique simple. Les résultats des dispositifs de diagnostic in vitro influencent les décisions cliniques, et des résultats erronés ou peu fiables peuvent entraîner des diagnostics erronés, des retards de traitement, des interventions inutiles ou des occasions manquées en matière de soins. L'IVDR s'attaque à la variabilité historique en mettant davantage l'accent sur la qualité des données probantes, leur suffisance et la continuité tout au long du cycle de vie.
Le terme « suffisant » marque un tournant décisif. En vertu du règlement IVDR, il ne suffit pas de démontrer l’existence de données probantes. Les fabricants doivent prouver que ces données sont suffisantes en termes de qualité, de quantité et de pertinence pour étayer la finalité prévue et les allégations figurant sur labelling, dans la notice d’utilisation et dans les supports de commercialisation. Cette évaluation de la suffisance est contextuelle. Un dispositif de diagnostic in vitro (IVD) qui guide des décisions cliniques à fort impact sera généralement soumis à des exigences plus élevées qu’un dispositif à faible impact, et les dispositifs appartenant à des classes de risque plus élevées feront l’objet d’un examen plus minutieux.
C'est l'une des raisons pour lesquelles les lignes directrices MDCG 2022-2 sont fréquemment invoquées lors des discussions sur les données probantes dans le cadre du règlement IVDR. Elles mettent l'accent sur les principes de production et d'évaluation des données probantes qui favorisent la transparence méthodologique et une justification claire de leur suffisance. Elles réaffirment également l'idée selon laquelle les données probantes doivent être maintenues au fil du temps plutôt que d'être figées au moment de l'obtention du marquage CE.
Pour de nombreux fabricants, la conclusion pratique est qu’une demande de conformité à l’IVDR couronnée de succès repose sur un dossier de données qui repose autant sur le raisonnement que sur les résultats. Les organismes notifiés ont tendance à rechercher une logique défendable : pourquoi ces données, pourquoi ces critères d’évaluation, pourquoi ces populations, pourquoi ces comparateurs, et pourquoi cela suffit-il compte tenu de la destination et de la classe de risque ? Ce raisonnement est au cœur d’un rapport d’évaluation des performances conforme à l’IVDR.
Le modèle du cycle de vie : les données de performance en tant que système évolutif
On croit souvent à tort que l'évaluation des performances prend fin une fois le rapport rédigé. Or, selon le règlement IVDR, ce n'est pas le cas. L'évaluation des performances se poursuit tout au long du cycle de vie du dispositif, et le système de données de performance doit pouvoir s'adapter aux nouvelles informations.
Le modèle de cycle de vie peut être considéré comme une boucle qui se répète :
- Élaborer la stratégie en matière de preuves et définir la méthodologie.
- Fournir des données probantes concernant la validité scientifique, les performances analytiques et les performances cliniques.
- Évaluer la qualité des données probantes, le risque de biais et la pertinence.
- Intégrer les données probantes dans le rapport PER en garantissant la traçabilité et en formulant des conclusions claires.
- Suivre les performances réelles grâce à la surveillance post-commercialisation et au suivi des performances post-commercialisation (PMPF).
- Mettez à jour les données, les affirmations et les conclusions si nécessaire.
Dans ce contexte, le plan d'évaluation des performances (PEP) va bien au-delà d'une simple exigence formelle prévue par le règlement IVDR. Un PEP bien conçu précise ce qui constitue des données « suffisantes » et appropriées pour un dispositif donné et établit un cadre de gouvernance régissant la manière dont les nouvelles données sont générées, évaluées et intégrées au fil du temps. Il favorise également la coordination interne, permettant ainsi aux équipes chargées des affaires réglementaires, des essais cliniques, de la R&D,RA, ainsi qu'à celles chargées de la surveillance post-commercialisation, de travailler à partir d'un cadre de référence commun en matière de données.
Un modèle de cycle de vie abouti s'intègre naturellement à l'évaluation clinique et à l'évaluation des performances, en tant que discipline plus large. De nombreuses organisations constatent que l'évaluation des performances s'améliore considérablement lorsqu'elle est gérée comme un processus transversal de gouvernance des données probantes plutôt que comme une simple activité de rédaction isolée. Lorsque la gouvernance des données probantes est intégrée au cycle de vie, le PER devient plus facile à maintenir, les audits sont plus simples à mener et les interactions avec les organismes notifiés ont tendance à être plus prévisibles.
Élaborer un plan d'évaluation des performances solide
C'est dans le plan d'évaluation des performances (PEP) que réside la fondement de la validité de l'évaluation. Il en définit la portée, identifie les sources de données et explique comment celles-ci seront évaluées. Dans de nombreuses évaluations, c'est dans le plan que se manifeste la différence entre un examen sans heurts et un examen difficile : un plan solide assure la cohérence ; un plan faible oblige l'évaluateur à déduire une logique qui aurait dû être explicitée.
Un plan défendable précise généralement, en termes concrets, l'usage prévu du dispositif. Cela inclut l'utilisateur visé, la population de patients cible, le contexte clinique prévu, les types d'échantillons et le rôle du test dans le parcours clinique (dépistage, diagnostic, triage, suivi, pronostic, etc.). Il identifie ensuite les allégations de performance à étayer et associe chacune d'elles aux sources de données probantes appropriées.
Le plan doit également préciser comment les données seront évaluées. Les organismes notifiés acceptent rarement l'affirmation selon laquelle « des données existent » sans une explication claire de la « qualité de ces données ». En précisant comment la qualité des études sera évaluée, comment les biais seront pris en compte et comment les limites seront interprétées, le plan fait preuve de rigueur méthodologique et renforce la validité du rapport final d'évaluation des performances.
Enfin, le plan doit expliquer comment les enseignements tirés après la mise sur le marché seront intégrés. L'un des changements les plus importants introduits par le règlement IVDR réside dans la reconnaissance du fait qu'on ne peut pas présumer que les performances resteront stables en se fondant uniquement sur des données pré-commercialisation positives. Un plan solide décrit comment les activités de surveillance post-commercialisation et de suivi des performances après la mise sur le marché (PMPF) permettront de confirmer les performances en conditions réelles d'utilisation, et comment ces résultats seront pris en compte dans l'évaluation et la documentation continues
À quoi ressemble un rapport d'évaluation des performances bien étayé ?
Un rapport d'évaluation des performances (PER) recevable au regard du règlement européen IVDR ne se résume pas à une simple compilation d'études. Il s'agit d'un exposé structuré et scientifiquement fondé qui démontre les performances, justifie la suffisance des données et explique comment ces performances sont surveillées et maintenues dans le temps.
Un rapport d'évaluation des performances conforme au règlement IVDR de haute qualité permet à l'évaluateur de répondre, sans avoir à recourir à une interprétation excessive :
- À quoi sert ce dispositif et dans quel contexte clinique est-il utilisé ?
- Quel est le fondement scientifique qui étaye la relation entre l'analyte et l'état clinique ?
- Dans quelle mesure l'appareil offre-t-il des performances analytiques fiables dans les conditions d'utilisation prévues ?
- Dans quelle mesure le dispositif fait-il preuve d'une efficacité clinique chez la population cible ?
- En quoi les données disponibles étayent-elles chaque affirmation, et quelles sont leurs limites ?
- Pourquoi les données sont-elles suffisantes pour justifier l'usage prévu du dispositif et sa classification en matière de risques ?
- Comment la surveillance post-commercialisation et le suivi des performances après la mise sur le marché permettront-ils de maintenir la confiance dans les performances au fil du temps ?
La finalité visée comme « prisme » pour l'ensemble des éléments de preuve
L'une des raisons les plus courantes pour lesquelles les données de performance deviennent difficiles à justifier est que l'usage prévu est décrit de manière générale, alors que les études portent sur un contexte plus restreint ou différent. Par exemple, un test utilisé chez une population présentant des symptômes se comporte différemment du même test utilisé dans le cadre d'un dépistage. Les variations de prévalence de la maladie, de profil des patients, de valeurs prédictives et de norme de référence peuvent entraîner des comportements différents. Un PER défendable anticipe ces problèmes en démontrant explicitement l'usage prévu et en s'assurant que les données probantes à l'appui correspondent à cet usage.
La validité scientifique en tant qu'argumentation structurée
La validité scientifique est souvent présentée sous la forme d’une liste de références, mais, dans le cadre du règlement IVDR, elle doit prendre la forme d’un argumentaire structuré et raisonné. Elle doit démontrer que l’analyte est étroitement lié à l’affection clinique concernée et que ce lien corrobore l’indication déclarée du dispositif.Les sections les plus solides en matière de validité scientifique s'appuient sur des sources de haute qualité, telles que des recommandations cliniques, des déclarations de consensus et des synthèses évaluées par des pairs, plutôt que de se fonder uniquement sur des études individuelles. Elles clarifient également la pertinence : pourquoi les données probantes s'appliquent à la population et à l'utilisation visées.
Lorsque la validité scientifique est faible ou trop générale, les organismes notifiés se demandent souvent si la destination prévue du dispositif n'est pas trop ambitieuse au regard des données scientifiques disponibles. C'est pourquoi il est utile d'ancrer le raisonnement relatif à la validité scientifique dans des principes reconnus, tels que ceux décrits dans le document MDCG 2022-2.
Performances analytiques et fiabilité en conditions réelles
La performance analytique correspond au moment où la performance se traduit par des résultats mesurables et reproductibles. C'est également le stade où la conception de l'étude doit refléter de manière réaliste les conditions d'utilisation courantes, notamment la variabilité dans le prélèvement et la manipulation des échantillons, les facteurs environnementaux, les effets liés à l'opérateur (le cas échéant), les variations d'un lot à l'autre, les substances potentiellement interférentes et la dérive des instruments au fil du temps. Une procédure d'évaluation de la performance (PER) défendable décrit non seulement les résultats, mais aussi la logique qui relie les protocoles analytiques aux conditions d'utilisation prévues.
Les sections analytiques gagnent également en pertinence lorsqu'elles sont mises en relation avec la gestion des risques et labelling. Si certaines limites existent, par exemple une baisse des performances en présence d'un interférent, la validité de l'argumentation s'en trouve renforcée lorsque le rapport d'évaluation de la performance (PER) explique comment cette limite est gérée (avertissements, instructions d'utilisation, critères d'acceptation, mesures de contrôle qualité).
Les performances cliniques comme test de crédibilité clinique
La performance clinique est le pilier le plus scruté pour de nombreux dispositifs de diagnostic in vitro (IVD), car elle détermine si le résultat d'un test présente une corrélation significative avec un état clinique ou un résultat clinique dans le contexte prévu. Le principal défi réside dans le fait que la performance clinique peut être surévaluée si la conception de l'étude introduit un biais ou si les normes de référence ne sont pas appliquées de manière rigoureuse. C'est pourquoi le contrôle des biais, le choix des critères d'évaluation et la justification des normes de référence sont essentiels pour obtenir des données cliniques défendables.
Lorsque les données sur les performances cliniques portent sur la précision diagnostique, le QUADAS-2 constitue un cadre d'analyse utile ; il s'agit d'un outil couramment utilisé pour évaluer le risque de biais et l'applicabilité dans les études de précision diagnostique. Le QUADAS-2 ne s'intéresse pas à savoir si les résultats sont favorables, mais s'ils sont crédibles. Une vue d'ensemble fiable est disponible via QUADAS-2 (Université de Bristol). Les fabricants ne sont pas tenus de considérer QUADAS-2 comme une exigence réglementaire, mais sa compréhension aide à aligner la présentation des résultats des études sur la manière dont les évaluateurs appréhendent la crédibilité.
Ces considérations revêtent une importance particulière lorsqu'il s'agit de traduire les résultats de performance clinique en conclusions réglementaires défendables, car les choix de conception influencent directement la manière dont les évaluateurs interprètent la crédibilité et l'applicabilité. Une approche structurée de la maîtrise des biais, de la sélection des critères d'évaluation, de la justification des normes de référence et de l'évaluation de l'applicabilité, telle que la méthodologie décrite dans la conception d'une étude de performance clinique, contribue à garantir que les données de performance clinique soient non seulement statistiquement valides, mais aussi cliniquement pertinentes et prêtes à être soumises à l'examen dans le cadre du règlement IVDR.
Concevoir des données probantes sur les performances cliniques qui résistent à l'examen
Les données sur les performances cliniques ne sont défendables que lorsqu'elles sont clairement liées au parcours clinique et à la décision sur laquelle le test permet de se fonder. Un problème récurrent dans les dossiers de performance est que les données sont présentées sans préciser comment le résultat est utilisé. Un test de dépistage n'a pas les mêmes exigences en matière de données qu'un test de triage ; un test de suivi n'a pas les mêmes exigences qu'un test de diagnostic de confirmation.
Une approche défendable commence par clarifier le rôle du test :
- Quelle décision clinique cela permet-il de prendre ?
- Que se passe-t-il si le résultat est positif ou négatif ?
- Quelles sont les conséquences des faux positifs et des faux négatifs ?
- Quels sont les groupes de patients susceptibles d'être testés dans la pratique ?
Une fois ces questions élucidées, les critères d'évaluation des performances deviennent plus faciles à justifier. Les indicateurs de précision diagnostique ne sont pas de simples statistiques : ils traduisent des compromis. On peut privilégier la sensibilité lorsque le fait de passer à côté d'une maladie a des conséquences importantes. On peut privilégier la spécificité lorsque le fait de procéder à une intervention inutile a des conséquences importantes. Les valeurs prédictives prennent une importance capitale dans les contextes à faible prévalence, et une analyse stratifiée des performances peut s'avérer nécessaire pour certains sous-groupes clés si la pratique clinique révèle des différences significatives.
Le contrôle des biais est également essentiel. Si la sélection des patients comprend une proportion disproportionnée de cas à un stade avancé, les performances peuvent sembler artificiellement élevées. Si les normes de référence varient d'un site à l'autre, les résultats peuvent être incohérents. Si le test index est interprété en connaissant la norme de référence, cela peut introduire un biais. Une présentation des données justifiable reconnaît ces risques et explique comment les plans d'étude permettent de les atténuer.
Suffisance des preuves au regard du règlement IVDR : passer de « nous disposons de données » à « cela suffit »
L'un des principaux défis de l'évaluation des performances dans le cadre du règlement IVDR consiste à démontrer la suffisance des données. Les fabricants ont souvent le sentiment que des données exhaustives devraient, par nature, être convaincantes, mais les organismes notifiés évaluent la suffisance sous un angle différent : la cohérence, la pertinence, la qualité et le raisonnement.
La suffisance des preuves est évaluée en fonction du contexte. Parmi les facteurs qui influencent souvent les attentes en matière de suffisance, on peut citer :
- Catégorie de risque et préjudice potentiel lié à des résultats erronés
- Objectif visé et impact clinique des décisions fondées sur les résultats
- La complexité du test et son processus d'interprétation
- Existence d'autres méthodes et normes de soins
- Caractère novateur des revendications relatives à l'analyte ou à l'utilisation envisagée
- L'étendue des populations et des contextes d'utilisation revendiqués
C'est là que le document MDCG 2022-2 s'avère particulièrement utile, car il réaffirme l'idée selon laquelle la suffisance des données doit être justifiée et maintenue dans le cadre d'un processus continu. Il encourage également implicitement les fabricants à faire preuve de transparence quant aux limites et à gérer les incertitudes par le biais de mécanismes structurés de surveillance post-commercialisation.
Un PER défendable comprend généralement une description explicite justifiant la suffisance des données probantes. Cette description explique non seulement quelles sont les données probantes disponibles, mais aussi pourquoi elles sont pertinentes et solides au regard de l’objectif visé. Elle reconnaît les lacunes de ces données et explique comment l’incertitude restante est gérée par le biais d’un PMPF ciblé et d’une surveillance post-commercialisation.
Dans de nombreux examens, la question de la suffisance des données devient beaucoup moins controversée lorsqu’elle est abordée en toute transparence et s’appuie sur une logique réglementaire claire. Lorsque les allégations sont correctement délimitées, que les critères d’évaluation correspondent à l’usage clinique prévu, que les limites sont reconnues et que les enseignements tirés après la mise sur le marché sont intégrés au système de données, le raisonnement relatif à la suffisance des données apparaît cohérent, défendable et proportionné à l’usage prévu et aux risques du dispositif.
Surveillance post-commercialisation et PMPF : garantir la validité des performances dans le temps
L'une des caractéristiques déterminantes du règlement IVDR réside dans l'importance qu'il accorde explicitement aux données relatives au cycle de vie. Les dispositifs ne sont pas évalués uniquement lors de leur mise sur le marché ; ils doivent rester sûrs et performants à mesure que la pratique clinique, les populations et les contextes réels évoluent. C'est pourquoi la surveillance post-commercialisation n'est pas une simple tâche de conformité isolée. Elle fait partie intégrante du système de données qui permet de justifier la performance des dispositifs.
L'apprentissage post-commercialisation peut mettre en évidence des problèmes que les études pré-commercialisation ne permettent pas de prévoir entièrement, tels que les variations de prévalence, les différences entre les populations de patients, les interférences inattendues, la variabilité du comportement des utilisateurs, les variations de performance d'un lot à l'autre et les facteurs opérationnels dans les laboratoires de routine. Un système de données probantes bien établi anticipe ces éléments et utilise des mécanismes post-commercialisation pour détecter et interpréter ces signaux.
Le cadre de surveillance post-commercialisation prévu par l’IVDR comprend une planification structurée de la surveillance post-commercialisation et, le cas échéant, des activités de surveillance post-commercialisation ciblée (PMPF). La PMPF ne se résume pas à la simple réalisation d’« études supplémentaires ». Il s’agit d’une démarche ciblée visant à répondre à des questions spécifiques relatives aux performances qui subsistent après l’évaluation pré-commercialisation, questions pouvant porter sur des sous-groupes cliniques, les pratiques réelles, les tendances à long terme ou l’élargissement des indications.
Les systèmes de données probantes les plus solides tout au long du cycle de vie montrent comment les données post-commercialisation sont prises en compte dans l'évaluation des performances. Cela inclut la manière dont les signaux sont détectés, dont les tendances sont évaluées et dont les conclusions relatives aux performances sont mises à jour dans le rapport d'évaluation des performances prévu par le règlement IVDR. Cette intégration tout au long du cycle de vie est au cœur des systèmes de surveillance post-commercialisation (PMS), de surveillance des performances post-commercialisation (PMPF) et des rapports de sécurité périodiques (PSUR) prévus par le règlement IVDR, où la traçabilité des données probantes devient un modèle de gouvernance concret plutôt qu'un idéal théorique.
Traçabilité : la fonctionnalité qui rend un PER vérifiable et exploitable par l'IA
La traçabilité est l'un des « facteurs de réussite discrets » les plus importants dans le cadre du règlement IVDR. Elle détermine si un évaluateur peut suivre votre raisonnement sans ambiguïté. Elle influe également sur la capacité des outils de recherche basés sur l'IA à extraire et à résumer votre contenu : des liens clairs entre les allégations, les critères d'évaluation, les données probantes et les conclusions améliorent la « capacité à fournir une réponse ».
Un rapport d'évaluation des performances (PER) solide met généralement en évidence la traçabilité dans le corps du texte, et pas seulement dans les tableaux. Il explique :
- L'indication et le parcours clinique
- Les revendications découlant de l'objet visé
- Les critères d'évaluation et les critères d'acceptation découlant des allégations
- Les sources de données sélectionnées pour étayer chaque critère d'évaluation
- La logique d'évaluation utilisée pour pondérer les éléments de preuve
- Les conclusions et les limites découlant de cette évaluation
- Les mécanismes post-commercialisation utilisés pour surveiller et actualiser la confiance dans les performances
Cette approche réduit les frictions liées à l'examen, car elle évite au réviseur d'avoir à combler des « lacunes ». Elle améliore également la gouvernance interne : lorsque les données sont traçables, les mises à jour deviennent plus faciles à gérer. Vous pouvez identifier précisément quelles allégations et quels critères d'évaluation sont concernés par les nouvelles informations et adapter en conséquence les justifications relatives à la suffisance des données.
Les organisations qui intègrent la traçabilité des données probantes dans leurs pratiques plus générales d'évaluation clinique et de performance constatent souvent que les données probantes relatives à la performance gagnent en pérennité au fil du temps. La clé réside dans le fait de considérer la traçabilité comme une caractéristique intrinsèque du système de données probantes, et non comme une simple activité de documentation a posteriori.
Questions fréquentes concernant les organismes notifiés et comment des procédures d'évaluation de la conformité (PER) solidement étayées permettent de les anticiper
Les organismes notifiés posent souvent des questions qui tournent autour de quelques thèmes prévisibles. Un système de preuves de performance solide anticipe ces thèmes et y répond de manière proactive.
Une question fréquemment posée est de savoir si les populations étudiées reflètent l'usage prévu. Des données qui semblent solides dans une population restreinte ne justifient pas nécessairement des conclusions générales. Une autre question courante est de savoir si la norme de référence est appropriée et appliquée de manière cohérente ; des normes de référence incohérentes peuvent nuire à la crédibilité des performances cliniques, même lorsque les résultats semblent positifs. Les évaluateurs se demandent également souvent si les critères d'évaluation reflètent l'utilité clinique, c'est-à-dire si la mesure de performance revêt réellement de l'importance dans le processus décisionnel clinique prévu.
L'utilisation de la littérature constitue un autre aspect. Les organismes notifiés recherchent souvent une évaluation critique, et pas seulement des références bibliographiques. Ils veulent s'assurer que la littérature est pertinente, que ses limites sont bien comprises et que les conclusions ne sont pas exagérées. Cela va dans le sens des principes d'évaluation des données mis en avant dans le document MDCG 2022-2.
Enfin, la planification post-commercialisation fait l'objet d'une attention croissante. En cas d'incertitude (ce qui est presque toujours le cas), les évaluateurs s'attendent à ce qu'un plan adapté soit présenté, décrivant comment la surveillance post-commercialisation et les données de surveillance post-commercialisation (PMPF) permettront de réduire cette incertitude et de confirmer les performances au fil du temps. Lorsque la gestion des données post-commercialisation est cohérente, elle renforce l'ensemble du dossier de mise sur le marché (PER), car elle démontre que la confiance dans les performances est maintenue en permanence, et non pas simplement supposée.
Conclusion
Le cadre réglementaire de l'IVDR de l'UE redéfinit l'évaluation des performances comme une discipline continue, et non comme un simple exercice de documentation ponctuel. Les fabricants doivent démontrer que leurs allégations de performances reposent sur des bases scientifiques solides, sont fiables sur le plan analytique et cliniquement pertinentes, et que ces allégations restent défendables à mesure que les connaissances scientifiques évoluent et que les données issues de la pratique clinique s'accumulent.
Une approche défendable de l'évaluation des performances au titre de l'IVDR repose sur une planification claire, une logique probatoire cohérente et une traçabilité transparente. Le plan d'évaluation des performances établit le fondement méthodologique qui relie la finalité visée aux allégations, aux critères d'évaluation, aux sources de données probatoires et aux méthodes d'évaluation. Le rapport d'évaluation des performances au titre de l'IVDR constitue alors le document qui démontre les performances, justifie la suffisance des données probatoires, reconnaît les limites et explique comment l'incertitude résiduelle est gérée au fil du temps.
L'apprentissage post-commercialisation est l'élément essentiel qui garantit la pérennité des données de performance. Une surveillance post-commercialisation rigoureuse et des activités ciblées de surveillance post-commercialisation (PMPF) transforment l'évaluation des performances en un système dynamique, capable de confirmer les performances en utilisation courante, de détecter des tendances significatives et de permettre, si nécessaire, une mise à jour appropriée des données et des conclusions. Lorsque ces éléments sont intégrés dans une stratégie cohérente de gestion des données tout au long du cycle de vie du dispositif, l'évaluation des performances dépasse le simple cadre de la conformité : elle devient un fondement durable de la confiance dans les résultats diagnostiques et de l'assurance dans la prise de décision clinique.
Comment Freyr peut vous aider
Freyr accompagne les fabricants de dispositifs médicaux de diagnostic in vitro (IVD) end-to-end d'évaluation end-to-end , depuis la définition de l'usage prévu et le renforcement de l'élaboration du plan d'évaluation des performances jusqu'à la rédaction de rapports d'évaluation des performances solides et conformes aux attentes des organismes notifiés. De plus, Freyr aide les fabricants à élaborer des rapports d'évaluation clinique (CER) conformes au règlement MDR ainsi que des systèmes de données cliniques basés sur le cycle de vie, capables de résister à l'examen minutieux des organismes notifiés.
Si vous avez besoin d'aide pour générer des données de performance, concevoir ou évaluer des études, combler les lacunes en matière de données, ou mettre en place un système de données traçable couvrant l'ensemble du cycle de vie et intégrant la surveillance post-commercialisation, les obligations en matière de surveillance post-commercialisation (PMPF) et les rapports de sécurité périodiques (PSUR), n'hésitez pas à contacter nos experts pour bénéficier de conseils à chaque étape du cycle de vie des données dans le cadre du règlement IVDR.

À propos de l'auteur
Le Dr Radhika Ramachandran dirige le Centre d'excellence mondial en rédaction réglementaire médicale (CoE) chez Freyr Inc., où elle élabore des documents et des stratégies réglementaires adaptés aux cadres réglementaires internationaux applicables aux dispositifs médicaux et aux dispositifs de diagnostic in vitro (IVD). Forte de plus de dix ans d'expérience dans les technologies médicales, la recherche clinique et la stratégie réglementaire, elle est spécialisée dans l'élaboration et la révision de documents réglementaires à fort impact, conformes aux normes mondiales, notamment EU MDR le RIVD EU MDR . Elle fournit des conseils stratégiques et des solutions de rédaction réglementaire sur mesure aux entreprises de technologies médicales, en les accompagnant dans leurs demandes d'autorisation et la documentation relative au cycle de vie des produits. Le Dr Radhika est titulaire d'un doctorat en biotechnologie et est rédactrice médicale certifiée, ayant contribué à la rédaction de plus de 1 500 documents réglementaires. Elle se consacre actuellement à l'exploitation de l'intelligence artificielle et de la santé numérique pour transformer la rédaction médicale réglementaire.
Mots-clés du blog
- Règlement européen sur les dispositifs médicaux de diagnostic in vitro (2017/746), évaluation des performances (IVDR), rapport d'évaluation des performances (PER), données cliniques et suffisance des données, attentes des organismes notifiés, PMS / PMPF / PSUR (conformité tout au long du cycle de vie)
Foire aux questions (FAQ)
L'évaluation des performances au titre du règlement européen sur les dispositifs médicaux de diagnostic in vitro (IVDR) consiste en une évaluation scientifique structurée visant à démontrer que les performances analytiques, les performances cliniques et la validité scientifique d'un dispositif de diagnostic in vitro justifient, dans leur ensemble, son utilisation prévue et sa conformité aux exigences générales de sécurité et de performance.
Tous les dispositifs médicaux de diagnostic in vitro ne nécessitent pas le même niveau d'étude de performance. Le règlement IVDR stipule que les données relatives à la performance analytique et clinique doivent être proportionnées à la destination d'utilisation et à la classe de risque du dispositif.
Le document de questions-réponses MDCG 2025-5 apporte des précisions sur les définitions, les types d'études de performance prévues par le règlement IVDR, les critères d'applicabilité, les rôles des investigateurs et les exigences réglementaires.
L'évaluation des performances au titre du règlement IVDR constitue une obligation tout au long du cycle de vie du dispositif. Les données justificatives doivent être conservées et mises à jour à mesure que la pratique clinique évolue.