Che cos'è l'EU AI Act?
L'EU Artificial Intelligence Act (Regolamento UE 2024/1689) è ora in vigore e ridefinisce il modo in cui i dispositivi medici basati sull'IA, in particolare il Software come Dispositivo Medico (SaMD), sono regolamentati in tutta l'Unione Europea. In quanto primo quadro giuridico vincolante al mondo per l'IA, l'Act introduce una struttura a livelli di rischio, che impone requisiti rigorosi per i sistemi ad alto rischio, compresi quelli utilizzati nella diagnostica, nel supporto alle decisioni cliniche e nel monitoraggio dei pazienti.
In Freyr Solutions, integriamo la nostra profonda esperienza nella regolamentazione MDR, IVDR e SaMD con le esigenze in evoluzione dell'AI Act per aiutare i produttori MedTech a raggiungere una conformità End-to-End senza interruzioni, continuando a innovare con fiducia.
L'AI Act + EU MDR: Un Doppio Quadro Normativo
Per i dispositivi medici basati sull'IA, la conformità non è più regolata solo dall'MDR. L'AI Act aggiunge un ulteriore livello normativo, soprattutto quando il sistema di IA influenza gli esiti dei pazienti o il processo decisionale dei medici.
Questa doppia supervisione richiede un nuovo approccio: una strategia di conformità armonizzata che integri sia la documentazione tecnica dell'MDR sia i requisiti specifici dell'IA sotto un unico ombrello normativo. Freyr è specializzata nel fornire questo percorso integrato, semplificando le presentazioni, garantendo la preparazione agli audit e consentendo un tempo di immissione sul mercato più rapido.
Classificazione del Rischio ai sensi dell'EU AI Act
L'AI Act stabilisce quattro livelli di rischio dell'IA, ciascuno con obblighi di conformità distinti. La maggior parte dei SaMD rientra nella categoria ad alto rischio, richiedendo una documentazione solida, test, trasparenza e monitoraggio post-commercializzazione.
Rischio Inaccettabile (IA Proibita)
Questi sono vietati in tutta l'UE:
- Riconoscimento delle emozioni in contesti sanitari o educativi
- Sorveglianza biometrica in tempo reale in ambienti clinici pubblici
- Punteggio sociale nel triage dei pazienti o nella prioritizzazione delle cure
- IA predittiva utilizzata per la valutazione del rischio criminale o comportamentale individuale
- Sfruttamento di gruppi di pazienti vulnerabili tramite IA
Freyr conduce audit di progettazione in fase iniziale per garantire che le funzionalità proibite siano eliminate prima dello sviluppo o del coinvolgimento dell'organismo notificato.
Alto Rischio (Maggioranza dei Dispositivi Medici Basati sull'IA)
La classificazione ad alto rischio include:
- IA diagnostica (ad es. radiologia, patologia)
- Analisi predittiva nelle decisioni terapeutiche
- Strumenti per la pianificazione chirurgica basati sull'IA
- Piattaforme per l'interpretazione dei dati fisiologici
- Moduli di IA nei dispositivi indossabili e impiantabili
Freyr consente la conformità per l'intero ciclo di vita, dalla classificazione e marcatura CE alla trasparenza algoritmica e alla sicurezza informatica.
Rischio di trasparenza
Ciò si applica a:
- Riepiloghi clinici, raccomandazioni o avvisi generati dall'IA
- Interfacce chatbot nella comunicazione con i pazienti
- Qualsiasi output generato dall'IA che influenzi le decisioni sanitarie
Stabiliamo una documentazione chiara e un'etichettatura dell'interfaccia utente in linea con gli obblighi di trasparenza dell'UE.
Rischio minimo o nullo
Gli strumenti di base (ad esempio, l'automazione non clinica) rientrano in questa categoria, tuttavia Freyr garantisce una base di conformità a prova di futuro, in particolare per i sistemi in evoluzione.
Modelli di IA per scopi generali (GPAI) in contesti medici
L'AI Act introduce nuovi obblighi per i dispositivi medici che sfruttano modelli di IA per scopi generali, come i modelli di base, gli LLM o gli algoritmi pre-addestrati. Queste disposizioni entrano in vigore nell'agosto 2025 e sono fondamentali per:
- Piattaforme SaMD costruite su sistemi di classe GPT
- Chatbot medici addestrati su ampi corpus clinici
- Strumenti di riepilogo basati sull'IA nelle cartelle cliniche elettroniche (EHR)
Come Freyr Solutions aiuta i clienti:
- Valutare il rischio sistemico
- Allinearsi al Codice di condotta per i GPAI
- Divulgare i set di dati di addestramento
- Prevenire i pregiudizi, le allucinazioni e la deriva delle prestazioni
Cronologia della conformità: Tappe fondamentali per l'IA nei dispositivi medici
Secondo la pagina della Commissione Europea sull'implementazione dell'AI Act, le seguenti sono le tempistiche
| Tappa fondamentale | Data | Impatto per i dispositivi medici |
|---|---|---|
| Regolamento in vigore | 1° agosto 2024 | Avvio delle attività di preparazione e classificazione |
| Divieto sull'IA proibita | 2 febbraio 2025 | Le funzionalità non consentite devono cessare |
| Regole di trasparenza GPAI | 2 agosto 2025 | Obbligatorio per i modelli di base integrati |
| Piena applicazione dell'AI Act | 2 agosto 2026 | I dispositivi basati sull'IA devono soddisfare tutti i requisiti |
| Conformità dei dispositivi medici ad alto rischio | 2 agosto 2027 | Data finale per la piena integrazione di MDR + AI Act |
Freyr supporta la pianificazione normativa allineata a queste fasi, riducendo al minimo le interruzioni operative.
Servizi Completi per l'EU AI Act Necessari per la Conformità
Per conformarsi pienamente all'EU AI Act, i produttori di dispositivi medici basati sull'IA devono affrontare un'ampia gamma di requisiti tecnici, normativi e operativi. Questi includono:
- Classificazione e giustificazione del rischio dei sistemi di IA
- Governance dei dati (rappresentatività, qualità, controllo dei bias)
- Validazione degli algoritmi e valutazione clinica
- Documentazione tecnica (allineata a MDR + AI Act)
- Progettazione del meccanismo di supervisione umana
- Protocolli di cybersecurity e robustezza
- Coordinamento della valutazione della conformità con gli organismi notificati
- Requisiti di trasparenza e divulgazione dell'IA
- Marcatura CE per i dispositivi basati sull'IA
- Sorveglianza post-commercializzazione per i rischi specifici dell'IA
- Segnalazione degli incidenti e monitoraggio del ciclo di vita
- Analisi dei rischi GPAI e implementazione del codice di condotta
- Preparazione degli audit e rapporti con le autorità di regolamentazione
- Etichettatura e adeguamenti dell'interfaccia utente per gli output dell'IA
- Formazione per il team normativo interno, QA e di sviluppo

Supporto normativo di Freyr Solutions per l'intero ciclo di vita dell'AI Act
Freyr Solutions offre un supporto normativo completo, specificamente studiato per l'intero ambito dell'AI Act dell'UE e integrato perfettamente con i quadri normativi MDR e IVDR. Il nostro approccio si basa sull'allineamento della conformità con l'innovazione, garantendo che i dispositivi medici basati sull'IA raggiungano il mercato più velocemente, in modo più sicuro e pienamente preparati per il controllo normativo.
Supportiamo le organizzazioni in ogni fase del ciclo di vita del prodotto, dalla pianificazione iniziale alla sorveglianza post-commercializzazione, con servizi che includono, ma non si limitano a:
Classificazione del rischio dell'IA e mappatura dei casi d'uso
Determinazione del livello di rischio del sistema ai sensi dell'AI Act e allineamento con i percorsi di classificazione MDR per i dispositivi medici e SaMD.Strategia normativa e progettazione della roadmap
Pianificazione completa che collega gli obblighi dell'AI Act, MDR e IVDR, fornendo un modello di conformità unificato.Documentazione tecnica e trasparenza algoritmica
Preparazione della documentazione specifica per l'IA, inclusi i parametri di prestazione, i protocolli di spiegabilità e la tracciabilità dei dati, allineata ai requisiti dell'Allegato II dell'MDR e dell'AI Act.Governance dei dati e mitigazione dei pregiudizi
Garantire l'integrità, l'equità e la rappresentatività del set di dati, elementi cruciali per la sicurezza dell'IA, la validità clinica e l'accettabilità post-commercializzazione.
Marcatura CE e supporto alla valutazione della conformità
Integrazione dei risultati dell'AI Act con le valutazioni di conformità MDR esistenti e le interazioni con gli organismi notificati.Progettazione di meccanismi di supervisione umana
Implementazione di quadri operativi per garantire che i medici mantengano il controllo degli output generati dall'IA, soddisfacendo gli standard di governance incentrati sull'uomo.Sorveglianza post-commercializzazione per i dispositivi abilitati all'IA
Definizione di quadri di monitoraggio per rilevare la deriva algoritmica, il degrado delle prestazioni e i fattori scatenanti di incidenti specifici per i sistemi adattivi o di apprendimento.Sicurezza informatica, robustezza e resilienza del modello
Implementazione di controlli per mitigare il rischio avversario, garantire la robustezza del modello e supportare la sicurezza negli ambienti clinici.
Trasparenza dell'IA e strategia di comunicazione con l'utente
Etichettatura, divulgazioni e informazioni rivolte ai pazienti, adattate per conformarsi agli obblighi di trasparenza dell'AI Act.Governance per l'integrazione di IA per scopi generali
Valutazioni del rischio e documentazione per SaMD che integrano modelli di base, inclusa l'armonizzazione con il Codice di condotta e la mitigazione del rischio sistemico.Preparazione all'audit e collaborazione con l'Ufficio AI dell'UE
Supporto consultivo e documentale per ispezioni, revisioni e interazioni formali con le autorità di regolamentazione e l'Ufficio AI.Abilitazione interfunzionale e formazione interna
Supporto ai team RA, QA, R&D e di leadership tramite moduli di apprendimento personalizzati e briefing di intelligence normativa.
I servizi di Freyr sono progettati per crescere con la vostra innovazione, garantendo che, sia che stiate lanciando il vostro primo dispositivo abilitato all'IA o espandendovi nei mercati globali, la vostra infrastruttura normativa sia robusta, pronta per il futuro e allineata con l'ecosistema AI in evoluzione nel settore sanitario.