Co to jest EU AI Act?
The Ustawa o sztucznej inteligencji UE (Rozporządzenie UE 2024/1689) weszła w życie i na nowo definiuje sposób regulacji wyrobów medycznych opartych na sztucznej inteligencji, w szczególności oprogramowania jako wyrobu medycznego (SaMD), w całej Unii Europejskiej. Jako pierwsze na świecie prawnie wiążące ramy dla sztucznej inteligencji, ustawa wprowadza strukturę opartą na poziomach ryzyka, nakładając surowe wymagania na systemy wysokiego ryzyka, w tym te stosowane w diagnostyce, wspomaganiu decyzji klinicznych i monitorowaniu pacjentów.
W Freyr Solutions integrujemy nasze głębokie doświadczenie w regulacjach MDR, IVDR i SaMD z ewoluującymi wymaganiami AI Act, aby pomóc producentom technologii medycznych osiągnąć płynną, End-to-End zgodność, jednocześnie kontynuując innowacje z pewnością.
AI Act + EU MDR: Podwójne ramy regulacyjne
W przypadku wyrobów medycznych opartych na sztucznej inteligencji zgodność nie jest już regulowana wyłącznie przez EU MDR. AI Act dodaje dodatkową warstwę regulacyjną, zwłaszcza gdy system AI wpływa na wyniki leczenia pacjentów lub podejmowanie decyzji przez klinicystów.
Ten podwójny nadzór wymaga nowego podejścia: zharmonizowanej strategii zgodności, która integruje zarówno dokumentację techniczną EU MDR, jak i wymagania specyficzne dla AI pod jednym parasolem regulacyjnym. Freyr specjalizuje się w dostarczaniu tej zintegrowanej ścieżki, usprawniając zgłoszenia, zapewniając gotowość do audytu i umożliwiając szybsze wprowadzenie na rynek.
Klasyfikacja ryzyka w ramach EU AI Act
AI Act ustanawia cztery poziomy ryzyka AI, z których każdy wiąże się z odrębnymi obowiązkami w zakresie zgodności. Większość SaMDów zalicza się do kategorii wysokiego ryzyka, co wymaga solidnej dokumentacji, testowania, przejrzystości i monitorowania po wprowadzeniu na rynek.
Niedopuszczalne ryzyko (Zakazana sztuczna inteligencja)
Są one zakazane w całej UE:
- Rozpoznawanie emocji w placówkach opieki zdrowotnej lub edukacyjnych
- Biometryczny nadzór w czasie rzeczywistym w publicznych środowiskach klinicznych
- Punktacja społeczna w segregacji pacjentów lub priorytetyzacji opieki
- Predykcyjna sztuczna inteligencja wykorzystywana do oceny indywidualnego ryzyka przestępczego lub behawioralnego
- Wykorzystywanie wrażliwych grup pacjentów za pośrednictwem sztucznej inteligencji
Freyr przeprowadza audyty projektowe w początkowej fazie, aby upewnić się, że zakazane funkcjonalności zostaną wyeliminowane przed rozpoczęciem rozwoju lub zaangażowaniem jednostki notyfikowanej.
Wysokie ryzyko (Większość wyrobów medycznych opartych na sztucznej inteligencji)
Klasyfikacja wysokiego ryzyka obejmuje:
- Diagnostyczna sztuczna inteligencja (np. radiologia, patologia)
- Analityka predykcyjna w podejmowaniu decyzji dotyczących leczenia
- Narzędzia do planowania operacji wspomagane sztuczną inteligencją
- Platformy do interpretacji danych fizjologicznych
- Moduły sztucznej inteligencji w urządzeniach noszonych i implantowalnych
Freyr zapewnia zgodność przez cały cykl życia produktu, od klasyfikacji i oznakowania CE po przejrzystość algorytmiczną i cyberbezpieczeństwo.
Ryzyko przejrzystości
Dotyczy to:
- Generowane przez sztuczną inteligencję podsumowania kliniczne, rekomendacje lub alerty
- Interfejsy chatbot w komunikacji z pacjentem
- Wszelkie dane wyjściowe generowane przez sztuczną inteligencję wpływające na decyzje dotyczące opieki zdrowotnej
Ustanawiamy jasną dokumentację i etykietowanie interfejsu użytkownika zgodne z unijnymi obowiązkami w zakresie przejrzystości.
Minimalne lub zerowe ryzyko
Podstawowe narzędzia (np. automatyzacja niekliniczna) należą do tej kategorii, jednak Freyr zapewnia fundament zgodności odporny na przyszłe zmiany, szczególnie dla ewoluujących systemów.
Modele sztucznej inteligencji ogólnego przeznaczenia (GPAI) w kontekstach medycznych
Ustawa o sztucznej inteligencji wprowadza nowe obowiązki dla wyrobów medycznych wykorzystujących ogólne modele sztucznej inteligencji, takie jak modele podstawowe, duże modele językowe (LLM) lub wstępnie wytrenowane algorytmy. Przepisy te wchodzą w życie w sierpniu 2025 roku i są kluczowe dla:
- Platformy SaMD oparte na systemach klasy GPT
- Medyczne chatboty szkolone na obszernych zbiorach danych klinicznych
- Narzędzia AI do podsumowywania w elektronicznych kartach zdrowia (EHR)
Jak Freyr Solutions pomaga klientom:
- Ocena ryzyka systemowego
- Zgodność z Kodeksem Postępowania dla GPAI
- Ujawnianie zbiorów danych treningowych
- Zapobieganie stronniczości, halucynacjom i dryfowi wydajności
Oś czasu zgodności: Kluczowe etapy dla AI w wyrobach medycznych
Zgodnie ze stroną Komisji Europejskiej dotyczącą wdrażania Ustawy o sztucznej inteligencji, poniżej przedstawiono harmonogramy
| Kluczowy etap | Data | Wpływ na wyroby medyczne |
|---|---|---|
| Rozporządzenie wchodzi w życie | 1 sierpnia 2024 | Rozpoczęcie działań przygotowawczych i klasyfikacyjnych |
| Zakaz stosowania zakazanej AI | 2 lutego 2025 | Należy zaprzestać wszelkich niedozwolonych funkcjonalności |
| Zasady przejrzystości dla GPAI | 2 sierpnia 2025 | Wymagane dla wbudowanych modeli podstawowych |
| Pełne zastosowanie Ustawy o sztucznej inteligencji | 2 sierpnia 2026 | Urządzenia oparte na sztucznej inteligencji muszą spełniać wszystkie wymagania |
| Zgodność wyrobów medycznych wysokiego ryzyka | 2 sierpnia 2027 | Ostateczny termin pełnej integracji MDR + AI Act |
Freyr wspiera planowanie regulacyjne dostosowane do tych faz, minimalizując zakłócenia operacyjne.
Kompleksowe Usługi Związane z Aktem UE w sprawie AI Wymagane do Zgodności
Aby w pełni przestrzegać unijnej ustawy o sztucznej inteligencji, producenci wyrobów medycznych zasilanych sztuczną inteligencją muszą sprostać szerokiemu spektrum wymagań technicznych, regulacyjnych i operacyjnych. Obejmują one:
- Klasyfikacja ryzyka i uzasadnienie dla systemów AI
- Zarządzanie danymi (reprezentatywność, jakość, kontrola stronniczości)
- Walidacja algorytmów i ocena kliniczna
- Dokumentacja techniczna (zgodna z MDR + AI Act)
- Projektowanie mechanizmów nadzoru ludzkiego
- Protokoły cyberbezpieczeństwa i odporności
- Koordynacja oceny zgodności z jednostkami notyfikowanymi
- Przejrzystość AI i wymagania dotyczące ujawniania informacji
- Oznakowanie CE dla urządzeń opartych na AI
- Nadzór po wprowadzeniu do obrotu dla ryzyka specyficznego dla AI
- Zgłaszanie incydentów i monitorowanie cyklu życia
- Analiza ryzyka GPAI i wdrożenie kodeksu postępowania
- Przygotowanie do audytu i kontakt z organami regulacyjnymi
- Etykietowanie i dostosowania interfejsu użytkownika dla wyników AI
- Szkolenia dla wewnętrznego zespołu regulacyjnego, QA i rozwoju

Wsparcie regulacyjne Freyr Solutions w całym cyklu życia ustawy o AI
Freyr Solutions oferuje kompleksowe wsparcie regulacyjne dostosowane do pełnego zakresu unijnej ustawy o AI, bezproblemowo zintegrowane z ramami MDR i IVDR. Nasze podejście opiera się na łączeniu zgodności z innowacjami, zapewniając, że wyroby medyczne oparte na AI trafiają na rynek szybciej, bezpieczniej i są w pełni przygotowane na kontrolę regulacyjną.
Wspieramy organizacje na każdym etapie cyklu życia produktu, od wczesnego etapu planowania po nadzór po wprowadzeniu do obrotu, z usługami obejmującymi między innymi:
Klasyfikacja ryzyka AI i mapowanie przypadków użycia
Określanie poziomu ryzyka systemu zgodnie z ustawą o AI i dostosowanie do ścieżek klasyfikacji MDR dla wyrobów medycznych i SaMD.Strategia regulacyjna i projektowanie mapy drogowej
Kompleksowe planowanie, które łączy obowiązki wynikające z ustawy o sztucznej inteligencji (AI Act), MDR i IVDR, zapewniając ujednolicony model zgodności.Dokumentacja Techniczna i Przejrzystość Algorytmiczna
Przygotowanie dokumentacji specyficznej dla sztucznej inteligencji, w tym metryk wydajności, protokołów wyjaśnialności i identyfikowalności danych, zgodnej zarówno z załącznikiem II MDR, jak i wymogami AI Act.Zarządzanie Danymi i Łagodzenie Uprzedzeń
Zapewnienie integralności, uczciwości i reprezentatywności zbiorów danych, kluczowe dla bezpieczeństwa sztucznej inteligencji, ważności klinicznej i akceptowalności po wprowadzeniu na rynek.
Wsparcie w zakresie Oznakowania CE i Oceny Zgodności
Integracja wyników AI Act z istniejącymi ocenami zgodności MDR i interakcjami z jednostkami notyfikowanymi.Projektowanie Mechanizmów Nadzoru Człowieka
Wdrażanie ram operacyjnych w celu zapewnienia, że klinicyści zachowują kontrolę nad wynikami generowanymi przez sztuczną inteligencję, spełniając standardy zarządzania skoncentrowane na człowieku.Nadzór po wprowadzeniu do obrotu dla urządzeń wspomaganych sztuczną inteligencją
Ustanawianie ram monitorowania w celu wykrywania dryfu algorytmicznego, spadku wydajności i czynników wywołujących incydenty, specyficznych dla systemów adaptacyjnych lub uczących się.Cyberbezpieczeństwo, Niezawodność i Odporność Modeli
Wdrażanie kontroli w celu łagodzenia ryzyka ataków, zapewnienia niezawodności modeli i wspierania bezpieczeństwa w środowiskach klinicznych.
Przejrzystość AI i Strategia Komunikacji z Użytkownikiem
Etykietowanie, ujawnianie informacji i informacje dla pacjentów, dostosowane do wymogów przejrzystości AI Act.Zarządzanie Integracją AI Ogólnego Przeznaczenia
Oceny ryzyka i dokumentacja dla SaMD integrujących modele podstawowe, w tym zgodność z Kodeksem Postępowania i łagodzenie ryzyka systemowego.Gotowość do Audytu i Współpraca z Biurem UE ds. AI
Wsparcie doradcze i dokumentacyjne w zakresie inspekcji, przeglądów i formalnych interakcji z organami regulacyjnymi i Biurem ds. AI.Wsparcie Międzyfunkcyjne i Szkolenia Wewnętrzne
Wspieranie zespołów RA, QA, R&D i kierownictwa poprzez dostosowane moduły szkoleniowe i briefingi dotyczące informacji regulacyjnych.
Usługi Freyr są zaprojektowane tak, aby rozwijać się wraz z Twoimi innowacjami, zapewniając, że niezależnie od tego, czy wprowadzasz na rynek swoje pierwsze urządzenie z obsługą AI, czy rozszerzasz działalność na rynki globalne, Twoja infrastruktura regulacyjna jest solidna, gotowa na przyszłość i zgodna z ewoluującym ekosystemem AI w opiece zdrowotnej.