Akt UE w sprawie sztucznej inteligencji i sztuczna inteligencja wysokiego ryzyka w wyrobach medycznych: Przygotowanie do zgodności, konkurowanie o przyszłość
6 min czytania

Sztuczna Inteligencja nie jest już tylko przewagą technologiczną w branży wyrobów medycznych — staje się regulowaną funkcją zaufania, odpowiedzialności i wydajności. Europa wyznaczyła wyraźną granicę między postępem technologicznym a odpowiedzialnością, przyjmując formalny akt prawny UE dotyczący sztucznej inteligencji w dniu 1 sierpnia 2024 r.

Nowe prawodawstwo dostarcza producentom wyrobów medycznych, w szczególności tym pracującym z oprogramowaniem jako wyrobem medycznym (SaMD) opartym na sztucznej inteligencji, zarówno wymogów regulacyjnych, jak i wskaźników rynkowych.

Akt UE w sprawie AI: Nowy Paradygmat Regulacyjny

Ustawa ustanawia nowe standardy dla rozwoju, oceny i monitorowania operacji AI na terytorium Unii Europejskiej poprzez swoje kompleksowe środki. Wszyscy twórcy rozwiązań AI dążący na rynek Unii Europejskiej muszą zrozumieć, że przesłanie dotyczące wdrażania AI pozostaje jasne i zwięzłe. System regulacyjny określa, że każdy system wpływający na diagnozę w opiece zdrowotnej, leczenie pacjentów lub zdrowie musi zostać zakwalifikowany jako system wysokiego ryzyka.

Zrozumienie istoty aktu UE w sprawie sztucznej inteligencji: opartego na ryzyku, specyficznego dla sektora, ukierunkowanego na wpływ

Akt o sztucznej inteligencji UE integruje model klasyfikacji oparty na ryzyku, który tworzy trzy kategorie: Praktyki Zakazane, Systemy AI Wysokiego Ryzyka i Systemy Ograniczonego Ryzyka. Medyczna AI prawie zawsze zalicza się do kategorii Wysokiego Ryzyka, szczególnie na podstawie artykułu 6 ust. 1 lit. b), który domyślnie klasyfikuje każdy komponent AI wyrobu medycznego wymagający oceny przez jednostkę notyfikowaną jako wysokiego ryzyka.

Systemy AI do diagnostyki, planowania terapii, wspomagania decyzji klinicznych i zdalnego monitorowania – wszystkie mieszczą się w tej kategorii wysokiego ryzyka. Obejmuje to te, które wykorzystują:

  • Modele Uczenia Maszynowego (ML)
  • Algorytmy głębokiego uczenia.
  • Sieci neuronowe lub klasyfikatory statystyczne
  • Oprogramowanie predykcyjne lub do rozpoznawania wzorców wbudowane w wyroby medyczne

Kluczowe wymagania dla producentów zgodnie z unijną ustawą o sztucznej inteligencji:

Wdrożenie kluczowych wymogów technicznych w ramach Systemu Zarządzania Jakością wymaga uwagi producentów w celu skutecznego zapewnienia zgodności.

  • Zarządzanie ryzykiem (Artykuł 9):
    Producenci powinni tworzyć i utrzymywać zorganizowane strategie zarządzania ryzykiem związanym ze sztuczną inteligencją (AI), ponieważ pomagają one rozwiązywać problemy niestabilności modeli wynikającej z uprzedzeń algorytmicznych, naruszenia systemów bezpieczeństwa oraz inne kwestie związane z uprzedzeniami algorytmicznymi. Ponadto, zgodnie z normą IEC 62304, bardzo ważnym krokiem jest klasyfikacja bezpieczeństwa oprogramowania. Każdy element oprogramowania musi być sklasyfikowany jako Klasa A, B lub C, w zależności od ryzyka. Ta klasyfikacja określa zakres wymaganych działań przez cały cykl życia oprogramowania. Ważne jest, aby uwzględnić tę klasyfikację już na wczesnych etapach projektowania i oceny ryzyka.
  • Zarządzanie danymi (Artykuł 10):
    Producenci powinni wybierać wysokiej jakości zbiory danych wraz z reprezentatywnymi próbkami i możliwymi do opisywania, bezstronnymi informacjami do wyboru zbiorów danych, między innymi kryteriami.
  • Dokumentacja techniczna (Artykuł 11):
    Zorganizuj aktywny system dokumentacji, aby wyświetlać kompletne informacje o strukturze systemu AI wraz z pomiarami wydajności, kontrolami operacyjnymi i komponentami bezpieczeństwa. Zgodnie z normą IEC 82304, specyfikacja wymagań bezpieczeństwa produktu musi być również uwzględniona na etapie finalizacji wymagań. Dokument ten określa podstawowe potrzeby w zakresie bezpieczeństwa, ochrony i użyteczności i powinien być traktowany jako kluczowy rezultat.
  • Przejrzystość i wyjaśnialność (Artykuł 13):
    Użytkownicy muszą otrzymywać dostępne opisy logiki systemu AI, które wyjaśniają zarówno możliwości operacyjne, jak i granice systemu, wraz z uzasadnieniem jego procesów decyzyjnych.
  • Nadzór człowieka (Artykuł 14):
    Przeszkoleni specjaliści mogą stosować autoryzowane procedury, aby zapobiec negatywnym skutkom automatycznych decyzji, zachowując jednocześnie kontrolę operacyjną dzięki tym procedurom.
  • Rejestrowanie i identyfikowalność (Artykuł 12):
    Dane wejściowe systemu wraz z danymi wyjściowymi i zapisami drzewa decyzyjnego powinny być w pełni rejestrowane, zwłaszcza podczas wdrożenia klinicznego, na potrzeby działań nadzoru po wprowadzeniu do obrotu.
  • Monitorowanie po wprowadzeniu na rynek (Artykuł 72):
    Należy wdrożyć wytyczne do ciągłego mierzenia wydajności systemu AI po jego komercyjnym wdrożeniu. System powinien wykorzystywać rzeczywiste analizy faktycznej wydajności operacyjnej w celu integracji opinii użytkowników i optymalizacji systemów kontroli ryzyka. Ponadto norma IEC 62304 wymaga udokumentowanego planu konserwacji oprogramowania. Plan ten musi określać, w jaki sposób zarządzane i walidowane są anomalie oprogramowania po wydaniu, poprawki i aktualizacje. Działania konserwacyjne powinny być zgodne z długoterminowymi praktykami monitorowania.
  • Oznakowanie CE i rejestracja (Artykuł 17):
    Przy nakładaniu znaku CE na medyczne urządzenia AI muszą one spełniać wymagania zarówno Rozporządzenia w sprawie wyrobów medycznych (MDR 2017/745) lub Rozporządzenia w sprawie wyrobów medycznych do diagnostyki in vitro (IVDR 2017/746), jak i unijnej ustawy o sztucznej inteligencji.

Więcej niż regulacje: Kompleksowa przebudowa cyklu życia

Transformacja wykracza poza wymogi regulacyjne, ponieważ wymaga całkowitego przeprojektowania procesu rozwoju cyklu życia systemu AI, od jego stworzenia po utrzymanie. Doskonałość wydajności technicznej ustępuje miejsca stałemu nadzorowi regulacyjnemu i monitorowaniu standardów etycznych.

Zgodnie z zasadami IEC 62304, formalny Proces Rozwiązywania Problemów Oprogramowania jest wymagany przez cały cykl życia. Producenci muszą określić procedury identyfikacji, dokumentowania, analizowania i rozwiązywania anomalii oprogramowania. Powinno to być wdrożone na każdym etapie kontroli jakości, zwłaszcza po weryfikacji.


Zarządzanie SOUP (oprogramowaniem nieznanego pochodzenia) jest również obowiązkowe. Każdy komponent SOUP musi zostać zidentyfikowany, oceniony pod kątem ryzyka i kontrolowany poprzez przeglądy dokumentacji projektowej i architektonicznej. Zapewnia to, że zależności zewnętrzne są bezpieczne i odpowiednio zarządzane.


Ponadto, norma IEC 82304 podkreśla zdefiniowane procesy instalacji, zarządzania konfiguracją i wycofania systemu z eksploatacji. Muszą one zostać zatwierdzone i udokumentowane w późnej fazie rozwoju, przed wprowadzeniem na rynek. Proces ograniczania ryzyka cyberbezpieczeństwa musi być również zintegrowany z SDLC i weryfikowany na każdym etapie cyklu życia.

Przyjęcie AI w Europie: Krajobraz 2024 roku

Raport Eurostatu z 2024 roku dotyczący wykorzystania sztucznej inteligencji w europejskich przedsiębiorstwach na podstawie danych zdalnych pokazuje rosnący trend wdrażania sztucznej inteligencji w europejskich firmach w 2024 roku:

  • 41,2% dużych przedsiębiorstw obecnie korzysta ze sztucznej inteligencji.
  • 34,1% przedsiębiorstw odnosi korzyści w działaniach marketingowych i sprzedażowych.
  • 27,5% korzyści w działalności operacyjnej.
  • 6.1% korzyści w logistyce.

Luka w adaptacji sztucznej inteligencji jest widoczna między dużymi a mniejszymi przedsiębiorstwami:

  • Technologia AI jest stosowana w bezpieczeństwie ICT przez 46,4% dużych przedsiębiorstw, ale tylko 17,2% małych firm używa jej w tym celu.
  • Znaczący odsetek 34,7% dużych przedsiębiorstw wykorzystuje AI w procesach produkcyjnych w porównaniu z mniejszymi firmami, gdzie wykorzystanie AI wynosi 21,6%.
  • Wdrożenie sztucznej inteligencji w przemyśle wiąże się zarówno z korzyściami, jak i trudnościami, ponieważ 13,5% firm z UE obecnie stosuje technologie AI.

 Dane te ukazują podwójną rzeczywistość – z jednej strony sztuczna inteligencja (AI) już zmienia kluczowe funkcje biznesowe; z drugiej strony istnieje znacząca luka w skalowaniu wdrożeń, szczególnie w regulowanych dziedzinach, takich jak opieka zdrowotna, gdzie zaufanie i bezpieczeństwo są warunkami wstępnymi wzrostu.

Europa nie tylko reguluje – inwestuje również w rozwój godnej zaufania sztucznej inteligencji

W przeciwieństwie do wcześniejszych fal transformacji cyfrowej, podejście UE do sztucznej inteligencji (AI) łączy politykę z proaktywnymi inwestycjami.

A raport Europarl potwierdza, że innowacje w dziedzinie sztucznej inteligencji muszą zostać przyspieszone, ale nie kosztem bezpieczeństwa pacjentów ani nadzoru etycznego.

  • 1,8 miliarda dolarów wsparcia finansowego dla europejskich startupów AI (2023)
  • UE otrzymuje zaledwie 6% globalnego kapitału wysokiego ryzyka w dziedzinie AI, przy czym inwestycje są czterokrotnie niższe niż w US.

Inicjatywy finansowania obejmują:

  • Program Cyfrowa Europa: 1,3 miliarda euro (2025–2027) na ośrodki testowe i centra rozwoju umiejętności.
  • InvestAI: Część strategii Cyfrowej Dekady, mającej na celu gromadzenie 200 miliardów euro dla:
    • Fabryki AI
    • Usługi chmurowe
    • Transgraniczne sieci innowacji

Instytucje UE tworzą sprzyjające środowisko poprzez zmiany regulacyjne, które umożliwiają etyczne systemy AI, klinicznie wiarygodne i skalowalne dla producentów SaMD.

Co to oznacza dla firm produkujących wyroby medyczne

Przepisy Aktu o sztucznej inteligencji UE, wraz z ich kluczowymi implikacjami biznesowymi, przedstawiają dwa główne punkty, którymi muszą zająć się producenci wyrobów medycznych.

Te punkty są dodatkowo wzmocnione, gdy są zgodne z normami IEC 62304 i IEC 82304, które zapewniają strukturę, rygor klasyfikacji, ciągłość po wydaniu i zarządzanie bezpieczeństwem w całym cyklu życia oprogramowania.

Przygotuj się na zgodność przed wprowadzeniem na rynek

  • Przeprowadzenie analizy luk w zakresie AI Act
  • Zaktualizować pliki techniczne, RMFy i SOPy
  • Wprowadź mechanizmy identyfikowalności już na etapie projektowania
  • Wczesne nawiązanie kontaktu z jednostkami notyfikowanymi w celu wstępnej oceny
  • Plan długoterminowego nadzoru po wprowadzeniu do obrotu z pętlami sprzężenia zwrotnego

Przekształć zgodność w przewagę konkurencyjną

  • Firmy, które przodują w zgodności z przepisami, przodują również w zaufaniu i udziale w rynku
  • Zbuduj QMS zgodny z AI Act już od fazy koncepcyjnej
  • Pozycjonowanie przejrzystości i możliwości audytu jako wyróżników rynkowych.
  • Wykorzystaj zgodność z oznaczeniem CE + AI jako symbol zaufania.

Często Zadawane Pytania (FAQ) dotyczące unijnego aktu o sztucznej inteligencji dla wyrobów medycznych

Aby pomóc producentom wyrobów medycznych poruszać się w zmieniającym się środowisku zgodności, przedstawiamy niektóre z najczęściej zadawanych pytań:

  1. Czym jest unijna ustawa o sztucznej inteligencji (EU AI Act) i jak wpływa na producentów wyrobów medycznych?
    Unijna ustawa o sztucznej inteligencji (EU AI Act) to pierwszy na świecie kompleksowy system regulacji sztucznej inteligencji. Nakłada ona obowiązkowe wymagania dotyczące zarządzania ryzykiem, zarządzania danymi, nadzoru ludzkiego i nadzoru po wprowadzeniu do obrotu, zwłaszcza w przypadku wysokiego ryzyka medycznej sztucznej inteligencji, takiej jak narzędzia diagnostyczne i oprogramowanie wspomagające podejmowanie decyzji klinicznych.
  2. Które systemy sztucznej inteligencji w wyrobach medycznych są klasyfikowane jako wysokiego ryzyka zgodnie z unijną ustawą o sztucznej inteligencji?
    Każdy system sztucznej inteligencji wykorzystywany w diagnostyce, planowaniu terapii lub monitorowaniu pacjenta jest uważany za wysokiego ryzyka. Obejmuje to SaMD oparte na uczeniu maszynowym, modele głębokiego uczenia i narzędzia AI, które wpływają na decyzje lub wyniki zdrowotne.
  3. Jakie są kluczowe wymagania dotyczące zgodności dla wyrobów medycznych zasilanych sztuczną inteligencją zgodnie z unijną ustawą o sztucznej inteligencji?
    Producenci muszą zapewnić:
    • Identyfikowalność danych wejściowych i wyjściowych
    • Solidną jakość danych i zarządzanie nimi
    • Mechanizmy nadzoru człowieka
    • Pełną dokumentację techniczną
    • Oznakowanie CE zgodnie ze standardami MDR/IVDR i ustawy o sztucznej inteligencji
  4. Jak akt UE w sprawie sztucznej inteligencji odnosi się do MDR (2017/745) i IVDR (2017/746)?
     

    Akt o sztucznej inteligencji UE opiera się na MDR/IVDR poprzez nakładanie wymagań specyficznych dla AI, takich jak wyjaśnialność, przejrzystość algorytmów i kontrola ryzyka. Wszystkie urządzenia zasilane AI muszą spełniać podwójną zgodność – tradycyjne zasady dotyczące wyrobów medycznych i nowe standardy AI.

    Liderzy rynku traktują unijne rozporządzenie w sprawie sztucznej inteligencji nie jako przeszkodę, lecz jako plan budowania zaufanych, wysokowydajnych technologii medycznych. Wdrażają zgodność na poziomie architektury i wykorzystują ją do kształtowania strategii, marketingu i pozycjonowania marki.

    Firmy zajmujące się wyrobami medycznymi muszą wdrożyć gotowość do Ustawy o sztucznej inteligencji (AI Act) w całym swoim ekosystemie produktów i zgodności, aby zyskać przewagę konkurencyjną. Skontaktuj się z nami już dziś, aby dostosować swoje innowacje do wymogów zgodności i przekształcić gotowość regulacyjną w przewagę konkurencyjną.

 

Subskrybuj blog Freyr

Polityka prywatności