Postęp technologiczny jest obecnie integralną częścią opieki zdrowotnej, a algorytmy sztucznej inteligencji (AI), wraz z innymi aplikacjami opartymi na AI, wspierają pracowników medycznych w warunkach klinicznych. Oprogramowanie jako wyrób medyczny (SaMD) oparte na uczeniu maszynowym (ML) pomaga lekarzom w podejmowaniu decyzji dla lepszej opieki nad pacjentem. Ministerstwo Bezpieczeństwa Żywności i Leków Korei Południowej (MFDS) posiada wytyczne dotyczące regulowania i monitorowania stosowania wyrobów medycznych opartych na AI i Big Data. Wytyczne te podkreślają kryteria identyfikacji i klasyfikacji SaMD opartego na AI, uwagi dotyczące przeglądu i proces zatwierdzania.
Według MFDS, to, czy oprogramowanie AI jest wyrobem medycznym, czy nie, jest ustalane na podstawie jego przeznaczenia, zagrożenia, jakie może spowodować, gdy nie działa zgodnie z przeznaczeniem, oraz czy oprogramowanie gwarantuje ocenę kliniczną pracownika medycznego. Ponadto MFDS określa również, które oprogramowanie medyczne może zaliczać się do kategorii wyrobów medycznych, a które nie. Oto krótkie porównanie.
Oprogramowanie medyczne, które kwalifikuje się jako wyrób medyczny | Oprogramowanie medyczne, które nie kwalifikuje się jako wyrób medyczny |
|
|
W Korei Południowej kryteria klasyfikacji algorytmów AI są zgodne z klasyfikacją wyrobów medycznych i są podzielone na cztery (04) klasy ryzyka. Producenci muszą przedstawić specyfikacje techniczne, w tym informacje dotyczące środowiska operacyjnego serwera chmurowego, typu usługi chmurowej, standardu bezpieczeństwa itp. Specyfikacje techniczne są walidowane na podstawie czułości, swoistości, wartości predykcyjnej dodatniej, wartości predykcyjnej ujemnej, krzywej charakterystyki operacyjnej odbiornika (ROC) oraz pola pod krzywą (AUC) urządzenia programowego.
Producenci są również zobowiązani do przedłożenia „Dokumentu dotyczącego zasad działania” określającego algorytm diagnostyczny oraz wyjaśnienie technologii przetwarzania w chmurze zastosowanej w urządzeniu. Producenci muszą również przedłożyć „Raportu z weryfikacji i walidacji oprogramowania” zawierającego informacje o gromadzeniu danych testowych, metodzie testowania i normach testowych. W przypadkach, gdy informacje są przesyłane za pośrednictwem technologii przetwarzania w chmurze, producenci muszą zapewnić prywatność danych, wprowadzając środki takie jak kontrola dostępu do serwera, uwierzytelnianie użytkowników oraz szyfrowanie w celu przesyłania i zapisywania informacji medycznych.
Producenci wyrobów medycznych opartych na sztucznej inteligencji muszą wykazać, że ich wyrób jest pozbawiony wszelkich luk w zabezpieczeniach cybernetycznych. Producenci muszą złożyć raport „Weryfikacja i Walidacja Oprogramowania”. Raport musi zawierać proces testowania i weryfikacji wymagań cyberbezpieczeństwa, wyniki testów oraz wyniki ponownych testów w przypadku zmiany oprogramowania podczas testowania i weryfikacji. Producenci muszą złożyć dokumenty dotyczące „Zarządzania Ryzykiem Cyberbezpieczeństwa” w celu rejestrowania działań związanych z zarządzaniem ryzykiem oraz minimalizowania i zapobiegania potencjalnym szkodom poprzez identyfikację zagrożeń związanych z cyberbezpieczeństwem przez cały cykl życia wyrobów medycznych.
W przypadku walidacji klinicznej urządzeń opartych na sztucznej inteligencji, producenci muszą przeprowadzić badanie prospektywne lub retrospektywne. Badania prospektywne polegają na ocenie badanych pod kątem zmian wywołanych przez zdefiniowane czynniki ryzyka w określonym czasie. Badanie retrospektywne nie wymaga bezpośredniego kontaktu z badanymi, lecz wykorzystuje dokumentację medyczną, w tym obrazy medyczne i parametry życiowe. Walidacja kliniczna jest ważna dla określenia odpowiedniej metody badania klinicznego.
Wnioski dotyczące algorytmów bez urządzeń referencyjnych muszą być poparte dokumentem z badania klinicznego. Jeśli urządzenie referencyjne jest dostępne, można odstąpić od badania klinicznego, ale będzie to wymagało porównania równoważności z zatwierdzonymi urządzeniami referencyjnymi. Urządzenia będą porównywane pod kątem -
- Przeznaczenie
- Model wykorzystywany do uczenia maszynowego
- Charakterystyka danych szkoleniowych w dwóch produktach.
- Dane wejściowe do analizy wskazań
- Kluczowe elementy technologiczne do wdrożenia algorytmu.
- Dane szkoleniowe
- Informacje wyjściowe do analizy wskazań
Algorytmy AI odgrywają kluczową rolę w krytycznych decyzjach klinicznych, a niedokładna diagnoza i jej wynik mogą okazać się bardziej ryzykowne dla pacjentów. Wysiłki zmierzające do spełnienia wymagań MFDS mogą być wyzwaniem dla producenta. Producenci muszą rozpocząć od starannej analizy regulacyjnej wymagań MFDS dotyczących urządzeń opartych na AI i zrozumieć obowiązujące wymagania dla danego przypadku użycia przed zaplanowaniem zgłoszenia. Takie podejście wielokrotnie udowodniło, że zmniejsza ryzyko kosztów i opóźnień związanych z niezgodnością.
A co z Twoim medycznym urządzeniem opartym na sztucznej inteligencji? Czy jest zgodne z południowokoreańskimi przepisami dotyczącymi wyrobów medycznych? Rozpocznij ocenę już teraz ze sprawdzonym ekspertem ds. regulacji.