Systemy oparte na sztucznej inteligencji (AI) coraz częściej wspomagają personel medyczny w diagnozowaniu chorób, analizie obrazów czy automatyzacji procesów administracyjnych. Ich zastosowanie w medycynie i stomatologii znacząco usprawnia codzienną pracę oraz zwiększa bezpieczeństwo pacjentów. Jednak wraz z dynamicznym rozwojem technologii rośnie także potrzeba uregulowania zasad jej stosowania. W Unii Europejskiej kwestie te reguluje nowy akt o sztucznej inteligencji (AI Act), który ściśle współgra z już obowiązującym rozporządzeniem MDR (Medical Devices Regulation).
AI jako wyrób medyczny: kiedy oprogramowanie podlega MDR?
Zgodnie z przepisami MDR, za wyrób medyczny może być uznane m.in. specjalistyczne oprogramowanie, o ile jego przeznaczenie medyczne zostało jasno określone przez producenta – np. do diagnozy, monitorowania czy leczenia pacjentów. W momencie, gdy takie oprogramowanie wykorzystuje mechanizmy AI, staje się ono tzw. systemem wysokiego ryzyka, co pociąga za sobą liczne obowiązki regulacyjne.
Obowiązki producentów, dystrybutorów i użytkowników systemów AI
AI Act i MDR wzajemnie się uzupełniają, tworząc spójne ramy prawne dla wytwórców i użytkowników technologii opartych na sztucznej inteligencji w medycynie. Nowe przepisy nakładają obowiązki nie tylko na producentów, ale również na importerów, dystrybutorów i ostatecznych użytkowników – czyli również lekarzy.
Do kluczowych obowiązków należą m.in.:
- zapewnienie zgodności systemu zarówno z AI Act, jak i MDR,
- wdrożenie systemu zarządzania jakością,
- automatyczne rejestrowanie zdarzeń i decyzji podejmowanych przez system AI,
- regularne monitorowanie działania systemu i jego wpływu na bezpieczeństwo pacjentów.
Co istotne – nie będzie konieczności przeprowadzania dwóch osobnych ocen zgodności. Jedna ocena będzie wystarczająca, o ile potwierdzi zgodność zarówno z AI Act, jak i MDR.
Cyberbezpieczeństwo i odpowiedzialność cywilna – wyzwania dla sektora medycznego
Eksperci Szkoły Głównej Handlowej (SGH) podkreślają, że wraz z rozwojem nowych technologii niezbędne jest zapewnienie odpowiedniego poziomu cyberbezpieczeństwa. Zalecają także regularne szkolenia pracowników medycznych w zakresie obsługi systemów opartych na AI oraz znajomości ich potencjalnych zagrożeń.
W swoim raporcie SGH wskazuje również na potrzebę ujednolicenia zasad odpowiedzialności cywilnej w polskim prawie – zarówno za skutki działania systemów AI, jak i szkody wyrządzone przez niezależne czynniki zewnętrzne wpływające na ich funkcjonowanie. Jasne określenie zakresu odpowiedzialności stanie się kluczowe w przypadku ewentualnych sporów prawnych.
Nowy Gabinet Stomatologiczny: Sztuczna inteligencja w medycynie
Więcej ciekawych artykułów w "Nowy Gabinet Stomatologiczny" - zamów prenumeratę lub kup prenumeratę w naszym sklepie.