fot. 123rf.com

Prawo w gabinecie
Typografia
  • Najmniejsza Mała Średnia Większa Największa
  • Obecna Helvetica Segoe Georgia Times

Systemy oparte na sztucznej inteligencji (AI) coraz częściej wspomagają personel medyczny w diagnozowaniu chorób, analizie obrazów czy automatyzacji procesów administracyjnych. Ich zastosowanie w medycynie i stomatologii znacząco usprawnia codzienną pracę oraz zwiększa bezpieczeństwo pacjentów. Jednak wraz z dynamicznym rozwojem technologii rośnie także potrzeba uregulowania zasad jej stosowania. W Unii Europejskiej kwestie te reguluje nowy akt o sztucznej inteligencji (AI Act), który ściśle współgra z już obowiązującym rozporządzeniem MDR (Medical Devices Regulation).

AI jako wyrób medyczny: kiedy oprogramowanie podlega MDR?

Zgodnie z przepisami MDR, za wyrób medyczny może być uznane m.in. specjalistyczne oprogramowanie, o ile jego przeznaczenie medyczne zostało jasno określone przez producenta – np. do diagnozy, monitorowania czy leczenia pacjentów. W momencie, gdy takie oprogramowanie wykorzystuje mechanizmy AI, staje się ono tzw. systemem wysokiego ryzyka, co pociąga za sobą liczne obowiązki regulacyjne.

Obowiązki producentów, dystrybutorów i użytkowników systemów AI

AI Act i MDR wzajemnie się uzupełniają, tworząc spójne ramy prawne dla wytwórców i użytkowników technologii opartych na sztucznej inteligencji w medycynie. Nowe przepisy nakładają obowiązki nie tylko na producentów, ale również na importerów, dystrybutorów i ostatecznych użytkowników – czyli również lekarzy.

Do kluczowych obowiązków należą m.in.:

  • zapewnienie zgodności systemu zarówno z AI Act, jak i MDR,
  • wdrożenie systemu zarządzania jakością,
  • automatyczne rejestrowanie zdarzeń i decyzji podejmowanych przez system AI,
  • regularne monitorowanie działania systemu i jego wpływu na bezpieczeństwo pacjentów.

Co istotne – nie będzie konieczności przeprowadzania dwóch osobnych ocen zgodności. Jedna ocena będzie wystarczająca, o ile potwierdzi zgodność zarówno z AI Act, jak i MDR.

Cyberbezpieczeństwo i odpowiedzialność cywilna – wyzwania dla sektora medycznego

Eksperci Szkoły Głównej Handlowej (SGH) podkreślają, że wraz z rozwojem nowych technologii niezbędne jest zapewnienie odpowiedniego poziomu cyberbezpieczeństwa. Zalecają także regularne szkolenia pracowników medycznych w zakresie obsługi systemów opartych na AI oraz znajomości ich potencjalnych zagrożeń.

W swoim raporcie SGH wskazuje również na potrzebę ujednolicenia zasad odpowiedzialności cywilnej w polskim prawie – zarówno za skutki działania systemów AI, jak i szkody wyrządzone przez niezależne czynniki zewnętrzne wpływające na ich funkcjonowanie. Jasne określenie zakresu odpowiedzialności stanie się kluczowe w przypadku ewentualnych sporów prawnych.


Nowy Gabinet Stomatologiczny: Sztuczna inteligencja w medycynie

Więcej ciekawych artykułów w "Nowy Gabinet Stomatologiczny" - zamów prenumeratę lub kup prenumeratę w naszym sklepie.



GAZETKA

nakladki na zeby zdjecie dodatkowe 2 min

2020 2264 cattani banner 01 350x100

 

EWA MAZUR PAWŁOWSKA