Nowa era medycyny, czyli AI wkracza do gabinetu, nie bierze jeńców i daje diagnozę.. Ale czy na pewno?

Podczas tegorocznej konferencji Capital Framework for Large Banks, Sam Altman zadeklarował, że rozwój sztucznej inteligencji wyeliminuje część zawodów i zmieni oblicze rynku pracy. Nie obyło się również bez komentarza dotyczącego zawodu lekarzy. Altman przyznaje, że ChatGPT posiada zdolność diagnozowania na poziomie przewyższającym możliwości lekarzy. Przy czym jednocześnie przyznał, że jest chyba dinozaurem, ponieważ osobiście nie powierzyłby w pełni swojego zdrowia sztucznej inteligencji [1].
Skąd pomysł na artykuł?
Przede wszystkim stąd, że coraz częściej w otoczeniu słyszy się stwierdzenia takie jak: „byłam
u lekarza, a ten włączył ChatGPT” albo „nie poszedłem do lekarza, bo rozmawiałem
z ChatemGPT”… Stąd warto poznać swoje podstawowe prawa pacjenta, podstawowe obowiązki lekarza oraz najważniejsze korzyści i zagrożenia płynące z zastosowania AI w gabinecie lekarskim. Obiecujemy, że postaramy się nie zasypać Was definicjami, a jedynie wiedzą w pigułce.
AI w ochronie zdrowia w Polsce
Transformacja cyfrowa w polskiej ochronie zdrowia nabiera coraz większego tempa. Centrum
e-Zdrowia (CeZ) zapowiedziało wdrożenie nowej platformy informatycznej - Platformy Usług Inteligentnych (PUI). Docelowo ma być to system, który będzie wspierać lekarza w podejmowaniu decyzji diagnostycznych i terapeutycznych poprzez wykorzystanie algorytmów sztucznej inteligencji. W praktyce oznacza to, że za Twoje leczenie może odpowiadać już nie tylko specjalista z doświadczeniem, ale także oprogramowanie oparte na algorytmach sztucznej inteligencji.
Choć brzmi to jak scenariusz science-fiction, to dla wielu pacjentów stanie się wkrótce codziennością (albo już stało się np. w obszarze radiologii). Nasuwa się jednak istotne pytanie: kto w takim modelu ma realny wpływ na decyzje dotyczące zdrowia pacjenta?
Żeby odpowiedzieć na to pytanie, zacznijmy od początku, czyli czy sztuczna inteligencja może być wykorzystywana w oprogramowaniu medycznym?
Z punktu widzenia prawa, systemy AI stosowane w ochronie zdrowia nie są zwykłym oprogramowaniem komputerowym. Zgodnie z Rozporządzeniem Parlamentu Europejskiego
i Rady (UE) 2017/745 (MDR) o wyrobach medycznych, każde oprogramowanie, które jest przeznaczone do celów diagnostycznych lub terapeutycznych, musi być klasyfikowane jako wyrób medyczny. Oznacza to, że podlega rygorystycznym wymaganiom narzuconym przez powyższą regulację.
W praktyce, zanim lekarz użyje narzędzia AI do analizy np. zdjęcia RTG czy wyniku rezonansu magnetycznego, system ten musi przejść pozytywnie całą ścieżkę certyfikacji - czyli ocenę dokumentacji technicznej, klinicznej oraz systemu zarządzania jakością, a końcowo posiadać oznaczenie CE (proces certyfikacji dotyczy wyrobów klasy Is, Im, Ir, IIa, IIb i III).
Nie bez znaczenia są również przepisy RODO, które nakładają na producentów i użytkowników takich systemów obowiązek przetwarzania danych pacjentów w sposób bezpieczny, ograniczony do minimum i zgodny z zasadą tzw. privacy by design. Dane zdrowotne podlegają Art. 9 RODO, dlatego ich przetwarzanie musi odbywać się z zachowaniem jasno określonych środków ostrożności.
Jeżeli jesteśmy już za podstawami regulacyjnymi dot. wyrobów medycznych, przyjrzyjmy się,
co na to Kodeks Etyki Lekarskiej?
Nie możemy mówić o rozwoju technologii sztucznej inteligencji nie poruszając kwestii etycznych. Dlatego też w maju 2024 roku Naczelna Rada Lekarska przyjęła nowelizację Kodeksu Etyki Lekarskiej, w której pojawił się nowy, niezwykle istotny zapis dotyczący stosowania sztucznej inteligencji - Artykuł 12. Wprowadza on cztery warunki, które muszą zostać spełnione, by lekarz mógł posłużyć się AI w praktyce klinicznej.
Po pierwsze, lekarz ma obowiązek poinformować pacjenta, że w procesie diagnostycznym lub terapeutycznym zostanie użyty system sztucznej inteligencji. Po drugie, musi uzyskać od pacjenta świadomą zgodę na to użycie. Po trzecie, może korzystać jedynie z takich narzędzi, które są zgodne z przepisami prawa - czyli certyfikowanych jako wyroby medyczne zgodnie z MDR. Końcowo - to lekarz zachowuje pełną odpowiedzialność za wszystkie decyzje medyczne, niezależnie od tego, czy posiłkuje się algorytmem, czy nie.
Nowy artykuł kodeksu jasno stwierdza, że AI ma charakter wspomagający, a nie decydujący. Ostateczna decyzja dotycząca diagnozy czy leczenia należy do lekarza, a nie do oprogramowania. To istotna granica, która aktualnie wyznacza dopuszczalne ramy automatyzacji w medycynie.
Informacja i zgoda pacjenta, czyli fundament prawa do samostanowienia
Zgodnie z polskim prawem, a dokładnie Ustawą o prawach pacjenta i Rzeczniku Praw Pacjenta, każdy pacjent ma prawo do informacji o swoim stanie zdrowia oraz o metodach diagnostycznych i terapeutycznych, które zostaną wobec niego zastosowane. W kontekście sztucznej inteligencji, oznacza to konieczność wyjaśnienia pacjentowi, czym jest dany system AI. Co to znaczy
w praktyce? Jako pacjenci mamy prawo wiedzieć jaką funkcję pełni oprogramowanie i jaki może mieć wpływ na jego leczenie.
Jeśli rola sztucznej inteligencji w procesie leczenia jest istotna, czyli na przykład system samodzielnie analizuje dane obrazowe i generuje sugestię diagnozy, to lekarz ma obowiązek uzyskać od pacjenta świadomą i dobrowolną zgodę. Zgoda taka może mieć charakter ustny lub dorozumiany, ale powinna zostać udokumentowana. Kluczowe jest to, by pacjent miał możliwość zrozumienia, że jego leczenie będzie wspierane przez system komputerowy oraz by miał prawo taką zgodę w każdej chwili wycofać.
Zgoda ta musi spełniać również wymogi RODO. Jej brak w przypadku, gdy AI realnie wpływa na proces leczenia, może stanowić naruszenie zarówno prawa pacjenta, jak i zasad etyki zawodowej lekarza.
Przy czym warto podkreślić, że w sytuacjach, gdy AI pełni wyłącznie funkcję techniczną
(np. automatycznie wyostrza obraz badania lub porządkuje dane), to w takim wypadku uzyskiwanie zgody nie jest wymagane. Nie zmienia to faktu, że zgodnie z dobrymi praktykami, lekarz powinien mimo wszystko poinformować pacjenta o użyciu takiego systemu.
Granice automatyzacji, czyli gdzie zaczyna się odpowiedzialność człowieka?
Jednym z fundamentalnych ograniczeń stosowania sztucznej inteligencji w ochronie zdrowia jest zakaz podejmowania decyzji klinicznych w pełni automatycznie, bez udziału człowieka. Takie stanowisko zajmuje AI Act - unijne rozporządzenia mającego na celu uregulowanie systemów sztucznej inteligencji wysokiego ryzyka, w tym tych używanych w medycynie.
Pacjent nie może podlegać decyzji podejmowanej wyłącznie przez maszynę, jeśli decyzja ta wywołuje skutki prawne lub ma istotny wpływ na jego sytuację zdrowotną. Innymi słowy, nawet jeśli system AI zasugeruje leczenie, to lekarz musi tę sugestię zweryfikować i osobiście zaakceptować, ponieważ to on ponosi odpowiedzialność za skutki podjętej decyzji. Czyli dokładnie tak, jak zakłada Kodeks Etyki Lekarskiej. Natomiast nie będziemy zagłębiać się tu
w meandry AI ACT z uwagi na to, że byłby to temat na zupełnie inny i zdecydowanie dłuższy artykuł. Musimy mieć jednak na uwadze fakt, że są to regulacje europejskie i różnią się
od podejścia prezentowanego przez Stany Zjednoczone lub Chiny.
Podsumowując, z jednej strony, algorytmy sztucznej inteligencji mogą wspierać lekarzy
w szybszym i dokładniejszym stawianiu diagnoz (m.in. w radiologii czy diagnostyce laboratoryjnej). Tego typu oprogramowania pozwalają odciążyć lekarzy od czasochłonnych zadań analitycznych, co może przełożyć się na większą ilość czasu poświęconą bezpośrednio pacjentowi. Z drugiej strony, nie sposób pominąć tematu ryzyka, które niosą takie rozwiązania.
AI, choć coraz bardziej zaawansowana, nadal może teoretycznie działać na podstawie niepełnych lub obciążonych zbiorach danych, co może skutkować błędnymi sugestiami diagnostycznymi. Jednocześnie korzystanie z tego typu oprogramowania może prowadzić do zbytniego zaufania wobec decyzji algorytmu i ograniczenia samodzielnej refleksji klinicznej. Dlatego tak ważne jest, by sztuczna inteligencja w medycynie była narzędziem wspomagającym, a nie zastępującym człowieka, a jej wykorzystanie znajdowało się w granicach prawa, etyki oraz zdrowego rozsądku.
Czy nasza Jednostka Notyfikowana prowadzi certyfikację wyrobów medycznych opartych
o algorytmy sztucznej inteligencji? Jak najbardziej i aktualnie jest to jeden z prężniej rozwijających się kierunków w naszym dziale. Na ten moment nie możemy zdradzić nazwy producentów z uwagi na trwające procesy certyfikacji, ale z pewnością usłyszycie niebawem o wyrobach, które przeszły weryfikację pod czujnym okiem naszym audytorów.
W razie pytań zachęcamy do kontaktu - dane kontaktowe znajdują się na naszej stronie internetowej:
Dodatkowo, więcej szczegółowych informacji na temat certyfikacji i wymagań dla wyrobów opartych na AI przekazujemy podczas naszych szkoleń:
Źródła:
[1] https://www.actuia.com/en/news/sam-altman-warns-banks-of-an-imminent-fraud-crisis/
Autor: Magdalena Derda, Product Manager ds. Certyfikacji Wyrobów Medycznych