UDOSTĘPNIJ | DRUKUJ | E-MAIL
Moje doświadczenie w medycynie pozwala mi odróżniać prawdziwą innowację od subtelnej reklasyfikacji, która fundamentalnie zmienia praktykę, pozornie pozostając niezmienioną. Sztuczna inteligencja przyciągnęła ostatnio znaczną uwagę, w tym szeroko rozpowszechnione twierdzenie, że AI została „legalnie upoważniona do wykonywania zawodu lekarza” w Stanach Zjednoczonych. Dosłownie interpretowane, twierdzenie to jest nieścisłe. Żadna izba lekarska nie wydała licencji maszynie. Żaden algorytm nie złożył przysięgi, nie przyjął obowiązku powierniczego ani nie przyjął osobistej odpowiedzialności za szkody wyrządzone pacjentowi. Żaden lekarz-robot nie otwiera kliniki, nie wystawia rachunków ubezpieczycielom ani nie staje przed ławą przysięgłych w sprawach o błąd w sztuce lekarskiej.
Jednak zatrzymanie się na tym spostrzeżeniu pomija szerszy problem. Koncepcje prawne odpowiedzialności są obecnie redefiniowane, często bez świadomości opinii publicznej.
Trwa znacząca transformacja, uzasadniająca coś więcej niż tylko odruchowe odrzucenie lub bezkrytyczny entuzjazm wobec technologii. Obecny rozwój nie polega na przyznawaniu sztucznej inteligencji uprawnień lekarskich, ale raczej na stopniowej erozji podstawowej granicy medycyny: nierozerwalnego związku między osądem klinicznym a odpowiedzialnością człowieka. Osąd kliniczny polega na podejmowaniu świadomych decyzji, dostosowanych do indywidualnych potrzeb i okoliczności każdego pacjenta, co wymaga empatii, intuicji i dogłębnego zrozumienia etyki medycznej.
Odpowiedzialność człowieka odnosi się do odpowiedzialności, jaką pracownicy służby zdrowia przyjmują za te decyzje i ich skutki. Ta erozja nie jest wynikiem dramatycznych zmian legislacyjnych ani debaty publicznej, lecz następuje po cichu poprzez programy pilotażowe, reinterpretacje przepisów i język celowo zaciemniający kwestię odpowiedzialności. Gdy ta granica zanika, medycyna ulega transformacji, której trudno odwrócić.
Głównym problemem nie jest to, czy sztuczna inteligencja potrafi realizować recepty lub wykrywać nieprawidłowe wyniki badań laboratoryjnych. Medycyna od dawna korzysta z narzędzi, a pracownicy służby zdrowia zazwyczaj chętnie korzystają z pomocy, która ogranicza zadania administracyjne lub usprawnia rozpoznawanie wzorców. Prawdziwym problemem jest to, czy osąd medyczny – podejmowanie decyzji o właściwych działaniach, pacjentach i ryzyku – można postrzegać jako wynik generowany komputerowo, oderwany od odpowiedzialności moralnej. Historycznie rzecz biorąc, próby oddzielenia osądu od odpowiedzialności często wyrządzały szkody, nie biorąc za nie odpowiedzialności.
Ostatnie wydarzenia wyjaśniają przyczyny obecnego zamieszania. W kilku stanach ograniczone programy pilotażowe pozwalają obecnie systemom opartym na sztucznej inteligencji wspomagać odnawianie recept na stabilne choroby przewlekłe w ramach ściśle określonych protokołów. Na szczeblu federalnym, w proponowanych przepisach rozważano, czy sztuczna inteligencja może kwalifikować się jako „lekarz” dla określonych celów ustawowych, pod warunkiem że będzie odpowiednio uregulowana. Inicjatywy te są zazwyczaj przedstawiane jako pragmatyczne odpowiedzi na niedobory lekarzy, opóźnienia w dostępie i nieefektywność administracyjną. Chociaż żadna z nich nie określa jednoznacznie sztucznej inteligencji jako lekarza, to łącznie normalizują one bardziej niepokojące założenie, że działania medyczne mogą być podejmowane bez wyraźnie zidentyfikowanego człowieka podejmującego decyzje.
W praktyce to rozróżnienie ma fundamentalne znaczenie. Medycyna nie jest definiowana przez mechaniczne wykonywanie zadań, lecz przez przypisywanie odpowiedzialności w przypadku niekorzystnych rezultatów. Wypisanie recepty jest proste; przyjęcie odpowiedzialności za jej konsekwencje – szczególnie biorąc pod uwagę choroby współistniejące, kontekst społeczny, wartości pacjenta lub niekompletne informacje – jest o wiele bardziej złożone. Przez całą moją karierę odpowiedzialność ta stale spoczywała na człowieku, którego można było przesłuchać, zakwestionować, skorygować i pociągnąć do odpowiedzialności. Kiedy dr Smith popełnia błąd, rodzina wie, z kim się skontaktować, zapewniając bezpośredni kontakt z człowiekiem i pociągnięcie go do odpowiedzialności. Żaden algorytm, niezależnie od stopnia zaawansowania, nie jest w stanie spełnić tej roli.
Główne ryzyko nie jest technologiczne, lecz regulacyjne i filozoficzne. Ta transformacja oznacza przejście od etyki cnót do proceduralizmu. Kiedy prawodawcy i instytucje redefiniują podejmowanie decyzji medycznych jako funkcję systemów, a nie działań jednostek, zmienia się moralny system medycyny. Odpowiedzialność staje się rozproszona, trudniej przypisać szkodę, a odpowiedzialność przesuwa się z klinicystów na procesy, z osądu na przestrzeganie protokołu. Gdy nieuchronnie pojawiają się błędy, dominującym wyjaśnieniem staje się stwierdzenie, że „system działał zgodnie z ustalonymi wytycznymi”. Uświadomienie sobie tej transformacji wyjaśnia przejście od zindywidualizowanego podejmowania decyzji etycznych do zmechanizowanego przestrzegania procedur.
To nie jest kwestia teoretyczna. Współczesna opieka zdrowotna już teraz stoi w obliczu wyzwań związanych z rozmyciem odpowiedzialności. Obserwowałem, jak pacjenci poszkodowani przez decyzje oparte na algorytmach gubią się wśród administratorów, dostawców i nieprzejrzystych modeli, nie mając jasnej odpowiedzi na fundamentalne pytanie: Kto podjął tę decyzję? Sztuczna inteligencja znacząco przyspiesza ten problem. Algorytm nie jest w stanie udzielić wyjaśnień moralnych, zachować umiaru w działaniu w oparciu o sumienie, odmówić działania z powodu obaw etycznych ani przyznać się do błędu przed pacjentem lub jego rodziną.
Zwolennicy zwiększonej autonomii sztucznej inteligencji często powołują się na wydajność jako uzasadnienie. Kliniki są przeciążone, lekarze doświadczają wypalenia zawodowego, a pacjenci często czekają miesiącami na opiekę, która powinna trwać zaledwie kilka minut. Te obawy są uzasadnione i każdy uczciwy klinicysta je dostrzega. Jednak sama wydajność nie uzasadnia zmiany etycznych podstaw medycyny. Systemy zoptymalizowane pod kątem szybkości i skali często poświęcają niuanse, dyskrecję i godność jednostki. Tradycyjnie medycyna opierała się tej tendencji, podkreślając, że opieka jest zasadniczo relacją, a nie transakcją.
Sztuczna inteligencja grozi odwróceniem tej relacji. Gdy opiekę zapewniają systemy, a nie jednostki, pacjent nie jest już związany umową z lekarzem, lecz staje się częścią procesu. Lekarz przejmuje rolę nadzorcy maszyny lub, co bardziej niepokojące, pełni funkcję prawnego bufora, absorbując odpowiedzialność za decyzje, które nie zostały podjęte osobiście. Z czasem osąd kliniczny ustępuje miejsca przestrzeganiu protokołu, a sprawczość moralna stopniowo słabnie.
Sztuczna inteligencja wprowadza również subtelniejszy i bardziej niebezpieczny problem: maskowanie niepewności. Medycyna żyje w niejednoznaczności. Dowody są probabilistyczne. Wytyczne są tymczasowe. Pacjenci rzadko przedstawiają się jako czyste zbiory danych. Lekarze są szkoleni nie tylko do działania, ale także do wahania się – do rozpoznawania, kiedy informacje są niewystarczające, kiedy interwencja może przynieść więcej szkody niż pożytku, a kiedy właściwym postępowaniem jest czekanie. Wyobraźmy sobie scenariusz, w którym sztuczna inteligencja zaleca wypis ze szpitala, ale małżonek pacjenta wydaje się być przestraszony, co uwydatnia napięcie między algorytmicznym podejmowaniem decyzji a ludzką intuicją. Takie rzeczywiste tarcia podkreślają wagę niejednoznaczności.
Systemy sztucznej inteligencji nie doświadczają niepewności; generują wyniki. Gdy są niepoprawne, często robią to z nieuzasadnioną pewnością siebie. Ta cecha nie jest wadą programowania, lecz nieodłączną cechą modelowania statystycznego. W przeciwieństwie do doświadczonych klinicystów, którzy otwarcie wyrażają wątpliwości, duże modele językowe i systemy uczenia maszynowego nie potrafią rozpoznać własnych ograniczeń. Generują wiarygodne odpowiedzi, nawet gdy dane są niewystarczające. W medycynie wiarygodność bez uzasadnienia może być niebezpieczna.
W miarę jak systemy te są integrowane z procesami klinicznymi, ich wyniki w coraz większym stopniu wpływają na późniejsze decyzje. Z czasem lekarze mogą zacząć ufać zaleceniom nie ze względu na ich trafność, ale dlatego, że stały się one normą. Osąd stopniowo przechodzi od aktywnego rozumowania do biernej akceptacji. W takich okolicznościach „człowiek w pętli” służy jedynie jako symboliczne zabezpieczenie.
Zwolennicy często twierdzą, że sztuczna inteligencja jedynie „wzmocni” lekarzy, a nie ich zastąpi. Jednak to zapewnienie jest wątpliwe. Gdy sztuczna inteligencja wykaże wzrost wydajności, presja ekonomiczna i instytucjonalna będzie prowadzić do zwiększenia autonomii. Jeśli system będzie mógł bezpiecznie realizować recepty, wkrótce może uzyskać pozwolenie na ich realizację. Jeśli będzie w stanie precyzyjnie diagnozować powszechne schorzenia, kwestionowana będzie konieczność konsultacji z lekarzem. Jeśli sztuczna inteligencja przewyższy ludzi w kontrolowanych testach porównawczych, tolerancja na zmienność u ludzi zmniejszy się.
Biorąc pod uwagę te trendy, wdrożenie konkretnych zabezpieczeń jest niezbędne. Na przykład obowiązkowe audyty rozbieżności w przypadku 5% decyzji podejmowanych z wykorzystaniem sztucznej inteligencji mogłyby służyć jako konkretna kontrola, zapewniając zgodność zaleceń dotyczących sztucznej inteligencji z ludzką oceną kliniczną, a jednocześnie dostarczając organom regulacyjnym i zarządom szpitali praktycznych wskaźników do monitorowania integracji sztucznej inteligencji.
Pytania te nie są zadawane ze złymi intencjami; pojawiają się naturalnie w systemach skoncentrowanych na ograniczaniu kosztów i skalowalności. Wskazują jednak na przyszłość, w której ludzki osąd stanie się wyjątkiem, a nie normą. W takim scenariuszu osoby dysponujące zasobami będą nadal korzystać z opieki medycznej, podczas gdy inni będą kierowani przez zautomatyzowane procesy. Medycyna dwutorowa będzie wynikiem nie ideologii, a optymalizacji.
Tym, co czyni ten moment szczególnie niepewnym, jest brak jasnych linii odpowiedzialności. Kiedy decyzja podjęta przez sztuczną inteligencję szkodzi pacjentowi, kto ponosi odpowiedzialność? Czy klinicysta nominalnie nadzoruje system? Instytucja, która go wdrożyła? Dostawca, który wyszkolił model? Organ regulacyjny, który zatwierdził jego użytkowanie? Bez jednoznacznych odpowiedzi odpowiedzialność znika. A kiedy znika odpowiedzialność, wkrótce następuje utrata zaufania.
Medycyna opiera się na zaufaniu. Pacjenci powierzają swoje ciała, lęki, a często i życie w ręce lekarzy. Tego zaufania nie da się przenieść na algorytm, niezależnie od jego złożoności. Opiera się ono na pewności, że istnieje człowiek – ktoś, kto potrafi słuchać, dostosowywać się i brać odpowiedzialność za swoje działania.
Całkowite odrzucenie sztucznej inteligencji jest niepotrzebne. Rozsądnie stosowana, sztuczna inteligencja może zmniejszyć obciążenie administracyjne, identyfikować wzorce, które mogą być trudne do wykrycia przez człowieka, i wspierać podejmowanie decyzji klinicznych. Może umożliwić lekarzom poświęcenie więcej czasu na opiekę nad pacjentem niż na zadania administracyjne. Jednak realizacja tej przyszłości wymaga wyraźnego zaangażowania w utrzymanie ludzkiej odpowiedzialności w centrum praktyki medycznej.
„Człowiek w pętli” musi oznaczać coś więcej niż symboliczny nadzór. Powinien on wymagać, aby konkretna osoba była odpowiedzialna za każdą decyzję medyczną, rozumiała jej uzasadnienie oraz zachowała zarówno uprawnienia, jak i obowiązek odrzucania zaleceń algorytmicznych. Musi on również obejmować przejrzystość, możliwość wyjaśnienia i świadomą zgodę pacjenta, a także zobowiązanie do inwestowania w ludzkich lekarzy, a nie zastępowania ich sztuczną inteligencją.
Głównym zagrożeniem nie jest nadmierna moc sztucznej inteligencji, lecz gotowość instytucji do zrzeczenia się odpowiedzialności. W pogoni za efektywnością i innowacyjnością istnieje niebezpieczeństwo, że medycyna stanie się dziedziną zaawansowaną technicznie, usprawnioną administracyjnie, ale pozbawioną wartości moralnej.
Myśląc o przyszłości, warto zadać sobie pytanie: Jakiego uzdrowiciela wyobrażamy sobie przy łóżku pacjenta w 2035 roku? To pytanie wymaga zbiorowej wyobraźni moralnej, zachęcając nas do kształtowania przyszłości, w której ludzka odpowiedzialność i troskliwa opieka będą podstawą praktyki medycznej. Mobilizacja zbiorowej inicjatywy będzie kluczowa dla zapewnienia, że postęp w dziedzinie sztucznej inteligencji wzmocni, a nie podważy te fundamentalne wartości.
Sztuczna inteligencja nie ma licencji na wykonywanie zawodu lekarza. Medycyna jest jednak po cichu przeprojektowywana wokół systemów, które nie mają moralnego znaczenia. Jeśli ten proces będzie się toczył bez kontroli, możemy pewnego dnia odkryć, że lekarza zastąpiła nie maszyna, a protokół – i że gdy dochodzi do szkody, nie ma już nikogo, kto by za nią odpowiadał.
To nie byłby postęp. To byłaby abdykacja.
-
Joseph Varon, lekarz medycyny, Jest lekarzem intensywnej terapii, profesorem i prezesem Independent Medical Alliance. Jest autorem ponad 980 recenzowanych publikacji i redaktorem naczelnym czasopisma „Journal of Independent Medicine”.
Zobacz wszystkie posty