Moje zkušenosti v medicíně mi umožňují rozlišovat mezi skutečnou inovací a nenápadnou reklasifikací, která zásadně mění praxi, aniž by se zdála být nezměněna. Umělá inteligence v poslední době přitahuje značnou pozornost, včetně široce šířeného tvrzení, že umělá inteligence je ve Spojených státech „legálně oprávněna vykonávat lékařskou praxi“. Doslovně interpretováno je toto tvrzení nepřesné. Žádná lékařská komise neudělila licenci žádnému stroji. Žádný algoritmus nesložil přísahu, nepřijal fiduciární povinnost ani nepřevzal osobní odpovědnost za újmu pacientů. Žádný robotický lékař neotevírá kliniku, neúčtuje poplatky pojišťovnám ani nestojí před porotou pro případy zanedbání lékařské péče.
Pokud se však zastavíme u tohoto pozorování, přehlížíme širší problém. Právní pojmy odpovědnosti jsou v současné době redefinovány, často bez povědomí veřejnosti.
Probíhá významná transformace, která si vyžaduje více než jen reflexivní odmítnutí nebo nekritické technologické nadšení. Současný vývoj nepředstavuje licencování umělé inteligence jako lékaře, ale spíše postupné erozi základní hranice medicíny: vnitřního spojení mezi klinickým úsudkem a lidskou odpovědností. Klinický úsudek zahrnuje informovaná rozhodnutí přizpůsobená jedinečným potřebám a okolnostem každého pacienta, což vyžaduje empatii, intuici a hluboké pochopení lékařské etiky.
Lidská odpovědnost se týká odpovědnosti, kterou poskytovatelé zdravotní péče přebírají za tato rozhodnutí a jejich výsledky. Tato eroze není výsledkem dramatické legislativy ani veřejné debaty, ale probíhá nenápadně prostřednictvím pilotních programů, reinterpretací předpisů a jazyka, který záměrně zakrývá odpovědnost. Jakmile se tato hranice rozplyne, medicína se transformuje způsobem, který je obtížné zvrátit.
Hlavním problémem není, zda umělá inteligence dokáže znovu vydávat léky na předpis nebo odhalovat abnormální výsledky laboratorních testů. Lékařství již dlouho používá nástroje a poskytovatelé zdravotní péče obecně vítají pomoc, která snižuje administrativní úkoly nebo zlepšuje rozpoznávání vzorců. Skutečnou otázkou je, zda lze lékařský úsudek – rozhodování o správných krocích, pacientech a rizicích – vnímat jako počítačem generovaný výsledek oddělený od morální odpovědnosti. Historicky snahy o oddělení úsudku od odpovědnosti často způsobovaly škodu, aniž by se za ně někdo zavázal.
Nedávný vývoj objasňuje původ současného zmatku. V několika státech nyní omezené pilotní programy umožňují systémům řízeným umělou inteligencí pomáhat s obnovováním receptů na stabilní chronická onemocnění v rámci úzce definovaných protokolů. Na federální úrovni se v navrhované legislativě zvažovalo, zda by umělá inteligence mohla být kvalifikována jako „praktik“ pro specifické zákonné účely, za předpokladu, že bude řádně regulována. Tyto iniciativy jsou obvykle prezentovány jako pragmatické reakce na nedostatek lékařů, zpoždění v přístupu k lékařům a administrativní neefektivitu. I když žádná z nich výslovně neoznačuje umělou inteligenci za lékaře, kolektivně normalizují znepokojivější předpoklad, že lékařské úkony mohou probíhat bez jasně identifikovatelného lidského rozhodovatele.
V praxi je tento rozdíl zásadní. Medicína se nedefinuje mechanickým prováděním úkolů, ale přidělováním odpovědnosti, když jsou výsledky nepříznivé. Napsat recept je jednoduché; přijetí odpovědnosti za jeho důsledky – zejména s ohledem na komorbidity, sociální kontext, hodnoty pacienta nebo neúplné informace – je mnohem složitější. Během mé kariéry tato odpovědnost nepřetržitě spočívala na člověku, kterého bylo možné zpochybňovat, zpochybňovat, opravovat a volat k odpovědnosti. Když Dr. Smith udělá chybu, rodina ví, na koho se má obrátit, což zajišťuje přímou linku k lidské odpovědnosti. Žádný algoritmus, bez ohledu na sofistikovanost, tuto roli nemůže plnit.
Primární riziko není technologické, ale regulační a filozofické. Tento přechod představuje posun od etiky ctnosti k proceduralismu. Když zákonodárci a instituce předefinují lékařské rozhodování jako funkci systémů, nikoli osobních činů, mění se morální rámec medicíny. Odpovědnost se stává rozptýlenou, škodu je obtížnější připsat a odpovědnost se přesouvá z klinických lékařů na procesy, z úsudku na dodržování protokolu. Když nevyhnutelně dojde k chybám, převládajícím vysvětlením se stává, že „systém se řídil zavedenými pokyny“. Uznání tohoto přechodu objasňuje posun od individualizovaného etického rozhodování k mechanizovanému procedurálnímu dodržování.
Tato obava není teoretická. Současné zdravotnictví již čelí výzvám souvisejícím s oslabenou odpovědností. Pozoroval jsem, jak se pacienti poškození algoritmicky řízenými rozhodnutími ztrácejí mezi administrátory, dodavateli a neprůhlednými modely, bez jasné odpovědi na základní otázku: Kdo toto rozhodnutí učinil? Umělá inteligence tento problém výrazně urychluje. Algoritmus nemůže poskytovat morální vysvětlení, uplatňovat zdrženlivost na základě svědomí, odmítat jednání z etických důvodů ani přiznat chybu pacientovi nebo rodině.
Zastánci větší autonomie umělé inteligence často jako ospravedlnění uvádějí efektivitu. Kliniky jsou přetížené, lékaři zažívají syndrom vyhoření a pacienti často čekají měsíce na péči, která by měla trvat jen několik minut. Tyto obavy jsou legitimní a každý poctivý lékař si je uvědomuje. Samotná efektivita však neospravedlňuje změnu etických základů medicíny. Systémy optimalizované pro rychlost a rozsah často obětují nuance, diskrétnost a individuální důstojnost. Historicky se medicína tomuto trendu bránila tím, že zdůrazňovala, že péče je v podstatě spíše vztah než transakce.
Umělá inteligence riskuje, že tento vztah naruší. Když péči poskytují systémy, nikoli jednotlivci, pacient již není vázán smlouvou s lékařem, ale stává se součástí pracovního postupu. Lékař přebírá roli dozorce stroje, nebo, což je znepokojivější, slouží jako právní nárazník absorbující odpovědnost za rozhodnutí, která nebyla učiněna osobně. Postupem času klinický úsudek ustupuje dodržování protokolu a morální angažovanost postupně ubývá.
Umělá inteligence také přináší jemnější a nebezpečnější problém: maskování nejistoty. Medicína žije v nejednoznačnosti. Důkazy jsou pravděpodobnostní. Pokyny jsou provizorní. Pacienti se zřídka prezentují jako čisté soubory dat. Lékaři jsou školeni nejen k jednání, ale i k váhání – k rozpoznání, kdy jsou informace nedostatečné, kdy intervence může způsobit více škody než užitku nebo kdy je správným postupem čekat. Představte si scénář, ve kterém umělá inteligence doporučuje propuštění, ale manžel/manželka pacienta se jeví jako vyděšený/á, což zdůrazňuje napětí mezi algoritmickým rozhodováním a lidskou intuicí. Takové tření v reálném světě podtrhuje naléhavost nejednoznačnosti.
Systémy umělé inteligence nezažívají nejistotu; generují výstupy. Pokud jsou nesprávné, často tak činí s neopodstatněnou jistotou. Tato vlastnost není programátorskou chybou, ale inherentním rysem statistického modelování. Na rozdíl od zkušených klinických lékařů, kteří otevřeně vyjadřují pochybnosti, modely s velkými jazyky a systémy strojového učení nedokážou rozpoznat svá vlastní omezení. Produkují věrohodné odpovědi, i když data nejsou dostatečná. V medicíně může být věrohodnost bez podložení nebezpečná.
Vzhledem k tomu, že jsou tyto systémy integrovány do klinických pracovních postupů dříve, jejich výstupy stále více ovlivňují následná rozhodnutí. Postupem času mohou lékaři začít důvěřovat doporučením nikoli kvůli jejich platnosti, ale proto, že se stala normalizovanými. Úsudek se postupně přesouvá od aktivního uvažování k pasivnímu přijetí. Za takových okolností slouží „člověk ve smyčce“ jen jako symbolická pojistka.
Zastánci umělé inteligence často tvrdí, že lékaře pouze „posílí“, nikoliv nahradí. Toto ujištění je však chatrné. Jakmile umělá inteligence prokáže zvýšení efektivity, ekonomické a institucionální tlaky mají tendenci vést k větší autonomii. Pokud systém dokáže bezpečně znovu vydávat recepty, může mu být brzy povoleno je i zahajovat. Pokud dokáže přesně diagnostikovat běžné stavy, je zpochybňována nutnost lékařského vyšetření. Pokud v kontrolovaných benchmarkech překoná lidi, tolerance k lidské variabilitě se snižuje.
Vzhledem k těmto trendům je zavedení specifických ochranných opatření zásadní. Například povinné audity nesrovnalostí u 5 % rozhodnutí řízených umělou inteligencí by mohly sloužit jako konkrétní kontrola, která by zajistila soulad mezi doporučeními umělé inteligence a lidským klinickým úsudkem a zároveň by regulačním orgánům a správním radám nemocnic poskytla akční metriky pro sledování integrace umělé inteligence.
Tyto otázky nejsou kladeny se zlým úmyslem; přirozeně se objevují v systémech zaměřených na snižování nákladů a škálovatelnost. Naznačují však budoucnost, kde se lidský úsudek stane spíše výjimkou než normou. V takovém scénáři budou jednotlivci s dostatečnými zdroji i nadále dostávat lidskou péči, zatímco jiní budou řízeni automatizovanými procesy. Dvouúrovňová medicína nebude výsledkem ideologie, ale optimalizace.
Co činí tento okamžik obzvláště nejistým, je absence jasných linií odpovědnosti. Když rozhodnutí řízené umělou inteligencí poškodí pacienta, kdo je za to zodpovědný? Dohlíží na systém nominálně lékař? Instituce, která jej nasadila? Dodavatel, který model vyškolil? Regulační orgán, který schválil jeho použití? Bez explicitních odpovědí se odpovědnost vypařuje. A když se odpovědnost vypařuje, brzy následuje důvěra.
Medicína je zásadně závislá na důvěře. Pacienti svěřují svá těla, obavy a často i své životy do rukou lékařů. Tuto důvěru nelze přenést na algoritmus, bez ohledu na jeho sofistikovanost. Je založena na jistotě, že je přítomna lidská bytost – někdo, kdo je schopen naslouchat, přizpůsobit se a nést odpovědnost za své činy.
Úplné odmítnutí umělé inteligence je zbytečné. Při rozumném používání může umělá inteligence snížit administrativní zátěž, identifikovat vzorce, které by mohly uniknout lidské detekci, a podpořit klinické rozhodování. Může lékařům umožnit věnovat více času péči o pacienty než administrativním úkolům. Realizace této budoucnosti však vyžaduje jasný závazek k zachování lidské odpovědnosti v jádru lékařské praxe.
„Člověk v kontaktu“ musí znamenat více než jen symbolický dohled. Mělo by vyžadovat, aby za každé lékařské rozhodnutí byla zodpovědná konkrétní osoba, rozuměla jeho zdůvodnění a zachovala si jak pravomoc, tak povinnost ignorovat algoritmická doporučení. Musí také zahrnovat transparentnost, vysvětlitelnost a informovaný souhlas pacienta, jakož i závazek investovat do lidských lékařů, spíše než je nahrazovat umělou inteligencí.
Primárním rizikem není nadměrná síla umělé inteligence, ale spíše ochota institucí vzdát se odpovědnosti. Ve snaze o efektivitu a inovace existuje nebezpečí, že se medicína stane technicky vyspělým, administrativně zefektivněným oborem, který však postrádá morální podstatu.
Když uvažujeme o budoucnosti, je nezbytné se ptát: Jakého léčitele si představujeme u lůžka v roce 2035? Tato otázka vyžaduje kolektivní morální představivost a povzbuzuje nás k utváření budoucnosti, kde lidská odpovědnost a soucitná péče zůstanou jádrem lékařské praxe. Mobilizace kolektivní činnosti bude klíčová pro zajištění toho, aby pokroky v umělé inteligenci tyto základní hodnoty posilovaly, a nikoli podkopávaly.
Umělá inteligence nemá licenci k výkonu lékařské praxe. Medicína se však potichu přetváří kolem systémů, které nemají morální váhu. Pokud bude tento proces pokračovat nekontrolovaně, můžeme jednoho dne zjistit, že lékaře nenahradil stroj, ale protokol – a že když dojde k újmě, už za ni nikdo nenese odpovědnost.
To by nebyl pokrok. Byla by to abdikace.
-
Joseph Varon, MD je lékař intenzivní péče, profesor a prezident Independent Medical Alliance. Je autorem více než 980 recenzovaných publikací a působí jako šéfredaktor časopisu Journal of Independent Medicine.
Zobrazit všechny příspěvky