Proč musí být umělá inteligence zaměřena na člověka
„Pevně věřím v příslib umělé inteligence. Jde o nástroj, který, je‑li používán inteligentním způsobem, může nabídnout poskytovatelům zdravotní péče velkou podporu tím, že jim zprostředkuje správné informace v okamžicích, kdy je potřebují ve prospěch svých pacientů. Přesto také věřím, že pro splnění tohoto slibu se musíme nejprve zaměřit na lidi – nikoli na technologie,“ říká ve svém blogu Sean Carney, Chief Experience Design Officer & Business Leader Healthcare Transformation Services společnosti Philips.
O přínosech a rizicích využití umělé inteligence (artificial intelligence, AI) ve zdravotnictví se v posledních letech bouřlivě diskutuje a pandemie COVID‑19 tuto polemiku ještě přiostřila. Jedni vyzdvihují fakt, že AI usnadní diagnostický a diferenciálnědiagnostický proces, poskytne relevantní data pro klinické a terapeutické rozvahy. Oponenti zase upozorňují, že AI využívá algoritmy vytvořené člověkem za určitých podmínek, současné doporučené postupy vypracované pro konkrétní diagnózy, které však nejsou univerzálně platné. „Rozhodnutí“ podle AI může být i chybné. V současné situaci se také zdá, že medicína se bez lidského rozumu a lidského přístupu neobejde. Avšak „džin AI“ je z lahve již vypuštěn a měl by být předmětem diskuse nejen mezi IT experty a vývojáři AI, ale především s poskytovateli a plátci zdravotní péče. Je nutné si jasně definovat, co můžeme od AI chtít a očekávat bez ohledu na technické možnosti.
Umělá inteligence je jedním z důležitých témat společnosti Philips. Proto přinášíme hlavní myšlenky z blogu Seana Carneyho.
Jedním z celosvětových problémů je nedostatek specializovaných zdravotnických profesionálů při rostoucí potřebě zdravotní péče. Proto si za společnost Philips kladu otázku: co kdybychom stávajícím lékařům zajistili dvojnásobnou výkonnost, což by jim umožnilo lépe se rozhodovat a trávit více času s pacienty?
Jde v zásadě o příslib umělé inteligence – ať už prostřednictvím automatizace rutinní práce, která odvádí pozornost lékaře od pacienta, nebo poskytnutím podpory klinického rozhodování ve chvílích, které povedou k lepším klinickým výsledkům.
Přes všechny technologické pokroky se překvapivě málo aplikací AI úspěšně dostalo z výzkumné laboratoře do klinické praxe. Co tedy brzdí AI ve zdravotnictví?
Překonávání překážek přijetí AI
Problémy týkající se správy dat a interoperability jsou často zmiňovány jako hlavní překážky širšího přijetí AI, a to i z oprávněných důvodů. Ale v hektické a stresující každodenní realitě zdravotníků jsou ve hře i další faktory. Lidské faktory.
Lékaři často pracují podle přesných doporučených postupů a spoléhají se na rutinu vytvořenou léty praktických zkušeností. Pokud AI dokonale nezapadá do jejich pracovních postupů, nebo v horším případě pokud vytváří další problém, zdravotníci ji přijmou jen těžko. A v rizikovém prostředí, jako je zdravotní péče, kde lékaři musejí činit rozhodnutí ve zlomku sekundy s potenciálně dalekosáhlými důsledky, může být těžké získat důvěru v nové technologie. Spoléhali byste se na doporučení algoritmu, když je život pacienta ve vašich rukou? Ukázalo se, že chybné přizpůsobení pracovnímu postupu a nedostatek důvěry brání zavádění AI [1,2].
Dřívější inovace v oblasti zdravotní péče čelily podobným problémům. Vzpomeňme na elektronický zdravotní záznam, který byl původně navržen jako systém budoucnosti zdravotnictví. Nyní je kritizován, že nebyly dostatečně zohledněny potřeby a zkušenosti lékařů [3,4]. Tentokrát, když AI podněcuje další vlnu digitálních inovací, se musíme poučit z chyb minulosti a zaujmout radikálně odlišný přístup. Takový, který staví lidi dopředu a do svého středu. Ne jako budoucí záměr, ale hned od počátku vývoje.
Lékaři a AI: nový a rozšířený lékařský tým
To, co zdravotní péče potřebuje, je AI, v jejímž centru je člověk, AI, která není poháněna pouze tím, co je technicky možné, ale především tím, co odráží klinické potřeby samotných zdravotníků. To znamená, že musíme spojit vědu o datech a technickou odbornost s empatickým pochopením klinického kontextu a kognitivních a emocionálních požadavků každodenní reality lékařů.
Zdravotníky a AI je nutné vnímat jako spolupracující systém. AI předčí lékaře ve specifických úkolech, ale teprve když se skloubí její přednosti s hlubokými klinickými zkušenostmi zdravotníků v komplementárním vztahu, může dojít k přijetí AI ve zdravotnictví.
Časné obrysy spolupráce člověka a AI již vidíme například v radiologii; což je obor, který byl v čele digitální transformace ve zdravotnictví a který je nyní líhní inovací AI. Inteligentní digitální asistent by vzhledem k celosvětovému nedostatku radiologů a odborníků v zobrazovacích metodách mnohé problémy vyřešil, nebo alespoň jejich řešení usnadnil.
Již dlouho jsem přesvědčen, že pro poskytování smysluplných inovací musíme inovovat spíše s lidmi než pro lidi. Jak jsem před časem argumentoval na konferenci Fortune Brainstorm Design, budování algoritmů v mezích výzkumné laboratoře samo o sobě nám nepřinese AI zaměřenou na člověka. Místo toho se musíme nejprve dostat ke zdravotníkům a pochopit jejich každodenní realitu.
Prostřednictvím spolupráce s Catharina Hospital a Eindhoven University of Technology (jako součást naší společné spolupráce e/MTIC) a leidenským University Medical Center v Nizozemsku začínáme poznávat zkušené opinion leadery, kteří jsou zastánci spolupráce lékař– AI v radiologii. Zcela jasně jsme si ověřili, že vývoj AI zaměřené na člověka zahrnuje mnohem víc než přijít s vynikajícím uživatelským rozhraním.
To, co je technicky možné, nemusí být to, co je skutečně potřeba
V první řadě si musíme položit otázku: jaký druh AI by byl vůbec potřebný? To se jeví jako samozřejmá otázka, ale aplikace umělé inteligence se často nepodaří předat do klinické praxe právě proto, že základní potřeba nebo problém nebyly správně definovány.
Například pokud je algoritmus analýzy obrazu schopen pouze identifikovat abnormality, které radiolog na první pohled rozpozná, pak je přidaná hodnota AI limitována navzdory dokonalému technickému provedení. Dalším příkladem může být algoritmus, který pomáhá měřit velikost nádoru. AI může být o něco přesnější než lidský pozorovatel, ale pokud je rozdíl tak malý, že to prakticky neovlivní rozhodnutí o léčbě, pak AI není pro pacienta skutečným přínosem.
Samotná definice přidané hodnoty, což je zásadní výchozí bod, musí zahrnovat přínos pro pracovní postup a v konečném důsledku jej zefektivnit. To umožní přijetí AI v klinické praxi.
Při spolupráci s radiologickými partnery jsme se již naučili, že to, co se může jevit jako užitečná aplikace na papíře, ve skutečnosti může být pro radiologa zátěží, pokud v něm budí pocit, že „přidá do svého pracovního postupu ještě další věc“. Radiologové pracují ve složitém a náročném prostředí a paralelně používají různé softwarové aplikace na vícero obrazovkách. Proto je opravdu důležité, abychom do jejich stávajících zobrazovacích a informatických řešení vložili aplikace AI, které by učinily informace snadno dostupnými a srozumitelnými, místo toho, abychom přidávali do řady další položku k řešení.
Musíme však ještě holističtěji přemýšlet o integraci pracovního postupu a dívat se na diagnostický systém jako celek. Například AI by mohla provést předběžnou analýzu pacientova CT a označit suspektní nálezy, které vyžadují okamžité provedení PET‑CT. Sama o sobě by to byla velmi užitečná aplikace. Fungovala by však pouze v případě, že ve stejném dni bude možné nalézt přístrojový čas k provedení PET‑CT. Jak ukazuje tento příklad, je nutné se podívat na způsob práce celé nemocnice, nejen na jednotlivé prvky pracovního postupu.
AI by měla budit důvěru, která odpovídá jejím možnostem
S příchodem AI deep learning („sebezdokonalování“) se systémy umělé inteligence staly mnohem přesnějšími a výkonnějšími. Avšak výsledky se obtížněji interpretují a vyžadují důvěru a znalosti uživatele. Důvěra je pro přijetí zásadní, ale je těžké ji získat. Důvěra se také snadno ztratí, když systém AI poskytne několik chybných doporučení, i když v průměru dosahuje velmi přesných výsledků.
Nechceme, aby radiolog slepě sledoval nálezy algoritmu AI, když algoritmus může (vzácněji) přehlédnout onemocnění. To, co chceme, je důvěra, která odpovídá možnostem AI. To znamená, že musíme najít tenkou hranici mezi nedůvěrou a bezmeznou důvěrou.
Několik studií již ukázalo, že radiologové přehlédli malé karcinomy, které AI identifikovala [5,6]. Na druhé straně je extrém přílišného spoléhání se na AI, což způsobí, že radiologové nediagnostikovali karcinomy, které AI nedokázala identifikovat [7,8].
Jak pomoci radiologům najít správnou rovnováhu mezi důvěrou a kontrolou?
Za prvé je nezbytné, aby radiologové pochopili, co systém AI může a nemůže udělat, na jakých datech byl zkoušen a k čemu byl optimalizován. Algoritmus lze například optimalizovat tak, aby detekoval malé nádory v plicích, ale ty větší by proto mohl přehlédnout. To není pro radiologa samozřejmostí a vyžaduje to aktivní komunikaci, aby se zabránilo nedůvěře. Kromě toho je nutné uvažovat o tom, jak učinit nálezy AI co nejsrozumitelnější.
Lidé na prvním místě
Samozřejmě, vnímání AI lékařskou veřejností se bude i nadále vyvíjet s rozvojem schopností AI. Stejně jako absolvent lékařské fakulty, který se poprvé připojí k týmu, musí AI prokázat svoji přidanou hodnotu a získat svou důvěru v průběhu času.
Díky AI jako důvěryhodnému spolupracovníkovi, který je bezproblémově začleněn do pracovního procesu, budou radiologové osvobozeni od rutinních úkolů a budou moci trávit více času složitými případy, což zvýší jejich úspěšnost v klinickém rozhodování. Zdravotničtí pracovníci v jiných oblastech medicíny budou stále více těžit také z pomoci AI, ať už se jedná o digitální patologii, akutní péči, zobrazením navigované výkony, nebo léčbu chronických onemocnění. Pevně věřím, že díky AI bude práce zdravotníků úspěšnější.
Designéři musejí převzít aktivní roli od samého počátku vývoje AI a ve spolupráci s datovými vědci, inženýry a klinickými odborníky musejí vytvořit umělou inteligenci, která bude mít pozitivní dopad na zdravotnické pracovníky i pacienty.
Umělá inteligence ve zdravotnictví plně splní svůj příslib a očekávání jen tehdy, pokud dáme na první místo lidi, ne technologii. Sean Carney Chief Experience Design Officer & Business Leader Healthcare Transformation Services
Sean Carney vede organizace Philips Experience Design and Consulting a zajišťuje, aby byli klienti informováni o inovační strategii, designu a vývoji produktů a o širších poradenských službách. Jeho dvojrole je posílena ambicí transformovat zdravotní péči spoluprací s více než 500 interních návrhářů, architektů a konzultantů a jejich přístupem ke kolektivnímu myšlení.
Literatura
[1] Kelly CJ, Karthikesalingam A, Suleyman M, et al. Key challenges for delivering clinical impact with artificial intelligence. BMC Med. 2019 Oct 29;17(1):195. doi: 10.1186/s12916‑019‑1426‑2.
[2] Strohm L, Hehakaya C, Ranschaert ER, et al. Implementation of artificial intelligence (AI) applications in radiology: hindering and facilitating factors. Eur Radiol. 2020 Oct;30(10):5525–5532. doi: 10.1007/s00330‑020‑06946‑y.
[3] Gawande A. Why doctors hate their computers. New Yorker, 2018. https://www.newyorker.com/magazine/ 2018/11/12/why‑doctors‑hate‑their‑computers
[4] Wachter RM. The digital doctor: hope, hype, and harm at the dawn of medicine’s computer age. 2015.
[5] De Boo DW, Prokop M, Uffmann M, et al. Computer‑aided detection (CAD) of lung nodules and small tumours on chest radiographs. Eur J Radiol. 2009 Nov;72(2):218–225. doi: 10.1016/j.ejrad.2009.05.062.
[6] Nishikawa RM, Edwards A, Schmidt RA, et al. Can radiologists recognize that a computer has identified cancers that they have overlooked? In: Medical Imaging 2006: Image Perception, Observer Performance, and Technology Assessment, 614601. https://doi.org/10.1117/12.656351.
[7] Jorritsma W, Cnossen F, van Ooijen PMA. Improving the radiologist–CAD interaction: designing for appropriate trust. Clin Radiol. 2015 Feb;70(2):115–122. doi: 10.1016/j.crad.2014.09.017. [8] Lee JD, See KA. Trust in automation: designing for appropriate reliance. Hum Factors. 2004 Spring;46(1):50–80. doi: 10.1518/hfes.46.1.50_30392.
Zdroj: MT