Odpovědnost chytrých robotů
V červnu pořádala Akademie medicínského práva spolu se spolkem Innovasion debatu o právních a etických aspektech umělé inteligence ve zdravotnictví. Zdravotnických technologií, které využívají umělou inteligenci se schopností samostatného učení, ve výzkumu i v praxi přibývá. S tím získávají na důležitosti i právní otázky. Zejména to, kdo by měl nést odpovědnost v případě, že takový zdravotnický prostředek někoho poškodí.
„Umělá inteligence může být ve zdravotnictví v budoucnosti jak pomocník, tak monstrum. Nikdo nedokáže dohlédnout, kde to skončí. Můžeme ale pomoci tomu, aby vznikl určitý etický a právní rámec. Abychom mohli prostor pro využití umělé inteligence ve zdravotnictví regulovat, musíme jej nejdřív pojmenovat, a předtím ho musíme poznat,“ uvedla problém spolupořadatelka konference MUDr. Mgr. Jolana Těšinová, Ph.D., přednostka Ústavu veřejného zdravotnictví a medicínského práva 1. LF UK.
Jako klíčovou právní otázku rozebral doc. JUDr. Radim Polčák, Ph.D., vedoucí Ústavu práva a technologií Masarykovy univerzity, právní odpovědnost za újmu, kterou by způsobil robot s umělou inteligencí. „Je potřeba rozlišovat mezi tím, jestli je použitá technologie autonomní, nebo není. Z hlediska medicínského využití je jedno jako druhé zajímavá technologie. Z hlediska právní reflexe a odpovědnosti je to ale velký rozdíl. Autonomní technologie není transparentní. Je typická tím, že se postupně učí a upravuje svůj kód. A to takovým způsobem, který není pro člověka vnímatelný. Hovoří se o vysvětlitelnosti algoritmu robota. To je podstatné v momentě, kdy se ptáme, kdo způsobil nebo v horším případě kdo zavinil určitou újmu. U autonomní technologie nejsme schopni prohlédnout její kód. Odpovědnost za újmu, kterou autonomní systém způsobí, je z hlediska práva problémový okruh,“ uvedl doc. Polčák. „Pokud se bavíme o újmě způsobené při poskytování zdravotní péče, aplikujeme dnes model postavený na zavinění. Na něm je postavená odpovědnost v medicíně. Zpravidla až na extrémy, kdy někdo vysloveně chce někomu ublížit, jde pak především o nedbalost, a to nedbalost vědomou nebo nevědomou. Zkoumáme míru nedbalosti, podle toho hodnotíme odpovědnostní následky. Problém je, že u autonomního systému je jakýkoli prvek zavinění těžko prokazatelný,“ upozornil doc. Polčák.
Uvedl, že ani i u běžného softwaru není dosud vymáhání náhrady újmy zaběhané. „Nejsou časté případy, kdy by soudy rozhodovaly o odpovědnosti za újmu způsobenou vadou softwaru. Přitom často dochází k tomu, že software něco špatně zpracuje a ztratíme důležitou práci, musíme ji dělat znovu. Ztratíme tím čas, a to už je újma, která je kompenzovatelná. Přestože k tomu dochází, nemáme v Evropě případy, kdy by se podařilo je úspěšně žalovat. Právě proto, že se těžko prokazovala míra zavinění,“ dodává doc. Polčák.
Soudní rozhodnutí o újmě způsobené vadou běžného softwaru tedy chybí. Docent Polčák proto nesouhlasí s myšlenkou, že by se případné újmy způsobené autonomním robotem měly řešit jako vada výrobku. Odpovědnost v případě užití autonomních robotů s umělou inteligencí by se proto měla podle něj řešit s využitím modelu no‑fault liability (objektivní odpovědnost), kdy se neřeší zavinění. Podobně jako u aut za škodu způsobenou provozem vozidla rovnou odpovídá provozovatel vozidla a platí se z pojistky, pak teprve se zkoumá, jestli se někdo dopustil přestupku. „Takto by to v medicíně bylo problematické. Měli bychom absolutní odpovědnost zdravotnického zařízení za újmu, která by se pacientovi stala v souvislosti s léčbou. To je nepřijatelné. Pro případy, kdy se budou autonomní technologie využívat při poskytování zdravotní péče, bychom měli uvažovat o nějaké kombinaci modelu odpovědnosti založené na zavinění a modelu no‑fault liability. Tuto otázku řešila i Evropská komise, i když ne specificky pro zdravotnictví. Vypadá to, že by se mohlo jít cestou auditů a certifikace technologií v kombinaci s průběžným dohledem a s pojištěním,“ nastiňuje doc. Polčák.
Za významné považuje, jak se k věci postaví komerční pojišťovny a zajišťovny. Pokud budou pojistky dostupné, může to investice do technologií s umělou inteligencí podpořit, a naopak. „Alfou a omegou budoucnosti autonomních technologií podle mě bude to, jestli se podaří regulatorní prostředí nastavit tak, aby to bylo dostatečně bezpečné, ale aby na druhé straně cena pojistky nepředstavovala neúměrnou překážku,“ uvádí doc. Polčák.
Investorům vyhovuje režim compliance, kdy jim určitou právní jistotu poskytuje splnění certifikací. Takové certifikace ale budou muset u zdravotnických prostředků s autonomní umělou inteligencí probíhat nejen při jejím uvedení na trh, ale průběžně auditním způsobem, poznamenal dál doc. Polčák. Podle doc. JUDr. Tomáše Doležala, Ph.D., advokáta, pedagoga a vědeckého pracovníka Ústavu státu a práva, bude potřeba hledat nové právní přístupy k odpovědnosti pouze u malé části využití umělé inteligence ve zdravotnictví. „Umělá inteligence je módní obor. Myslím ale, že jsme schopni si s odpovědností poradit, máme určitá kompenzační schémata, která jsou použitelná, když je oprášíme. Jen ve velmi malém výseku aplikací bychom měli začít uvažovat o překonání stávající konstrukce odpovědnosti,“ myslí si doc. Doležal. Zmínil usnesení Evropského parlamentu z roku 2017, podle kterého je stávající systém odpovědnosti u umělé inteligence nedostatečný a je potřeba uvažovat o změnách. „Úplně s tím nesouhlasím, nemyslím, že by stávající systém odpovědnosti byl nedostatečný. Možná u některých typů nebo funkcionalit umělé inteligence. Už jen s ohledem na to, že v některých oborech používáme umělou inteligenci už dlouho a doposud jsme si se stávajícími pravidly vystačili,“ argumentuje doc. Doležal. „Co může vyžadovat jinou regulaci, jsou vysoce autonomní roboti, kteří si budou vytvářet rozhodnutí sami a budou je také uskutečňovat. Tam se může ukázat, že stávající systém není dostatečný. Je věcí politickou, u koho si řekneme, že odpovědnost končí,“ uvádí doc. Doležal.
Zdůraznil, že software je podle evropských dokumentů zdravotnický prostředek a jako k takovému je potřeba přistupovat i k technologiím s umělou inteligencí. „V diskusích o odpovědnosti u robotů a umělé inteligence je podstatné, jak velkou míru autonomie technologie má a nakolik je jen otrokem původních algoritmů. Další faktor je účel použití. Málokoho by napadlo, když vidíme, kolik přístrojů se používá ve zdravotnictví, že bychom jim udělovali právní subjektivitu. Najednou se ale tyto úvahy objevují ve chvíli, kdy ta zařízení začínají vypadat jako člověk. Je to past. Pořád je to stroj. Umělá inteligence je nástroj, nic jiného. A to je potřeba mít na paměti, když diskutujeme o odpovědnosti,“ myslí si doc. Doležal.
Poznamenal, že při definici umělé inteligence se v poslední době více zdůrazňuje to, že algoritmus je schopen se dál učit a činit na základě toho rozhodnutí. Využití umělé inteligence ve zdravotnictví narůstá. Jako příklad uvedl doc. Doležal diagnostiku. Umělá inteligence se využívá například při vyhodnocování snímků ze zobrazovacích metod. Po „načtení“ velkého množství dat dokáží programy s umělou inteligencí rozlišit na snímcích známky onemocnění s velmi vysokou přesností. V současnosti diagnózu vždy potvrzuje lékař. Umělá inteligence mu „jen“ radí. Nemusí tomu ale tak být vždy i do budoucna. „Existují studie, ve kterých prováděla vyhodnocení vyšetření aplikace s umělou inteligencí samostatně. Posléze se srovnávalo, jak je úspěšná umělá inteligence a jak lékař. U některých diagnóz byla úspěšnější umělá inteligence,“ upozorňuje Doležal.
Zdroj: MT