Rozhovor - Eva Fialová: Výzev spojených s umělou inteligencí a právem je mnoho

18.11.2020, Karolina Drachovská, redaktorka PRÁVNÍ PROSTOR


V souvislosti s umělou inteligenci v právu se hojně diskutuje především otázka odpovědnosti, případné subjektivity umělé inteligence, nakládání s daty nebo její postavení z pohledu veřejnoprávního. Jaké téma je nyní nejaktuálnější? 

Nejaktuálnější je nyní beze sporu otázka odpovědnosti. Umělá inteligence je a bude využívaná v celé řadě odvětví lidské činnosti. V některých odvětvích mohou být následky špatného rozhodnutí pro uživatele fatální, např. havárie autonomního auta, nebo chybná diagnóza. Umělá inteligence se může rozhodnout chybně sama. Velmi často nebude žádný „viník“ špatného rozhodnutí, nebo ho nebude možné přinejmenším zjistit. I v takovém případě je důležité odškodnit poškozené. V říjnu tohoto roku přijal Evropský parlament usnesení obsahující návrh nařízení o odpovědnosti za provoz systémů umělé inteligence. Podle tohoto návrhu by měl nést objektivní odpovědnost za provoz vysoce rizikových systémů umělé inteligence jejich provozovatel, tedy něco, co už známe z našeho občanského zákoníku v případě odpovědnosti za provoz dopravního prostředku.

Nakládání s daty je samozřejmě také důležité téma. Je potřeba, aby provozovatelé a vývojáři měli k testování systémů hodně dat a data byla přesná, ale zároveň je nutné dodržovat právo na ochranu osobních údajů. 

Z mého pohledu je také důležité téma, jak umělou inteligenci právně a pro účely regulace definovat. Tato definice se nemusí shodovat s definicí technickou. 

Jaká největší výzva pro právo je s umělou inteligencí podle Vás spojena? 

Výzev spojených s umělou inteligencí a právem je mnoho. Od zmíněné odpovědnosti, přes legální využívání dat, diskriminaci až po právní režim díla vytvořeného umělou inteligencí. Jak se bude využití umělé inteligence rozšiřovat, jistě přijdou i další problémy a výzvy, které dnes ještě neumíme odhadnout. Výzvou je i povědomí uživatelů o systémech umělé inteligence. Lidé by měli o umělé inteligenci vědět, sice ji důvěřovat, ale být si i vědomi, že umělá inteligence není neomylná.    

Měla by mít uměla inteligence právní osobnost? Pokud ano, od jakého okamžiku by takový krok mohl být podle Vás účelný? 

Myšlenka právní subjektivity se v dokumentech Evropské unie objevila, ale už se s ní nepracuje. Nyní není pro to, aby umělá inteligence měla právní osobnost, využití. Účelné by toto mohlo být v případech, kdy by se umělá inteligence tak vyvinula, že by už dávalo smyl přiznat jí právní osobnost podobně, jako jsme ji přiznali právnickým osobám. 

Jak se díváte na otázku odpovědnosti v případě, kdy v souvislosti s faktickým jednáním umělé inteligence dojde ke vzniku újmy? Můžeme na takové situace aplikovat nějakou ze stávajících deliktních skutkových podstat vymezených v občanském zákoníku?

Hlavním problémem umělé inteligence je nemožnost, nebo minimálně značná obtížnost určit, kdo je za škodu odpovědný, ve smyslu, kdo ji zavinil. Občanský zákoník obsahuje několik skutkových podstat, které bychom při vzniku takové újmy mohli použít, protože jsou postavené na objektivní odpovědnosti. Jedná se např. o škodu způsobenou provozní činností, nebo škodu z provozu dopravního prostředku, pokud by se na našich silnicích testovala autonomní vozidla. Některá ustanovení bychom sice použít mohli, ale dokazování by bylo pro poškozeného velmi náročné. Typicky odpovědnost za škodu způsobená vadou výrobku. Výrobek je podle stávající právní úpravy movitá věc. Umělá inteligence je software. Poškozený také musí prokázat, že výrobek byl vadný, což není v silách ani možnostech průměrného spotřebitele. Navíc, je vada to, že aplikace určitým způsobem vyhodnotila data, jejichž část přejala od jiné propojené aplikace, a pak generovala výstup, neboli nějak se rozhodla? Revize odpovědnosti za škodu způsobenou vadou výrobku se proto nyní v souvislosti s umělou inteligencí hodně řeší.

Měl by povinnost k náhradě takové újmy nést výrobce, uživatel či snad sama umělá inteligence, pokud bychom jí přiznali právní osobnost? 

Již zmíněný návrh Evropského parlamentu počítá s odpovědností provozovatele systému. Povinnost k náhradě škody výrobce nebo uživatele ale také není vyloučena. Výrobce sice nemůže ovlivnit, jak se výrobek založený na umělé inteligenci v budoucnu zachová, ale má z prodeje takových výrobků prospěch. U některých výrobků, třeba u autonomních vozidel by výrobci mohli přispívat do fondů, ze kterých by se pak některé druhy škod hradily. Uživatel výrobku by mohl být odpovědný nebo spoluodpovědný, pokud by např. neaktualizoval software. Umělá inteligence, i po přiznání právní subjektivity, by musela vlastnit majetek, aby měla z čeho škodu hradit, ale to je skutečně sci-fi.

Tématu AI ve své vědecké práci věnujete hodně prostoru. Inspirujete se ve svých úvahách např. i v nějakých sci-fi románech či podobných (mimoprávních) pramenech? 

Sci-fi mě nikdy nebavilo, spíš literatura faktu. Vědec zabývající se právem umělé inteligence musí sledovat, jak pokračuje technický pokrok, aby mohl jednak identifikovat právní dopady, jednak aby věděl, co je technicky a fyzikálně u dané technologie možné, a co už nikoliv.  

Nové technologie ve svých životech využíváme stále více. Žádný tuzemský soud vyšší instance, pokud je mi známo, však o umělé inteligenci ještě nerozhodoval. Znáte nějaký příklad relevantního judikátu ze zahraničí? 

Soudy nerozhodují o umělé inteligenci jako takové. Vždy se jedná o její aplikaci. V USA často skočí spory (bohužel pro nás právníky) smírem. Jedná se o náhradu škody způsobené autonomním vozidlem, nebo použití algoritmů Googlem. V Německu se v tomto roce vyskytly dva opačné případy. Společnosti nepravdivě tvrdily, že jejich systém je inteligentní a komplexní, a v jednom ze dvou případů i autonomní, což bylo podle soudu klamání spotřebitele. Co se týče soudních rozhodnutí a rozhodování, je zajímavější tendence nechávat rozhodovat umělou inteligenci. Ve Spojených státech existují „inteligentní“ systémy, které předpovídají recidivu pachatelů a podle rozhodnutí systému je soudce podmínečně propustí nebo ponechá ve výkonu trestu.  

V České republice není umělá inteligence výslovně normována. Necháme-li stranou, zda by výslovně upravena být měla, v jakých zemích by tuzemský zákonodárce mohl pro právní regulaci AI hledat inspiraci? Je v některých zahraničních státech právní postavení umělé inteligence přímo normováno?

Není mi známo, že by umělá inteligence jako taková byla v nějakém státě normována. Právní regulace se týká určitých způsobů použití umělé inteligence. V Německu existuje v zákoně o silniční dopravě ustanovení o autonomních vozidlech, v Nizozemí a ve Francii mají normy regulující jejich testování. Velké téma je zákaz nebo minimálně regulace autonomních zbraní. Ve Velké Británii upravují díla vytvořená počítačem. O podobě právní regulace umělé inteligence se intenzivně jedná v Evropské unii. Česká republika má tedy prostor být s regulací umělé inteligence inspirací pro jiné státy.