V současnosti byly zveřejněny návrhy dvou právních aktů EU, které mohou vytvářet dojem, že řeší beze zbytku problematiku odpovědnosti za jednání umělé inteligence (AI): Akt o umělé inteligenci a Směrnice o odpovědnosti za umělou inteligenci. Není tomu zcela tak, protože tímto není dotčena otázka trestněprávní odpovědnosti za jednání robotů, případně AI jako takové. Článek se zabývá touto problematikou, které byla doposud v odborném tisku, ale i ve sdělovacích prostředcích věnována minimální pozornost, pomineme-li různé katastrofické scénáře a nepodložená varování vyslovovaná různými světovými celebritami. Přitom se zaměřuje pouze na roboty, které působí fyzicky na okolní svět, nikoli na ryze softwarové roboty či jiné programy, jako jsou konverzační systémy AI (např. ChatGPT) nebo systémy pro uměleckou tvorbu (DeepArt, Magenta, Aiva atd.).
robot trestní odpovědnost AI dokazování
K novým předpisům EU týkajícím se AI
V této části je popsána geneze nejnovějších dokumentů EU souvisejících s odpovědností za AI.
Zpráva EU o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost
V únoru 2020 byla vydána Zpráva EU o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost. [1] Ta se zabývá problematikou bezpečnosti výrobků z pohledu specifických vlastností AI, jako je zejména autonomie, kdy by důsledky nezamýšlených výstupů umělé inteligence mohly poškodit uživatele a jiné osoby. Jsou zde popsána rizika pro uživatele i spotřebitele, kam kromě zmíněné autonomie patří konektivita, závislost na datech, neprůhlednost a složitost (proces rozhodování bude obtížné sledovat), rizika software, ale i poměrně svérázné riziko pro duševní zdraví. Zpráva se pohybuje v oblasti občanskoprávní odpovědnosti a naznačuje nutnost zavedení objektivní odpovědnosti, jak je stanovena ve vnitrostátních právních předpisech pro podobná rizika, kterým je veřejnost vystavena (např. u provozu motorových vozidel, letadel nebo jaderných elektráren).
Návrh aktu o umělé inteligenci
Evropská komise následně přijala v dubnu 2021 návrh Nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) amění určité legislativní akty Unie. [2] Návrh vychází z přístupu založeného na rizicích a stanoví jednotný horizontální právní rámec pro UI, jehož cílem je zajistit právní jistotu. Toto nařízení stanoví:
- harmonizovaná pravidla pro uvádění systémů umělé inteligence (dále jen „systémy UI“) na trh a do provozu a pro jejich používání v Unii
- zákaz určitých postupů v oblasti UI,
- zvláštní požadavky na vysoce rizikové systémy UI a povinnosti provozovatelů těchto systémů,
- harmonizovaná pravidla transparentnosti pro systémy UI určené k interakci s fyzickými osobami, pro systémy rozpoznávání emocí a pro systémy biometrické kategorizace, jakož i pro systémy UI používané k vytváření obrazového, zvukového nebo video obsahu nebo k manipulaci s ním,
- pravidla monitorování trhu a dozoru nad ním.
Najdeme zde definici umělé inteligence, která je chápána ryze softwarově (viz Box 1).
Návrh člení systémy s AI do kategorií podle rizika: systémy AI představující nepřijatelné riziko, vysoké riziko, omezené riziko a minimální riziko. Podle názoru autora by se dal tento předpis označit za jakési „GDPR pro AI“, a to včetně drakonických sazeb pokut. Nicméně některé požadavky jsou vcelku rozumné, jakkoli pro jejich obecnost až dokonce deklarativnost bude záležet na obsahu příslušných prováděcích předpisů, budou-li ovšem vydány:
- zavedení systému řízení rizik,
- soubory tréninkových dat, dat pro ověřování platnosti a testovacích dat,
- technická dokumentace,
- vedení záznamů (protokolů, logů),
- lidský dohled,
- přesnost, spolehlivost a kybernetická bezpečnost.
Z trestněprávního hlediska může mít přijetí aktu o umělé inteligenci význam v tom, že bude možno posoudit případně nedbalostní jednání poskytovatelů (tento termín je použit z nepříliš jasných důvodů místo termínu výrobce) a dovozců, případně uživatelů.
Směrnice EU o odpovědnosti za vadné výrobky a za umělou inteligenci
V září 2022 Evropská komise přijala dva návrhy na přizpůsobení pravidel odpovědnosti digitálnímu věku, oběhovému hospodářství a dopadu globálních hodnotových řetězců. První navrhuje modernizovat stávající pravidla objektivní odpovědnosti výrobců za vadné výrobky (od inteligentních technologií po léčiva), druhý stanovit jednotná pravidla pro přístup k informacím a zmírnění důkazního břemene v souvislosti se škodami způsobenými systémy umělé inteligence, zavést širší ochranu obětí (ať už se jedná o jednotlivce, nebo podniky) a podpořit odvětví umělé inteligence zvýšením záruk.
Směrnice o odpovědnosti za AI [3] navazuje na Akt o AI, zjednodušuje právní postup pro oběti, pokud jde o prokazování, že něčí zavinění způsobilo újmu. Za okolností, kdy bylo zjištěno příslušné zavinění a příčinná souvislost s jednáním umělé inteligence se jeví jako přiměřeně pravděpodobná, bude tzv. domněnka příčinné souvislosti řešit obtíže, s nimiž se setkávají oběti, jež musejí podrobně vysvětlit, jak byla újma způsobena konkrétním zaviněním nebo opomenutím, což může být ve snaze o pochopení složitých systémů AI obzvláště obtížné. Oběti budou mít více nástrojů, jak usilovat o právní odškodnění, a to zavedením práva na přístup k důkazům od společností a dodavatelů v případech, kdy se jedná o vysoce rizikové systémy umělé inteligence.
Usnesení Evropského parlamentu o umělé inteligenci v trestním právu
Jediným dokumentem, který doposud alespoň částečně propojil na úrovni orgánů EU umělou inteligenci a trestní právo, je Usnesení Evropského parlamentu ze dne 6. října 2021 o umělé inteligenci v trestním právu a jejím využívání policií a soudními orgány v trestních věcech. [4] Toto usnesení se zabývá výlučně používáním AI v oblasti vymáhání práva a soudnictví. Jde tedy opět o problematiku veřejnoprávní ochrany osobních údajů a soukromí. Navíc jde pouze o výzvu určenou Evropské komisi, která s ní může naložit v podstatě libovolně.
Souhrn
Z výše uvedeného vyplývá, že se EU vydala cestou nastavení pravidel pro vývoj, výrobu a šíření produktů na bázi AI, přičemž navržené právní katy mají veřejnoprávní charakter. Ukládají poměrně obecně stanovené povinnosti, jejich nedodržení hodlají sankcionovat drakonickými pokutami a definují objektivní odpovědnost za škodu způsobenou AI. To vše vytváří podmínky pro uplatňování občanskoprávní odpovědnosti za AI.
Pojem „robot“ a jejich kategorie
V souvislosti s robotizací a rostoucími schopnostmi robotů využívajících AI se čím dál více objevuje zcela nový fenomén, kterým je cosi jako vlastní vůle, vlastní iniciativa či vlastní, samostatné rozhodování robotických systémů, které opouštějí pozice po staletí vyhražené nemyslících, více či méně sofistikovaných, ale pouhých mechanismů plně podléhajících vůli a pokynům člověka. Některé roboty se ocitají v nové roli čehosi, co by se snad nejlépe dalo pro začátek nazvat samostatně jednajícím, tedy autonomním strojem. Je patrno, že takový nový aspekt se nepochybně promítne i do práva; proto se autoři zaměřili na eventuální trestní odpovědnost za protiprávní následky jednání robotů a jak ji prokázat.
Definice robota
Technická podstata robota se vyvíjí neustále směrem od jednoduchých manipulátorů až k autonomním systémům, kde robot vykazuje schopnost provádět zamýšlené úkoly na základě aktuálního stavu a údajů ze snímačů bez lidského zásahu, ve svém prostředí se pohybuje a provádí zamýšlené úkoly, přičemž obsahuje řídicí systém a rozhraní řídicího systému. [5] Jednání robota musí mít přímou nebo nepřímou odezvu ve fyzickém světě (nemusí to být přímo mechanickou manipulací, ale i předáním povelu jinému systému, který má interface do fyzického světa – např. ovládání vodovodní sítě nebo řízení silničního provozu). Roboty výlučně softwarové budou zde zařazeny mezi počítačové programy a nejsou předmětem tohoto příspěvku.
Robot se liší od informačních systémů schopností bezprostředně fyzicky působit na své okolí. Dlouhou dobu byl pojem robot (mimo roboty domácí) převážně chápán jako tzv. průmyslový robot, jakkoli se slovo „průmyslový“, tedy systém primárně určený pro provádění jednoduchých, typicky opakujících se mechanických operací, může jevit jako příliš omezující s tím, jak roboty pronikají i do výrazně „neprůmyslových“ oblastí – např. lékařství. Definice průmyslového robota podle International Federation of Robotics (IFR) [6] (viz Box 2).
Roboty mohou být zcela nebo částečně autonomní nebo mohou být vzdáleně řízeny (programem v cloudu a/nebo člověkem), namnoze asi obojím v nějaké předvídané součinnosti. Míra autonomie robota je zatím určována člověkem, a to buď a priori na úrovni nějakého předpisu, nebo za konkrétní situace ovládající osobou, kdy lidský operátor se vždy nachází v řídicí smyčce programu takového robota. Příkladem může být autopilot v letadle, kterému po nastavení určitých podmínek předá pilot řízení, nicméně jeho činnost dozoruje a může do práce tohoto robota kdykoli zasáhnout – opravit jeho řízení nebo jej zcela vypnout. Přitom ovšem podmínky, za nichž může svěřit pilotování tomuto zařízení, vyplývají zleteckých předpisů, předpisů výrobce letadla a konkrétních podmínek letu.
Generace robotů
Roboty je z hlediska úrovně jejich schopnosti k samostatnému rozhodování možno rozdělit do pěti generací (viz Box 3). Počínaje 3. generací bude zřejmě problémem již stanovení příčiny nežádoucího jednání. A o to těžší bude eventuální hledání právní odpovědnosti. Řada autorů trvá na tom, že vývoj bude mít lidstvo stále pod kontrolou. Roboty však zatím nemají vědomí a schopnost sebeuvědomění jako nezbytné podmínky pro převzetí moci, proto se odhadovaná doba dosažení singularity [8] v odborných pracích stále oddaluje. [9] Je také otázkou, zda k sebeuvědomění robotů vůbec někdy dojde, protože nezbytnou podmínkou jsou jednak přirozené emoce strojů, jednak jejich schopnost uvědomovat si svoje postavení v modelech světa, zákonná a morální pravidla a jejich síla/priority, stejně jako komunikace na základě těchto modelů s jinými roboty v komunitě a zejména plánování činnosti k jistému cíli, který si roboty samy vytyčí. [10] Pokud člověk robotům neumožní, aby si samy stanovovaly cíl, eventuálně podrží svoji ruku na vypínači energie, je velká naděje, že k singularitě vůbec nedojde. [11] Ale již stávající roboty 3. generace mohou představovat problém.
Samořídicí automobily
Jednou z nejviditelnějších oblastí semi-autonomních robotů jsou kromě autopilotů tzv. autonomní (samořídicí) vozidla. Čím více bude rozhodování svěřeno řídicímu systému robota, tím více nás bude zajímat:
- nastavení rozhodovacích algoritmů tak, aby nedošlo k negativnímu dopadu jejich činnosti či jejich selhání na život, zdraví či majetek. Podle názoru autorů je (zatím) správným řešením, aby priority byly nastaveny stejně jako v případě lidského řidiče; to se ale může změnit, zejména při kooperativní strategii, přičemž v této souvislosti je třeba zmínit princip krajní nouze – čin jinak trestný, kterým někdo odvrací nebezpečí přímo hrozící zájmu chráněnému trestním zákonem, není trestným činem,
- možnost řidiče, aby kdykoli mohl převzít ovládání vozidla podobně, jako může pilot vypnout nebo „přetlačit“ autopilota,
- stupeň ochrany řídicího systému před negativními vlivy okolí, a to úmyslnými (hacking) nebo neúmyslnými (elektromagnetické rušení či provozní selhání), lze ale uvažovat také o vnějších mechanických vlivech (pocházejících z prostředí, v němž se vozidlo pohybuje) mechanických zásazích (třetí osobou), a to počínaje servisními zásahy nebo útokem na vozidlo jako věc movitou, s nimiž by se měl umět řídicí systém také vypořádat – přinejmenším včasným varováním,
- samodokumentační schopnosti, tj. vytváření auditní stopy provozu vozidla (podobně jako existují tzv. černé skříňky v letadlech).
V dalším vývoji lze očekávat kooperativní strategii, jež povede k další optimalizaci chování takových systémů spolupracujících ve skupině (skupinová inteligence), uplatňované jednotlivými autonomně řízenými vozidly mezi sebou – tzv. kooperativní řízení (cooperative driving). Zlepšování informovanosti každého účastníka silničního provozu bude realizováno komunikací vozidlo-vozidlo (V2V, Vehicle-to-Vehicle) a komunikací vozidlo-dopravní infrastruktura v reálném čase. Tím se stane v podstatě jakákoli aktivní účast řidiče nejen zbytečnou, ale v mnohých případech i nežádoucí. Jde o to, že kooperace mezi vozidly, resp. mezi vozidly a jejich okolím může vést k takovému objemu a charakteru informací, které řidič nebude schopen pochopit či zpracovat v reálném čase nebo vůbec. Automatizace řízení bude proto efektivní tam, kde už by řidič nebyl schopen dodané množství informací v potřebném časovém rozsahu zpracovat a nepostačovalo by už ani to, aby se řídil doporučeními. Tudíž bude de facto (nikoli de jure) zbytečný a použitelný maximálně pro to, aby např. v případě, kdy se kooperující síť zhroutí (třeba v důsledku výboje blesku), byl schopen se vrátit do původního, méně komplexního modu a převzít řízení.
V první části článku považoval autor za potřebné odlišit problematiku odpovědnosti za škodu, která je koncipována v rámci navrhovaných předpisů EU, a definovat pojem „robot“, což je důležité pro další výklad. V něm se budeme věnovat již trestní odpovědnosti za činnost robotů, kde vzniká zcela nový rozměr odpovědnostních vztahů.
Tato e-mailová adresa je chráněna před spamboty. Pro její zobrazení musíte mít povolen Javascript.
Použité zdroje:
- Evropská komise. Zpráva Komise evropskému parlamentu, Radě a Evropskému hospodářskému a sociálnímu výboru. Zpráva o dopadech umělé inteligence, internetu věcí a robotiky na bezpečnost a odpovědnost, Brusel 2020. CELEX: 52020DC0064, COMNAT: COM_2020_0064_FIN, IMMC: COM(2020)64 final
- Evropská komise. Návrh nařízení Evropského parlamentu a Rady, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci (akt o umělé inteligenci) a mění určité legislativní akty Unie. Brusel, 2021. COM(2021) 206 final 2021/0106 (COD)
- Evropská komise. Návrh směrnice Evropského parlamentu a Rady o přizpůsobení pravidel mimosmluvní občanskoprávní odpovědnosti umělé inteligenci (směrnice o odpovědnosti za umělou inteligenci). Brusel, 2022. COM(2022) 496 final.
- Evropský parlament. Usnesení Evropského parlamentu ze dne 6. října 2021 o umělé inteligenci v trestním právu a jejím využívání policií a soudními orgány v trestních věcech. Strassburk, 2021. P9_TA(2021)0405, 2020/2016(INI) I
- SO 8373:1994 Manipulating industrial robots – Vocabulary. Viz https://www.iso.org/standard/15532.html.
- International Federation of Robotics, 2023. Dostupné na https://ifr.org/standardisation.
- FIKES, R. E. a N. J. NILSSON. STRIPS: A New Approach to the Application of Theorem Proving to Problem Solving. Artificial Intelligence, vol. 2, č. 3–4, Winter 1971, s. 189-208.
- KURZWEIL, R. The Singularity Is Near: When Humans Transcend Biology. New York: Penguin Books, 2006.
- FORD, M. R. Rise of the robots: technology and the threat of a jobless future. New York: Basic Books, 2015.
- BRYNJOLFSSON, E., MCAFEE, A. The second machine age: Work, progress, and prosperity in a time of brilliant technologies. New York: WW Norton & Co., 2014.
- MAŘÍK, V. Čtvrtá průmyslová revoluce zasáhne celou společnost. In: Bárta, M., Kovář, M. a O. Foltýn (eds.). Na rozhraní – Krize a proměny současného světa. Praha: Vyšehrad 2016, s 248.