Trestní odpovědnost za jednání robotů využívajících AI, část II.

Trestní odpovědnost za jednání robotů využívajících AI, část II.

Tento díl seriálu navazuje na první část, kde byla zdůrazněna odlišnost odpovědnosti za škodu, která je nyní koncipována v rámci navrhovaných předpisů EU, tedy coby občanskoprávní pohled, a definovány pojmy „robot“ a „samořídící vozidlo“. V druhé části se věnujeme trestní odpovědnosti za činnost robotů, kde vzniká zcela nový rozměr odpovědnostních vztahů. Klíčové jsou otázky příčinné souvislosti, zavinění, úmyslu a nedbalosti, což jsou aspekty typické pro oblast trestního procesu.

robot                            trestní                       odpovědnost                          AI dokazování

Odpovědnost za činnost robotů

Nový rozměr odpovědnostních vztahů

Nový rozměr odpovědnostních vztahů bude dán tím, že snad u všech doposud používaných strojů a zařízení příslušejících k 0. až 2. generaci je z hlediska případné odpovědnosti relativně jednoduchá linie jednání a následku. Ať již jde o konstrukci a výrobu těchto strojů, na jejímž začátku je projekt s prakticky vždy verifikovatelnými parametry, a tedy s relativně jednoduchou možností následného prověření, zda nějaká významná skutečnost nebyla při projektování opomenuta. Totéž platí o výrobním procesu, u kterého, vyjdeme-li z premisy, že projekt neměl podstatnou vadu, jde o zjištění, zda byl respektován anebo z nějakého důvodu došlo k odchylce, kteTento díl seriálu navazuje na první část, kde byla zdůrazněna odlišnost odpovědnosti za škodu, která je nyní koncipována v rámci navrhovaných předpisů EU, tedy coby občanskoprávní pohled, a definovány pojmy „robot“ a „samořídící vozidlo“. V druhé části se věnujeme trestní odpovědnosti za činnost robotů, kde vzniká zcela nový rozměr odpovědnostních vztahů. Klíčové jsou otázky příčinné souvislosti, zavinění, úmyslu a nedbalosti, což jsou aspekty typické pro oblast trestního procesu. Trestní odpovědnost za jednání robotů využívajících AI robot trestní odpovědnost AI dokazování rá mohla či nemusela být v příčinné souvislosti s následným protiprávním následkem. Další fází je samotné užití konečného produktu, které tam, kde jde o složitější výrobek s relativně větším škodním potenciálem, je regulováno právními předpisy. Typicky pokud jde o dopravní prostředky všeho druhu, kde právní předpisy výslovně stanoví způsob provozování těchto dopravních prostředků na veřejných komunikacích. U jiných je upravena jen odpovědnost za protiprávní následek, např. v případě odpovědnosti za škodu způsobenou provozní činností. Kromě toho existuje řada technických předpisů a technických norem, upravujících vlastnosti výrobků. Zde již ovšem bude k diskusi otázka povinnosti aplikace takových předpisů či norem na straně jedné, nebo naopak neexistence uvedených předpisů či norem, přestože by z hlediska prevenční povinnosti to bylo namístě.

U robotů 3. a zejména 4. generace ale již tomu tak není či nebude a bude právě velmi důležitá úprava jejich užívání a všeho co s tím souvisí, včetně případné odpovědnosti za škodu či újmu, která v důsledku selhání robota vznikne. V případě následku, který je v rozporu s účelem a smyslem stroje či zařízení lze relativně jednoduše analyzovat jednání a jeho soulad s právem, případné zavinění, jako subjektivní stránku možného trestného činu a samozřejmě i příčinný vztah mezi tímto jednáním a následkem. Současně se ovšem zcela zákonitě bude nabízet otázka, do jaké míry mohlo být toto selhání předvídáno při konstrukci robota a zda v této fázi nebo snad ve fázi výroby nedošlo k jednání, které by bylo možné dát do příčinné souvislosti s následkem a posléze zvažovat zavinění, respektive naplnění skutkové podstaty určitého trestného činu. Nicméně, vždy bude nezbytné počítat s faktem,

že i v jednodušším případě zcela deterministického chování řídicího systému takového robota nelze při náhodných (neočekávaných) vstupních signálech a datech (pozorování okolního světa) s jistotou určit výsledné chování za všech možných okolností. Tím se otevře značný prostor pro technicko-právní analýzy toho, co se při konstrukci a programování robota dalo předpokládat jako možné selhání, čemu se v rámci tohoto předpokladu dalo zabránit vhodnými úpravami a co je v kategorii náhody, či tzv. vis major.

Deliktní odpovědnost v robotice

Zřejmě ani existence a posléze hromadné užívání robotů třetí, čtvrté případně snad i nějaké vyšší generace nezmění nic na základním paradigmatu, podle něhož je-li základní či jedinou příčinou újmy selhání stroje, je z trestně právního hlediska důležité, zda jde to selhání zaviněné či nezaviněné. Jak známo, civilní právo zná i objektivní odpovědnost za následek (viz 1. část seriálu), tu ale nezkoumáme. Zkoumáme, co lze v případě ještě označit za zavinění ve smyslu trestního zákoníku, tj. kdy půjde o skutečné zavinění, a kdy o událost, která nebyla zaviněna jednáním fyzické či právnické osoby. Například zda jde o nezaviněné selhání či havárii, obecně coby důsledek náhody, resp. i nešťastné náhody. Toto bipolární schéma – zavinění vs. náhoda jistě platí i u robotů, pokud problém zjednodušíme a neuvažujeme jednání trestně neodpovědných osob, jakož i jednání za okolností vylučující trestní odpovědnost, např. stav přípustného rizika. Problém je ale s rozlišením, které je či spíše bude velice obtížné tam, kde robot má značnou autonomii jednání a nadto se může i učit, či samo-programovat. Učením se pouze nastavují parametry nějakého fixního systému situačního klasifikátoru, neuronové sítě, produkčního systému atp., zatímco samoprogramováním lze podstatně modifikovat rozhodovací principy, které chování robota ovlivňují.

a) Nepochybně již dlouhá léta fungují roboti či robotické systémy, které v řízených vnějších podmínkách vykonávají stále stejné opakující se operace (typicky průmyslové, montážní roboty/manipulátory). Manipulátory ve výrobní lince, které pokud někdo přímo nevstoupí do jejich operačního pole, jsou z hlediska níže uvedené úvahy prakticky neškodné.

b) Pak jsou ale roboty, které obecně pracují v prostředí s proměnlivými až velmi proměnlivými vnějšími okolnostmi, tedy v prostředí s nejistotou. Mezi tyto okolnosti patří i možnost kolize s někým jiným, ať již s člověkem nebo jiným robotem, či jinou věcí movitou či nemovitou. Typicky to jsou roboticky řízená auta, různé autonomní logistické mobilní roboty apod. Nicméně jde o roboty, kteří mají sice možná rozsáhlou, ale předem definovanou, a tedy i předvídatelnou škálu reakcí a postupů. Jinak řečeno, vše, co umí, do nich vložil člověk prostřednictvím programu.

c) Autonomní systémy, učící se roboti, inteligentní roboti, hybridní roboti apod. jsou složitá zařízení, někdy v kombinaci „živého“ (biologické struktury) a „neživého“, jejichž reakce a postupy již tak předvídatelné nejsou, protože se v nějaké míře, větší či menší, programují sami v rámci oné sebeedukace, případně přejímají vzory jednání člověka, resp. většího okruhu osob. S pokračující mírou autonomie ale stále méně víme, resp. jsme schopni zjistit, co se v „mozku“ takového zařízení odehrává či odehrálo před určitým incidentem.

Limitem trestní odpovědnosti, ostatně stejně pro všechny tři kategorie, je definice nedbalosti podle § 16 zákona č. 40/2009 Sb., trestního zákoníku: (1) Trestný čin je spáchán z nedbalosti, jestliže pachatel a) věděl, že může způsobem uvedeným v trestním zákoně porušit nebo ohrozit zájem chráněný takovým zákonem, ale bez přiměřených důvodů spoléhal, že takové porušení nebo ohrožení nezpůsobí, b) nebo nevěděl, že svým jednáním může takové porušení nebo ohrožení způsobit, ač o tom vzhledem k okolnostem a k svým osobním poměrům vědět měl a mohl. (2) Trestný čin je spáchán z hrubé nedbalosti, jestliže přístup pachatele k požadavku náležité opatrnosti svědčí o zřejmé bezohlednosti pachatele k zájmům chráněným trestním zákonem.

Vyloučíme-li úmysl, nedbalost hrubou a vědomou, je v případě strojů zařaditelných do kategorie a) relativně snadné určit, co měl ten, kdo robota provozuje vědět měl, ač tvrdí, že to nevěděl. Je to dáno tím relativně snadnou předvídatelností toho, co lze od robota očekávat.

U kategorie sub b) už je situace složitější. Zde už může být problém dovodit, co provozovatel robota měl vědět, aby bylo možné posuzovat jeho jednání jako zavinění ve formě vědomé nedbalosti. Tedy do jaké míry například může již zmiňovaný řidič spoléhat na to, že systém ovládaný aktivním radarem zabrzdí jeho auto před překážkou, když to dělá běžně a toto je jasně deklarováno i v návodu. A dokonce je auto vybaveno signalizací poruchy tohoto systému. Je spoléhání na tento systém přiměřeným důvodem nemít nohu na brzdě, když se auto blíží k překážce? Anebo – což je ještě fatálnější – když náhle někdo vstoupí do vozovky?

Ještě větší problémy přinese užívání prakticky zcela autonomních robotů, které jsou zmíněny v kategorii sub. c). U této skupiny bude zřejmě i problém prokazovat i úmysl. Pokud například „myslící“ robot sestrojí jiného robota, který místo aby zvedal břemena a nakládal je do drtičky, naloží do drtičky obsluhu, bude především zjišťována technická příčina selhání robota. Ale paralelně bude nutno se zabývat i tím, stejně jako v případě jakékoliv jiné průmyslové havárie, zda provozovatel případně výrobce (původního robota) udělali vše, aby k takovému selhání nedošlo. Aby například „myslící“ robot nevyrobil místo funkčního robota zmetek. Což ovšem zase znamená zjistit, co onen „myslící“ robot vlastně vyrobil a hlavně proč.

Hovořit o odpovědnosti lze obecně ve dvojím smyslu: jednak o odpovědnosti dle občanského zákoníku, jednak dle trestního zákoníku, přičemž by se ještě dala uvést kategorie odpovědnosti za přestupky a správní delikty související s roboty. Z hlediska trestní odpovědnosti bude třeba úmyslného zavinění, nestanoví-li trestní zákon výslovně, že postačí zavinění z nedbalosti. V případě úmyslu hovoříme o úmyslu přímém a úmyslu eventuálním, přičemž pachatel si je vědom toho, že svým činem může způsobit protiprávní následek, nebo je s tím srozuměn (srozuměním se rozumí i smíření pachatele s tím, že způsobem uvedeným v trestním zákoně může porušit nebo ohrozit zájem chráněný takovým zákonem).

Významné bude, zda potenciálnímu pachateli byla pro provozování robota uložena zákonem nebo případně podzákonným či dokonce interním předpisem povinnost určitého chování. V souvislosti s roboty to mohou být zcela obecně předpisy, jako je třeba zákoník práce v oblasti týkající se bezpečností a ochrany zdraví při práci, nebo ochrana obecně prospěšných zařízení, stejně jako Nařízení EU o zdravotnických prostředcích [1] nebo připravovaná legislativa EU popsaná v 1. části seriálu. A zda dotyčná osoba úmyslně či z nedbalosti jednala v rozporu se svými povinnostmi. Což může být kvalifikováno jako úmysl, nedbalost anebo opomenutí. V této souvislosti se jako relevantní jeví rozhodnutí Nejvyššího soudu ČR ze dne 12. 10. 2017, spis. zn. 6 Tdo 1062/2017-28: „Za porušení důležité povinnosti ve smyslu § 143 odst. 2 tr. zákoníku není možné považovat porušení jakéhokoli předpisu, ale jen takové v něm zakotvené povinnosti, jejíž porušení má zpravidla za následek nebezpečí pro lidský život nebo zdraví, jestliže jejím porušením může snadno dojít k takovému následku a také k němu často dochází. Rozhodujícím hlediskem při posuzování, zda jde o důležitou povinnost, je zvážení toho, jaký následek a s jakou pravděpodobností z porušení konkrétní povinnosti plyne. Aby bylo možno opomenutí klást na roveň konání, musí se jednat o opomenutí zvláštní povinnosti vyplývající z konkrétního postavení pachatele, tedy jde o situaci, ve které společnost s konáním určité osoby předem počítá a spoléhá na ni. Osoba, která má zvláštní povinnost konat, je předem v konkrétním vztahu k chráněnému zájmu. Jestliže není možno takovou konkrétní povinnost konat z postavení pachatele dovodit, chybí jednání jako podmínka trestní odpovědnosti.“

Proti tomu stojí hledisko přiměřeného či přípustného rizika. Ani v běžném životě se nemůžeme vyhnout situacím, kdy vznik jakékoliv škody není zcela vyloučen. V každém konkrétním případě se proto z tohoto hlediska musí zkoumat, jak dalece bylo možné vznik škodlivého následku vůbec předvídat a jaká dostupná opatření byla nebo mohla být provedena, aby případný škodlivý následek byl minimalizován. Podle ust. § 31 odst. 2 trestního zákoníku „Nejde o přípustné riziko, jestliže taková činnost ohrozí život nebo zdraví člověka, aniž by jím byl dán k ní v souladu s jiným právním předpisem souhlas, nebo výsledek, k němuž směřuje, zcela zřejmě neodpovídá míře rizika, anebo provádění této činnosti zřejmě odporuje požadavkům jiného právního předpisu, veřejnému zájmu, zásadám lidskosti nebo se příčí dobrým mravům.“

Budeme tedy vycházet z výše uvedeného a chápat robota jako systém sestávající kromě ryze mechanických součástek, které umožňují něco konat, především z počítačového hardware a software, který sice není v biologickém smyslu živý, ale má schopnost samostatného učení na základě zkušeností a interakce, je autonomní díky senzorům nebo výměně dat s okolním prostředím a má schopnost přizpůsobit své jednání a svou činnost okolnímu prostředí. Jinými slovy, jednání robota navenek je dané dílem primárním vnitřním nastavením (původním programem, vytvořeným člověkem) a dílem následným přetvářením tohoto programu AI, které může spočívat v různých krocích: parametrizaci, vytváření databáze vzorů (modelů, heuristik), ale na vyšší úrovni přetvářením výchozí neuronové sítě na základě výše uvedených interakcí s okolím, tedy tím, co se nejvíce blíží lidskému pojmu „učení“.

Mimořádně obtížné může být v takovém případě hledání příčinné souvislosti mezi selháním robota a jednáním těch, kteří ho vyrobili a naprogramovali. A teprve poté, kdy tato příčinná souvislost bude spolehlivě zjištěna (prokázána), lze se zabývat i případným zaviněním fyzické nebo právnické osoby z hlediska její případné trestněprávní odpovědnosti.

Zavinění z nedbalosti v robotice

Lze se domnívat, že v oblasti robotiky budou převažovat trestné činy nedbalostní, jakkoliv i „přeprogramování“ robota na „vraha“ nelze vyloučit. V případě nedbalostních trestných činů je třeba rozlišit dva základní okruhy pachatelů. První skupinu tvoří pachatelé, kteří věděli, že svým jednáním (opomenutím) mohou způsobit škodlivý následek, ale bez přiměřených důvodů spoléhali, že tento následek nezpůsobí. Druhou skupinou jsou pachatelé, kteří nevěděli, že svým jednáním (nejednáním) mohou způsobit škodlivý následek, přičemž podmínkou trestnosti je v tomto případě skutečnost, že vzhledem k okolnostem a ke svým osobním poměrům (především vzdělání, povolání, zastávané funkci apod.) to vědět měli nebo mohli. Protože touha pachatelů po rychlém zbohatnutí je neutuchající, lze si představit

i v souvislosti s roboty spáchání trestného činu z hrubé nedbalosti, což nastane, jestliže přístup pachatele k požadavku náležité opatrnosti svědčí o zřejmé bezohlednosti pachatele k zájmům chráněným trestním zákonem. Při neexistenci složky volní (u nedbalostních trestných činů) zákon vymezuje nedbalostní zavinění pomocí složky intelektuální. Při vědomé nedbalosti pachatel o možnosti způsobení relevantního trestněprávního následku ví, při nevědomé nedbalosti o této možnosti ani neví. Kritériem nedbalosti je zachování potřebné míry opatrnosti, která může být obecná (požadovaná u každé osoby), nebo zvláštní, vyšší (např. u výkonu určitých činností či povolání) – viz nález Ústavního soudu ČR ze dne 31. 5. 2016, sp. zn. III. ÚS 2065/15-2 a rozsudek Nejvyššího soudu ČR ze dne 27. 6. 2012, sp. zn. 5 Tdo 540/2012.

Jak vidíme, objevuje se zde pojem „potřebná míra opatrnosti“. Jde o tzv. neurčitý právní pojem a zde bude poměrně široká variabilita možného výkladu. Stanovení požadované (minimální) míry opatrnosti můžeme hledat ve zvláštních předpisech, v technických předpisech nebo v technických normách, nebo z obecně uznávaných pravidel, které vyplývají z úrovně poznání v určitém oboru. Viz také rozhodnutí NS ČR ze dne 30. 1. 2014, sp. zn. 6 Tdo 1450/2013 pojednávající o přiměřené opatrnosti.

Z výše uvedeného vyplývá, že se blížíme k něčemu podobnému, co se v zákoně o vynálezech a zlepšovacích návrzích definuje jako tzv. stav techniky, což je vše, k čemu byl přede dnem, od něhož přísluší přihlašovateli právo přednosti, umožněn přístup veřejnosti písemně, ústně, využíváním nebo jiným způsobem. Pokud dojde k protiprávnímu jednání robota v důsledku toho, že nebyl zhotoven podle poznatků vyplývajících ze stavu techniky, je to podobná situace, jako při postupu lékaře non lege artis.

Příčinná souvislost v robotice

Bylo již zmíněno, zdrojem dalších obtíží nepochybně bude zjišťování a případně prokazování příčinného vztahu mezi jednáním a následkem – viz nález Ústavního soudu ČR ze dne 1. 11. 2007, sp. zn. I. ÚS 312/05.

U medicínsko-právních sporů, kdy známe vstupní jednání, známe i následek, ale vlastní průběh je zcela nejasný, se mluví o tzv. fenoménu černé skříňky. [2] V takových záležitostech jde většinově o zavinění (obvykle nevědomou nedbalost), a tedy předvídatelnost následku. O kauzálním nexu neboli příčinné souvislosti nebývá sporu, nejde-li o působení více faktorů.

Selže-li zásadním způsobem robot 3., a především 4. kategorie, jak jsou popsány výše, bude namnoze velkým problémem hledání kauzálního řetězce mezi příčinou a následkem. Nadto s nejistým výsledkem. Zde totiž nemusíme vždy znát všechny faktory, která ovlivnily fungování např. autonomního mechanismu. Můžeme znát jeho vstupní nastavení (resp. jaké mělo být, nedošlo-li k nějaké chybě při vývoji nebo výrobě), otázkou ovšem je, zda zjistíme, jaké všechny informace ovlivnily fungování robota. Také prozkoumání oné „černé skříňky“, budeme-li za ni považovat hardware a software robota, nemusí být za určitých podmínek úspěšné či dokonce realizovatelné (u biorobota), jakkoliv v současnosti to je zatím stále snáze uskutečnitelnější nežli zjištění všech procesů probíhajících v lidském těle.

Dalším problémem může být možná multikauzalita, kdy může dojít k souběhu nebo kumulaci více možných příčin negativní (deliktní) události, z nichž bude nutné vybrat jednu jako příčinu v daném případě rozhodující. Tím může být např. současná kombinace vstupních dat (tedy okolí robota), programu, který je vyhodnotí, a případně hardware (např. mechanické ruky), která učiní pohyb, jež bude mít za následek deliktní jednání. Jednou z možností by snad mohlo být vyjádření procentuálního poměru těchto vlivů, pokud to ovšem bude možné. K tomuto se jeví vhodné citovat usnesení Nejvyššího soudu ze dne 27. 2. 2002, sp. zn. 3 Tz 317/2001, podle kterého „Příčinná souvislost mezi jednáním pachatele a následkem se nepřerušuje, jestliže k jednání pachatele přistoupí další skutečnost, jež spolupůsobí při vzniku následku, avšak jednání pachatele zůstává takovou skutečností, bez níž by k následku nebylo došlo.“

Příkladem může být ovladač pohybů robota, který nepředpokládá, že by se jeho rameno mohlo dostat do určité polohy prostě proto, že je naprogramován tak, aby tato poloha byla vyloučena. Pokud někdo násilím rameno do takové polohy uvede, čímž dojde k ovlivnění funkčnosti a bezpečnosti robota tak, že dalším pohybem se dostane do jiné, nepředvídatelné polohy, kde zraní jinou osobu, nelze přičítat odpovědnost programátorům, neboť bez zmíněného zásahu by k tomuto účinku vůbec nedošlo. Z toho lze odvodit jeden z hlavních požadavků na roboty: maximální vytváření tzv. auditní stopy, vypovídající o každém kroku robota a o jeho vnitřním stavu.

Nepředvídatelné chování robotů

Nepředvídatelné chování robotů může mít různé příčiny, od hardwarových závad až po softwarové chyby. Mezi běžné příčiny patří:

  • Hardwarové závady: Roboty se skládají z různých součástí, jako jsou senzory, aktuátory a řídicí systémy, které mohou selhat a způsobit nepředvídatelné chování.
  • Softwarové chyby: Roboty se spoléhají na složité softwarové systémy a chyby v kódu mohou způsobit neočekávané chování.
  • Nesprávně kalibrované senzory: Pokud nejsou senzory robota správně kalibrovány, může to vést k nesprávným údajům a nepředvídatelnému chování.
  • Rušení z okolí: Roboty mohou být ovlivněny vnějšími faktory, jako je elektromagnetické rušení, které může způsobit nepředvídatelné chování.
  • Nedostatečné testování: Pokud robot nebyl důkladně otestován, může v reálných scénářích vykazovat nepředvídatelné chování. Kvalita testování je klíčovým předpokladem minimalizace rizika. Vhodné je postupovat tak, že komponenty systému jsou rozděleny na jednotlivé funkčnosti, které mohou být popsány jednoduchými konečnými automaty, jejichž chování lze z velké části analyzovat úplným způsobem.

Pro řešení nepředvídatelného chování robotů je důležité diagnostikovat hlavní příčinu důkladným testováním a laděním. V některých případech může být nutné vyměnit hardwarové komponenty a v jiných, pravděpodobně častějších případech může být nutné aktualizovat nebo zcela přepsat software.

Zde zřejmě bude vhodné vycházet z principu „potřebné (požadovatelné, rozumné) míry opatrnosti“, která by měla být výrobcem robota zakotvena v principu secure by design, což znamená, že navržený výrobek (můžeme tak chápat celého robota nebo jen jeho software) je od samého počátku vývoje a ve všech jeho etapách konstruován tak, aby byl bezpečný. [3] Problém je ale dán tím, že ani hardware, ani software není možné prohlásit jako zcela prosté všech chyb s pravděpodobností 100%. A pokud k tomu připočítáme ještě nutnou spolehlivost komunikace, pak i při spolehlivosti systému 99,9999% může činit výpadek u robota neuvěřitelně dlouhých 31,5 sekund!

Většina textů zabývajících se bezpečností (a to nejen v souvislosti s informačními systémy či roboty) zdůrazňuje, že nezbytným krokem pro zvýšení bezpečnosti (a tedy i snížení pravděpodobnosti provozní havárie a případné následné odpovědnosti) je existence systému řízení rizik (nejznámější je norma ISO/IEC 27001, doplněná dalšími normami z řady 270xx). Při posuzování konkrétních případů pak to bude zřejmě otázka věcná, následně však i právní, zda se jednalo o riziko běžné či mimořádné, předvídatelné či nepředvídatelné, a jaká byla učiněna opatření pro jeho minimalizaci.

Konstatování, zda šlo či nešlo o přípustné riziko, je primárně věcí soudu. Při posuzování rizika v oblasti robotiky je ovšem velmi pravděpodobné, že bude nutno zohlednit nejen současný stav poznání, ale – v případě skokové změny technologie, která bude již mimo rámec tohoto stavu poznání – posoudit zcela novou situaci. Pokud byla provedena analýza rizik zahrnující všechny možné (předpokladatelné) škodlivé situace, vyloučeno riziko činnosti, která způsobí újmu na zdraví, smrt nebo větší hmotnou škodu, a zároveň je patrné, že zamýšleného (a legálního) cíle nelze dosáhnout jinak, lze přistoupit k jednání, jež vykazuje prvky rizika a následně by dodržení těchto podmínek mělo být zohledněno při posuzování okolností vylučujících protiprávnost.

Konkrétní příklady, které se mohou vyskytnout, pak budou různé podle stupně autonomie robota a dalších okolností. Může se vyskytnout taková chyba v programu, která způsobí, že činnost robota bude nejen neaprobovatelná, ale i ohrožovat zájem chráněný trestním zákoníkem; taková chyba, jakkoliv by se to nemělo stát, není nemožná, ovšem podstatná bude existence a funkčnost bezpečnostního mechanismu, který zastaví robota dříve, nežli k incidentu dojde. Jedním z kritérií pro posuzování případné odpovědnosti je provedení či neprovedení funkčních zkoušek před zahájením výroby.

Další faktory ovlivňující činnost robotů

Zde je nutno upozornit na existenci dalších faktorů, majících vliv na jednání robota. Každý program pracuje s daty, přičemž některá data mohou být zadávána jako konstanty (např. výrobcem), jiná jako proměnné (např. uživatelem) a jiná může získávat robot sám prostřednictvím čidel (senzorů) nebo v rámci výuky prostřednictvím datasetů. Takže opět může dojít i při bezchybném fungování programu k nesprávnému (neaprobovanému) jednání robota, přičemž pouze v prvních dvou případech bude zřejmě snadno zjistitelné, co se stalo. Pokud bude daný případ v sobě zahrnovat ovlivnění vnějšími faktory, a to neúmyslné i úmyslné, budeme opět závislí na možnosti analyzovat procesy uvnitř robota.

Neúmyslné ovlivnění může nastat např. kombinací vnějších signálů sejmutých senzory robota, které budou chybně vyhodnoceny a nastane incident. Pak je otázkou posoudit, zda se jednalo natolik o neočekávanou, ale i neočekávatelnou situaci, kterou nemohl výrobce předvídat. Vyloučí-li analýza, že nejde o zmíněnou nepředvídanou a neočekávatelnou situaci, stejně jako že došlo k selhání robota z důvodů spojených s ním samotným (vada konstrukce, programu apod.), budeme muset přepokládat, že šlo o situaci předvídatelnou, která mohla být zčásti nebo zcela vyvolána vnějším vlivem včetně zásahu jiné osoby. A v případě zjištění lidského faktoru bude třeba (kromě zjištění této osoby) řešit otázku úmyslu versus nedbalosti, jak již bylo popsáno výše. Lze si představit nedbalé jednání někoho, kdo mimoděk nebo v souvislosti s jinou činností změní fyzickou konfiguraci robota, jenž se začne pohybovat po jiné dráze.

V případě úmyslu se může jednat o útok zvenčí, kdy se útočník bude snažit ovlivnit procesy probíhající v robotovi natolik, aby došlo ke změně jeho funkcí či fungování a následně ke vznikuincidentu. Ten, kdo může ovlivnit robota k jednání způsobem který ohrožuje zájem chráněný trestním zákoníkem, může být v podstatě kdokoliv: majitel (uživatel, operátor apod.), který mu (vědomě či nevědomě) zadá chybná data – pak se zřejmě budeme pohybovat v oblasti posuzování případného nedbalostního jednání při protiprávním činu, možná ale i naplnění skutkové podstaty trestného činu „Poškození záznamu v počítačovém systému a na nosiči informací a zásah do vybavení počítače z nedbalosti“. V případě jiné třetí osoby (hackera), který může provést útok na program ovládající robota (ale samozřejmě i na data) s cílem, aby robot učinil něco, co není v souladu s jeho určením, je situace jednoznačnější. Pak se bude jednat o zneužití věci (použití robota jako předmět nebo nástroj trestného činu s řadou možných skutkových podstat).

Součástí posuzování konkrétní kauzy pak bude třeba stanovit, co lze u robota považovat za důsledek nedbalostního (případně úmyslného) jednání fyzické osoby. U robotů nulté až druhé generace lze na robota pohlížet jako na deterministický automat (DA), kde všechny jeho stavy jsou známé, zjistitelné, resp. odvoditelné, tedy v každém okamžiku je jasné, co robot udělá a proč. U třetí generace robotů, kdy již přiznáváme schopnost samostatné tvorby programu na základě nabytých zkušeností (učení se), je již situace složitější, protože tím dostává robot charakter automatu nedeterministického (NDA), kdy se může do určitého stavu dostat více cestami nebo se ve více stavech nacházet současně; zde stále ještě lze předpokládat, v souladu s teorií informatiky, že budeme schopni převést NDA na DA a dobrat se k zjištění důvodů chování robota. Ale nemusí tomu tak být vždy: na počátku bude mít takový robot vždy stejný výchozí stav, ale po jeho zaučení bude záviset na řadě nezávislých faktorů, jaký bude takovýto vnitřní stav v okamžiku, kdy dojde k incidentu. Původní instrukční sada a použitý dataset by bez dalšího učení (trénování) modelu ponechával robota coby deterministický mechanismus. Ale aplikace různých vzorů chování s různými výsledky se promítne do architektury robota pokaždé jinak, v závislosti na použitých vzorcích a modelech.

Ve čtvrté generaci, kdy hovoříme o autonomních mechanismech s vlastní inteligencí, pak bude algoritmická složitost (variabilita) uvnitř robota natolik vysoká, že nelze vyloučit od určitého okamžiku nemožnost přesně a nade vší pochybnost určit, jaké děje v něm probíhaly a proč. Nástroje umělé inteligence, jako jsou např. neuronové sítě nebo fuzzy logika [4] a ještě více pak evoluční programování a genetické programování [5] nás posouvají ze světa, kde jsme schopni říci, co bylo příčinou a co následkem, do světa pravděpodobností. Jak uvádí Zelinka, jedná se o predikci pravděpodobnou, kdy nikdo nedokáže zaručit, že se daný systém bude vyvíjet (chovat – pozn. aut.) tak, jak bylo předpovězeno. [6] Pak se dostaneme do oblasti označované např. jako tzv. NP-těžké problémy, kdy budeme muset hledat přibližná či částečná řešení, která uspokojivě odpoví alespoň v některých případech. Je ovšem otázkou, zda tento přístup bude použitelný v procesu trestního dokazování.

Majitelé (provozovatelé, uživatelé) robotů, jejichž činnost může v případě poruchy způsobit obecné ohrožení (díky váze, povaze činnosti atd.), případně jejichž provoz lze označit dnešním pojmem „zvlášť nebezpečný“, mohou být také trestně odpovědni za případnou havárii způsobenou robotem. Jejich deliktní odpovědnost, co se týká nedbalostního jednání, pak může mít přinejmenším dvě roviny:

  1. postupovali v rozporu s pokyny (příručkou) výrobce, např. přetížením robota, nedostatečnou údržbou apod.,
  2. nezachovali potřebnou míru opatrnosti, kterou by vzhledem k vlastnostem daného robota měli dodržovat.

V této části seriálu jsme se zabývali možnostmi a limity případného trestněprávního postihu za jednání robotů. V třetí části se pak budeme věnovat otázkám úzce souvisejícím: prevencí před nežádoucím jednáním robotů a dokazování, aneb jak zjistit důvody, které vedly k takovému jednání, a to včetně odpovědnosti konkrétní fyzické nebo právnické osoby.

Článek Trestní odpovědnost1Tato e-mailová adresa je chráněna před spamboty. Pro její zobrazení musíte mít povolen Javascript.


Vytisknout