Trestní odpovědnost právnických osob za vývoj, šíření a využívání umělé inteligence

Trestní odpovědnost právnických osob  za vývoj, šíření a využívání umělé inteligence

V posledních letech se umělá inteligence stává stále výraznějším tématem, s rostoucím významem nejen ekonomickým a marketingovým, ale i v rovině právní. Řada podnikatelů napříč různými odvětvími dnes nabízí produkty a služby vytvořené alespoň zčásti s využitím prvků umělé inteligence. V této souvislosti narůstá význam otázek odpovědnosti za případné škodlivé následky spojené jak s vývojem a šířením, tak s využíváním systémů AI. Zvláštní pozornost si zasluhuje problematika trestní odpovědnosti, zejména u právnických osob. Judikatura soudů v ČR, ale i v jiných státech je v této oblasti zatím velmi omezená, lze však očekávat její rychlý rozvoj. Rovněž legislativní rámec upravující využívání umělé inteligence se teprve postupně vyvíjí. Tento text se proto kromě teoretického rozboru aktuálního právního stavu zaměřuje i na analýzu vybraných otázek de lege ferenda, tedy námětů budoucí právní úpravy.

                             umělá inteligence                    trestní odpovědnost právnických osob                          vyvinění autonomie                      systémů AI

Úvod

Systémy umělé inteligence (dále též jen „systémy AI“) se velmi rychle stávají běžnou součástí každodenního života, a to jak pro účely zábavy a volného času, tak i při využití v průmyslu, zdravotnictví či dopravě a v dalších ekonomických odvětvích. S rostoucím rozsahem jejich využití se zvyšuje i riziko vzniku škodlivých následků. O otázkách právní odpovědnosti za škodlivé následky v souvislosti s vývojem a šířením systémů AI, ale také s jejich využíváním se již nyní diskutuje v právní teorii a brzy tomu bude nepochybně rovněž ve výkladové a rozhodovací praxi.

Autor proto považuje za nezbytné věnovat pozornost otázce trestní odpovědnosti právnických osob v této souvislosti. V textu rozebírá právní konstrukci trestní odpovědnosti právnických osob podle právního řádu ČR a specificky se věnuje analýze podmínek, za nichž mohou být právnickým osobám přičitatelné protiprávní činy v souvislosti s vývojem a šířením systémů AI, ale i s jejich užíváním, když okruh právnických osob využívajících systémy AI je stále širší.

Právní rámec umělé inteligence

Základním právním předpisem upravujícím oblast umělé inteligence na úrovni Evropské unie je Nařízení o umělé inteligenci1 (dále též jen „AI nařízení“2 ), tento předpis je označován jako první komplexní právní rámec pro umělou inteligenci.

Kromě stanovení jednotného právního rámce pro vývoj, uvádění na trh, uvádění do provozu a užívání systémů AI zařadil evropský zákonodárce mezi hlavní cíle AI nařízení též podporu „zavádění důvěryhodné umělé inteligence zaměřené na člověka“, zajištění vysoké úrovně „ochrany zdraví, bezpečnosti a základních práv“, ochranu před škodlivými účinky systémů AI a dále i podporu inovací3 . Již z vymezení těchto cílů je zřejmé, že AI nařízení výslovně předpokládá možné škodlivé účinky systémů AI a s ohledem na to zakotvuje opatření k ochraně před nimi. Adresáty těchto opatření a povinností jsou primárně poskytovatelé uvádějící systémy AI na trh nebo do provozu a jejich dovozci a distributoři, některé povinnosti však AI nařízení ukládá také subjektům zavádějícím systémy AI. Těmito subjekty jsou fyzické nebo právnické osoby, veřejné orgány a další subjekty, které „v rámci své pravomoci využívají systém AI, s výjimkou případů, kdy je systém AI využíván při osobní neprofesionální činnosti“. Do této kategorie patří všechny osoby využívající systémy AI při své profesionální činnosti.

AI nařízení definuje systém AI4 jako „strojový systém navržený tak, aby po zavedení fungoval s různými úrovněmi autonomie, po zavedení mohl vykazovat adaptabilitu a za explicitními nebo implicitními účely z obdržených vstupů odvozoval, jak generovat výstupy, jako jsou predikce, obsah, doporučení nebo rozhodnutí, které mohou ovlivnit fyzická nebo virtuální prostředí“5 . Autor považuje za klíčové právě v definici výslovně zmíněné „různé úrovně autonomie“, neboť tyto mají zásadní vliv na posouzení trestní odpovědnosti právnických osob ve vztahu k systémům AI. AI nařízení rozlišuje čtyři úrovně rizika systémů AI:

  1.  Zakázané systémy AI – např. systémy využívající subliminální techniky nebo sociální scoring.
  2. Vysoce rizikové systémy AI – např. systémy používané v kritické infrastruktuře, vzdělávání, zaměstnání nebo v oblasti vymáhání práva.
  3. Systémy AI s omezeným rizikem – např. chatboty, které musejí být označeny jako AI.
  4. Systémy AI s minimálním rizikem – např. spam filtry nebo doporučovací algoritmy.

Vysoce rizikové systémy AI podléhají dle AI nařízení přísné regulaci6 , která zahrnuje řadu povinností, mezi které patří identifikace a analýza rozumně předvídatelných rizik pro zdraví, bezpečnost nebo základní práva, vypracování technické dokumentace a její průběžné aktualizace, transparentnost, potřeba lidského dohledu zaměřeného na prevenci a minimalizaci rizik a další, včetně povinné registrace v databázi EU před vstupem těchto systémů na trh v rámci EU. Tyto povinnosti se vztahují nejen na poskytovatele, ale i na dovozce, distributory a také na subjekty zavádějící systém AI do provozu.

Zvláštní pozornost si zaslouží tzv. obecné modely AI, které vykazují významnou obecnost a jsou schopny „kompetentně plnit širokou škálu různých úkolů bez ohledu na způsob, jakým je daný model uveden na trh“7 . Tyto modely, mezi něž patří např. ChatGPT, mohou být integrovány do různých navazujících systémů nebo aplikací, čímž se dále zvyšuje jejich potenciální dopad na společnost i právní odpovědnost subjektů, které je vyvíjejí nebo provozují.

Autor upozorňuje, že právní úprava AI je zatím ve fázi počáteční implementace – AI nařízení v současnosti postupně v několika etapách nabývá účinnosti. První části, kterými jsou obecná ustanovení a úprava zakázaných postupů v oblasti umělé inteligence, jsou již účinné od 2. února 2025, další, podstatná část AI nařízení nabyla účinnosti 2. srpna 2025 a následně 2. srpna 2026 a 2. srpna 2027 nabydou účinnosti zbylé části. V České republice dosud nebyl přijat adaptační zákon k AI nařízení. AI nařízení je samo o sobě přímo aplikovatelné s ohledem na jeho právní formu nařízení, adaptační zákon tedy na národní úrovni pouze určí orgán dozoru nad trhem a orgány chránící základní práva a některé postupy v souvislosti se systémy AI. Jako orgán dozoru však již byl stanoven Český telekomunikační úřad, byť zatím nikoli zákonem.

Z tohoto časového přehledu je zřejmé, že je nutné, aby se podnikatelé a právnické osoby již nyní začali připravovat na nové povinnosti včetně těch, jejichž neplnění může mít trestněprávní důsledky.

Trestní odpovědnost právnických osob dle právní úpravy ČR

Trestní odpovědnost právnických osob je v České republice upravena zákonem o trestní odpovědnosti právnických osob8 (dále též jen „ZTOPO“). Tato právní úprava je založena na konceptu přičitatelnosti protiprávního činu fyzické osoby osobě právnické při splnění dalších podmínek, což se dle současné verze ZTOPO vztahuje na veškeré zločiny nebo přečiny uvedené v trestním zákoníku9 s výjimkou některých trestných činů taxativně vyjmenovaných v negativním výčtu v ZTOPO.

Podle ZTOPO může být právnické osobě přičitatelné jednání fyzické osoby, která:

  • jednala v zájmu právnické osoby nebo v rámci její činnosti a současně,
  • byla jejím statutárním orgánem, jeho členem, osobou ve vedoucím postavení, příp. vykonávající další obdobné funkce nebo
  • byla zaměstnancem či v postavení obdobném a jednala na podkladě rozhodnutí, schválení či pokynu těchto orgánů anebo proto, že orgány právnické osoby nebo další osoby ve vedoucím či obdobném postavení „neprovedly taková opatření, která měly provést podle jiného právního předpisu nebo která po nich lze spravedlivě požadovat“.10

Zásadním je, že není nutné zjistit konkrétní fyzickou osobu, která jednala způsobem zakládajícím trestní odpovědnost11. Postačuje prokázat, že taková osoba, byť neznámá či neztotožněná, existovala a jednala v postavení, v němž je její jednání přičitatelné dané právnické osobě12.

ZTOPO rozlišuje dvě základní varianty přičitatelnosti:

  • Komisivní varianta – zaměstnanec nebo fyzická osoba v obdobném postavení spáchala protiprávní čin na základě rozhodnutí, schválení nebo pokynu orgánu právnické osoby nebo dalších osob vymezených v ZTOPO.
  • Omisivní varianta – orgány právnické osoby (a další vymezené osoby) neprovedly potřebnou kontrolu nebo nezajistily opatření k zamezení či odvrácení následků trestného činu.

Autor považuje za důležité zdůraznit, že v kontextu systémů AI bude v praxi často relevantní právě omisivní varianta přičitatelnosti, tedy situace, kdy právnická osoba nedostatečně kontrolovala vývoj, nasazení, ale také provoz systému AI, čímž umožnila vznik škodlivého následku. Zcela vyloučit samozřejmě nelze ani variantu komisivní, tedy rozhodnutí, schválení či pokyn orgánu právnické osoby, byť tato varianta bude v praxi patrně výrazně méně častá.

ZTOPO umožňuje právnické osobě vyvinit se, tedy zprostit se trestní odpovědnosti, pokud prokáže, že vynaložila „veškeré úsilí, které na ní bylo možno spravedlivě požadovat, aby spáchání protiprávního činu“ výše uvedenými osobami zabránila13. Vyvinění bude dle autora relevantní právě v případě vývoje, šíření a využívání systémů AI.

Nejvyšší státní zastupitelství (dále jen „NSZ“) připravilo metodiku, v níž se podrobně zabývá konceptem vyvinění14 (dále jen „Metodika NSZ“), tuto metodiku průběžně aktualizuje a rozvíjí. Aktuálně se jedná již o třetí verzi. V Metodice NSZ uvádí, že pod pojmem „vynaložení veškerého úsilí“ dle ZTOPO lze rozumět „tvorbu, uplatňování a prosazování účinných opatření, jejichž smyslem je zvládnout existující a budoucí rizika vyvolávající, usnadňující nebo podporující páchání trestných činů, které mohou být právnické osobě přičítány (trestněprávní riziko), a tím zamezit spáchání trestného činu, resp. vyloučit nástup trestní odpovědnosti“. Jak NSZ dodává, „tato opatření tvoří obsah compliance management systému“15.

Autor je přesvědčen, že právě existence a kvalita compliance management systému zahrnujícího i rizika související se systémy AI bude v budoucnu jedním z významných faktorů při posuzování trestní odpovědnosti právnických osob v souvislosti se systémy AI. Compliance management systém musí být navržen individuálně, s ohledem na specifické podmínky dané právnické osoby, musí být také průběžně aktualizován, s ohledem na vývoj vnějších i vnitřních faktorů konkrétní právnické osoby. Vzhledem k technické komplexnosti systémů AI a jejich schopnosti autonomního rozhodování bude nezbytné, aby právnické osoby věnovaly vedle analýzy rizik zvýšenou pozornost mj. preventivním opatřením, jejichž potřeba z analýzy rizik vyplyne, a také dokumentaci procesů spojených s vývojem, ale též provozem těchto systémů – rizika trestní odpovědnosti se budou týkat jak osob systémy AI vyvíjející a šířící, tak také osob, které tyto systémy zavádějí.

Metodika NSZ výslovně uvádí, že právnická osoba odpovídá za nezvládnutí rizika z provozování právnické osoby, zanedbání či odevzdanost realizace dohledu a kontroly. Povinnost přijmout účinná opatření se přitom neomezuje pouze na zákonné povinnosti, ale zahrnuje i opatření, která lze po právnické osobě spravedlivě požadovat.

Specifika trestní odpovědnosti právnických osob ve vztahu k systémům AI

Autor považuje za klíčové rozlišovat mezi různými typy systémů AI z hlediska jejich míry autonomie16, neboť právě tato charakteristika zásadně ovlivňuje právní hodnocení případného protiprávního jednání. V praxi se systémy AI pohybují na škále od plně řízených nástrojů až po autonomní systémy schopné samostatného rozhodování a také učení. Tato variabilita má v praxi přímý dopad na možnost přičitatelnosti trestného činu právnické osobě17.

U neautonomních systémů AI, které fungují pod přímým dohledem člověka nebo na základě jeho pokynů, se právní hodnocení trestní odpovědnosti právnických osob nebude zásadně odlišovat od případů využití jiných technologií a strojů. V případě vzniku škodlivého následku bude zpravidla možné identifikovat konkrétní fyzickou osobu, jejíž jednání je přičitatelné právnické osobě.

Odlišná situace ovšem nastává u autonomních systémů AI, zejména u systémů AI nejvyšší úrovně, které se vyznačují plnou mírou autonomie a schopnosti samostatného rozhodování, adaptace na nové podmínky a učení z předchozích zkušeností. Autor očekává, že právě u těchto systémů bude v praxi často velmi obtížné dovodit konkrétní protiprávní jednání fyzické osoby, které by bylo přičitatelné právnické osobě, a to právě s ohledem na vysokou autonomii těchto systémů. Bez tohoto prvku však trestní odpovědnost právnické osoby nebude možno dovodit. Tyto systémy AI přitom v praxi nebudou patně již v brzké budoucnosti ničím výjimečným, ať již se bude jednat autonomní systémy řízení vozidel či o různé systémy AI využívané průmyslově.

Komplikovaná situace bude v praxi nastávat u částečně autonomních systémů AI, které v různé míře kombinují prvky lidského řízení s automatizovaným rozhodováním. V těchto případech bude nutné pečlivě analyzovat míru lidského zásahu, očekávané chování systému a předvídatelnost škodlivého následku. Autor upozorňuje, že právě tato šedá zóna může být v budoucnu předmětem intenzivních právních diskusí i rozhodovací praxe.

V odborné literatuře se objevují návrhy na zavedení právní osobnosti umělé inteligence18, případně konceptu tzv. elektronické osoby, která by mohla nést odpovědnost za škodu způsobenou autonomním jednáním19. Autor však vnímá tyto návrhy jako předčasné a upozorňuje na jejich právní, ale i etické kontroverze. V současné době systémy AI nemají právní osobnost, a tudíž nemohou mít trestní odpovědnost, o té lze uvažovat pouze u fyzické nebo právnické osoby, která systém vytvořila, uvedla na trh, šíří jej nebo provozuje.

Z hlediska trestní odpovědnosti právnické osoby lze uvažovat o několika scénářích:

  • Nedbalý vývoj systému AI, např. nedostatečné testování, chybějící bezpečnostní prvky nebo nejasný či nekompletní návod k použití a upozornění.
  • Nedbalé zavedení systému do provozu bez odpovídající analýzy rizik nebo bez registrace v souladu s AI nařízením.
  • Nedbalé užívání systému, např. bez školení zaměstnanců, bez dohledu nebo bez krizových protokolů.

V těchto případech bude nutné posoudit, zda právnická osoba vynaložila veškeré úsilí, které bylo možné spravedlivě požadovat, aby zabránila vzniku škodlivého následku. V souladu se závěry Metodiky NSZ musí takové úsilí zahrnovat tvorbu a uplatňování účinných opatření, která mají za cíl zvládnout rizika spojená se systémy AI. Přitom však platí již výše uvedené, tedy u plně autonomních systémů AI bude velmi obtížné určit, zda právnická osoba mohla

reálně předvídat konkrétní jednání systému AI, které vedlo ke škodlivému následku. V takových případech bude klíčové zkoumat zejména:

  • zamýšlený účel systému,
  • míru předvídatelnosti jeho chování,
  • existenci příčinné souvislosti mezi opatřeními právnické osoby a následkem.

Výjimku tvoří situace, kdy byl systém AI navržen nebo zneužit za účelem spáchání trestného činu. Pokud se podaří prokázat, že právnická osoba vědomě vytvořila nebo nasadila systém s tímto cílem, bude její trestní odpovědnost zřejmá.

Je nutno si též uvědomit, že v praxi může a patrně též bude docházet k případům, kdy za škodlivý následek vzniklý v důsledku jednání systému AI nebude trestně odpovědný nikdo, a to i u nejzávažnějších následků na zdraví či na životě. Odlišný závěr může platit pro civilní odpovědnost. Absence trestní odpovědnosti v některém mediálně „atraktivním“ případu však patrně povede k politickým diskusím a snahám o změny právní úpravy včetně změn ne zcela racionálních, např. sankcionování systému AI, jeho deaktivace či odpojení. Je zřejmé, že takové sankce by trestaly nikoli samotný systém, nýbrž jeho vlastníky či uživatele20.

Snímek obrazovky 2025 10 13 194221

Compliance systém jako prevence trestní odpovědnosti právnických osob

Autor považuje za důležité, aby právnické osoby, které se podílejí na vývoji, uvádění na trh, ale i provozování systémů AI, měly zaveden funkční a efektivní compliance management systém, tedy soubor vnitřních pravidel, kontrolních mechanismů a organizačních opatření, jejichž cílem je předcházet protiprávnímu jednání a minimalizovat rizika spojená s činností právnické osoby, a to se zaměřením právě na rizika související se systémy AI.

V kontextu trestní odpovědnosti právnických osob má compliance systém zásadní význam pro uplatnění konceptu vyvinění podle ZTOPO. Jak uvádí NSZ v Metodice NSZ, právnická osoba musí pro vyvinění prokázat vynaložení veškerého úsilí, které na ní bylo možno spravedlivě požadovat. Takové úsilí zahrnuje zejména:

  • mechanismy pro identifikaci a řízení rizik,
  • tvorbu a uplatňování účinných opatření a pravidel chování,
  • kontrolu dodržování obecně závazných i interních předpisů,
  • účinný systém vnitřní kontroly a šetření,
  • pravidelná informování a školení zaměstnanců.

Jak již bylo uvedeno, compliance management systém musí reflektovat konkrétní podmínky dané právnické osoby, její organizační strukturu, oblast působení, technologické procesy a míru rizika spojeného s její činností; nelze jej vytvořit jako univerzální vzor, který by byl aplikovatelný bez úprav.

V případě systémů AI je nutné, aby compliance management systém zahrnoval také:

  • analýzu rizik spojených s autonomním rozhodováním,
  • mechanismy pro lidský dohled nad systémy AI,
  • zejména u vysoce rizikových systémů,
  • dokumentaci vývojových a provozních procesů
  • protokoly pro krizové situace včetně incidentů a mechanismy jejich šetření.

Absence compliance management systému či jeho pouhá formální existence může být považována za zanedbání povinnosti řízení a kontroly, jak na to upozorňuje Metodika NSZ.

Úvahy de lege ferenda

Autor má za to, že současná právní úprava trestní odpovědnosti právnických osob je v zásadě funkční i ve vztahu k systémům AI. S ohledem na technologický vývoj a rostoucí míru autonomie těchto systémů bude nutné právní rámec postupně přizpůsobovat vývoji a zpřesňovat jej na základě konkrétních případů a soudní rozhodovací praxe. Autor se staví kriticky k překotnému zavádění zcela nových právních institutů, které nejsou dostatečně prověřeny ani teoreticky promyšleny.

U výše zmiňovaných návrhů na zavedení právní osobnosti umělé inteligence, případně konceptu tzv. elektronické osoby, která by mohla nést právní odpovědnost za své jednání, platí, že právní řád ČR není na takovéto změny připraven a jejich zavedení by patrně vyvolalo značné množství nejasností a kontroverzí. Týž závěr lze učinit i u možnosti zavedení objektivní trestní odpovědnosti právnických osob za vývoj, výrobu nebo užití systémů AI, obdobně jako je tomu v současnosti u odpovědnosti právnické osoby za přestupky.

V souvislosti s rostoucím využíváním AI se objevují také návrhy na nové skutkové podstaty trestných činů, které by reflektovaly specifika těchto technologií. Příkladem může být nedávná novelizace trestního zákoníku, která zavedla zvláštní skutkovou podstatu trestného činu poškozování cizích práv v souvislosti s výrobou a šířením deepfake videí21. Podobné úpravy budou dle hodnocení autora v budoucnu v některých oblastech nezbytné.

Zásadní otázkou do budoucna bude také rozvoj rozhodovací praxe soudů, která zatím v oblasti AI prakticky neexistuje. Autor považuje za vhodné, aby se právní úprava vyvíjela v návaznosti na konkrétní případy, které budou soudy řešit, a aby se právní teorie opírala o reálné zkušenosti z praxe. V opačném případě hrozí, že právní úprava bude buď příliš obecná, nebo naopak příliš kazuistická, což by nevyhnutelně vedlo k její roztříštěnosti a neefektivitě.

Lze uzavřít, že budoucnost právní úpravy trestní odpovědnosti ve vztahu k systémům AI bude záviset nejen na technologickém vývoji, ale také na společenském konsensu a politických rozhodnutích, a to nejen na národní úrovni ČR, nýbrž též v rámci práva EU.

Závěry a doporučení pro praxi

Autor v tomto textu analyzoval právní rámec trestní odpovědnosti právnických osob ve vztahu k vývoji, šíření a využívání systémů AI. Na základě platné právní úpravy, zejména AI nařízení a ZTOPO s využitím Metodiky NSZ, autor dospěl k následujícím závěrům:

  • Trestní odpovědnost právnické osoby je založena na přičitatelnosti jednání fyzické osoby, která jednala jménem nebo v zájmu právnické osoby. Není nutné zjistit konkrétní fyzickou osobu, musí však být prokázáno, že taková osoba existovala a jednala v relevantním postavení.
  • Systémy AI představují nové riziko, zejména v důsledku své autonomie. U plně autonomních systémů může být obtížné, ba nemožné dovodit konkrétní jednání, které by bylo přičitatelné právnické osobě, což znemožňuje aplikaci trestní odpovědnosti právnických osob.
  • Compliance systémy jsou zásadním nástrojem prevence, právnické osoby musejí prokázat, že vynaložily veškeré úsilí, které bylo možné spravedlivě požadovat, aby zabránily spáchání trestného činu.
  • Změny právní úpravy v reakci na rozvoj a rozšíření systémů AI nesmějí být neuvážené, zavádějící zcela nové koncepty, na které právní řád není připraven, jako je právní osobnost AI nebo koncept elektronické osoby.
  • Zásadním bude vývoj rozhodovací praxe, ta je v současnosti v oblasti AI v ČR velmi omezená

Snímek obrazovky 2025 10 13 194037Tato e-mailová adresa je chráněna před spamboty. Pro její zobrazení musíte mít povolen Javascript.

Poznámky pod čarou:

  1. NAŘÍZENÍ EVROPSKÉHO PARLAMENTU A RADY (EU) 2024/1689 ze dne 13. června 2024, kterým se stanoví harmonizovaná pravidla pro umělou inteligenci a mění nařízení (ES) č. 300/2008, (EU) č. 167/2013, (EU) č. 168/2013, (EU) 2018/858, (EU) 2018/1139 a (EU) 2019/2144 a směrnice 2014/90/EU, (EU) 2016/797 a (EU) 2020/1828 (akt o umělé inteligenci).
  2. Autor si je vědom skutečnosti, že AI nařízení je i v oficiálním textu tohoto předpisu označeno jako AI Akt. Toto autor považuje za součást aktuálního nešťastného módního trendu, v jehož rámci se označení „Act“ používá i v oficiálních dokumentech včetně Úředního věstníku EU pro předpisy práva EU bez ohledu na jejich formu – tedy pro nařízení, ale často i směrnice (viz např. Směrnice 2019/882 o požadavcích na přístupnost u výrobků a služeb označovaná jako „European Accessibility Act“). V důsledku toho pak v českém i slovenském překladu bývají pro takové předpisy nesystémově použita označení „akt“, kteréžto slovo v českém ani slovenském jazyce neexistuje, ovšem časté je dokonce i použití termínu „zákon“, jakožto doslovného překladu anglického „act“. Označení „zákon“ přitom jak v českém, tak i ve slovenském jazyce přísluší výhradně národním právním předpisům – skutečným zákonům. Z těchto důvodů autor již delší dobu používá ve svých vystoupeních a odborných textech pro Nařízení o umělé inteligenci zpravidla zkratku AI nařízení, takto bude autor činit i v tomto textu
  3. Viz čl. 1 odst. 1 AI nařízení
  4. K dalším definicím umělé inteligence viz také SMEJKAL, V. Kybernetická kriminalita. 3. vydání. s. 107 a násl. Smejkal v této odborné publikaci též vymezuje dva základní přístupy k umělé inteligenci, kdy slabý přístup vnímá umělou inteligenci jako modelování mysli, zatímco silný přístup ji považuje za „model lidského myšlení realizovaný softwarovým způsobem“.
  5. Viz čl. 3 bod 1 AI nařízení
  6. Viz čl. 6 a násl. AI nařízení
  7. Viz čl. odst. 3 AI nařízení
  8. Zákon č. 418/2011 Sb. o trestní odpovědnosti právnických osob a řízení proti nim, ve znění pozdějších předpisů
  9. Zákon č. 40/2009 Sb. trestní zákoník, ve znění pozdějších předpisů
  10. Viz § 8 odst. 1 a 2 ZTOPO
  11. Viz § 8 odst. 3 ZTOPO
  12. K tomuto viz např. usnesení Nejvyššího soudu ČR ze dne 29. června 2016 sp. zn. 5 Tdo 784/2016. či usnesení Nejvyššího soudu ČR ze dne 26. září 2023, sp. zn. 6 Tdo 472/2023 a ve vztahu k přičitatelnosti jednání fyzické osoby, která není trestně odpovědná z důvodu nepříčetnosti, též např. rozsudek Nejvyššího soudu ČR ze dne 28. července 2020, sp. zn. 3 Tz 70/2019.
  13. Koncept vyvinění, resp. přesněji „nepřičtení trestní odpovědnosti právnické osobě“ je obsažen v § 8 odst. 5 ZTOPO.
  14. Nejvyšší státní zastupitelství ČR. Aplikace § 8 odst. 5 zákona o trestní odpovědnosti právnických osob a řízení proti nim Průvodce právní úpravou pro státní zástupce. Třetí, přepracované vydání. 1 SL 113/2020. 9. listopadu 2020
  15. Metodika NSZ str. 11
  16. Usnesení Evropského parlamentu ze dne 16. února 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku (2015/2103(INL) vymezuje autonomii robota jako „schopnost činit rozhodnutí a uplatňovat je vůči okolnímu světu nezávisle na kontrole či vlivu zvnějšku; vzhledem k tomu, že tato autonomie je čistě technické povahy a její stupeň závisí na tom, jak byl robot konstruován, pokud jde o komplexitu jeho interakce s prostředím“.
  17. Otázku trestní odpovědnosti za jednání autonomních mechanismů analyzoval opakovaně Vladimír Smejkal, specificky ve vztahu k jednotlivým generacím robotů (pro účely tohoto textu lze ztotožnit se systémy AI). Viz SMEJKAL, V. Kybernetická kriminalita. 3. vydání. s. 104.
  18. Viz např. KRAUSOVÁ, Alžběta. Status elektronické osoby v evropském právu v kontextu českého práva. s. 702 Právní rozhledy č. 20, 2017, ZIBNER, J. Akceptace právní osobnosti v případě umělé inteligence. Revue pro právo a technologie roč.9, č.17/2018, CHOPRA, S. – WHITE, L. F. A Legal Theory for Autonomous Artificial Agents. University of Michigan Press, 2011 či KURKI, V. A Theory of Legal Personhood
  19. Tento návrh se objevil již v Usnesení Evropského parlamentu ze dne 16. února 2017 obsahujícím doporučení Komisi o občanskoprávních pravidlech pro robotiku (2015/2103(INL). Evropský parlament v něm doporučuje zvážit vytvoření zvláštního právního statutu pro autonomní robot
  20. 20 K tomuto srov. např. MESARČÍK, M. – GYURÁSZ, Z. Umelá inteligencia a právna úprava zdravotníctva v Slovenskej republike. 1. vydanie
  21. Pozměňovací návrh k novele trestního zákoníku byl schválen jako zákon č. 270/2025 Sb., účinnosti nabývá 1. ledna 2026

Vytisknout