oficiální stránky odborného  právnického časopisu české advokacie • oficiální stránky odborného  právnického časopisu české advokacie  
AK Logo Logo
vítejte!
Právě jste vstoupili na Bulletin advokacie online. Naleznete zde obsah stavovského odborného časopisu Bulletin advokacie i příspěvky exklusivně určené jen pro tento portál.
Top banner Top banner Top banner
CHCETE SI OBJEDNAT?
Zákon o advokacii a stavovské předpisy
Wolters Kluwer
Nesporná řízení I
450 Kč
natuzzi sale

Archiv BA

Archiv čísel

anketa

Vítáte zavedení advokátního procesu v záměru CŘS?
PARTNEŘI
SAK ePravo WKCR

Odpovědnost (za) robota aneb právo umělé inteligence

autor: JUDr. Linda Kolaříková
publikováno: 18.04.2018

Přinášíme čtenářům vítěznou práci kategorie Talent roku soutěže Právník roku 2017. Její autorka se v ní mj. zamýšlí nad právní definicí robota a definicí pravidel pro vývoj, výrobu a šíření inteligentních strojů, především se ale zabývá otázkou, jak řešit odpovědnost za škodu způsobenou umělou inteligencí.

Rossumovi univerzální roboti 

Není mnoho českých slov, které zná, či dokonce používá celý svět. Pro Čapkova robota[1] platí obojí. Příběhy o vytvoření samostatně fungující umělé bytosti provázejí lidstvo od antiky až po moderní vědeckofantastická díla. Nyní se však autonomní roboti či umělá inteligence stávají realitou. Ačkoliv knihy a filmy jsou dávno plné příběhů inteligentních robotů, právo zůstává převážně rezervované. Budoucnost, v níž se tyto stroje stanou běžnou součástí společnosti, však může být blíže, než se na první pohled zdá.

Průzkum vypracovaný na popud Evropské komise[2] totiž zjistil, že v roce 2015 robota[3] využíval při práci či v domácnosti jeden ze sedmi Evropanů. Jejich význam i využití navíc budou pravděpodobně dále narůstat. Je nepochybné, že jakmile bude mít robota téměř každá domácnost či zaměstnavatel, společnost projde dramatickou proměnou.

Ohromující jsou i ekonomická očekávání. Podle některých odhadů bude mít pokročilá robotika v roce 2025 celosvětový ekonomický dopad ve výši 1,7 až 4,5 bilionu dolarů ročně, zatímco kategorie autonomních vozidel až dva biliony.[4]

V této souvislosti se často hovoří o čtvrté průmyslové revoluci či tzv. Průmyslu 4.0.[5] V rámci něj má dojít k automatizaci a výměně dat ve výrobě zapojením kyberfyzických systémů, internetu věcí,[6] cloudových úložišť a rozpoznávacích systémů.

Kde ovšem téma vhodné a nutné legislativy upravující právě robotiku v posledních letech stále častěji zaznívá, je půda Evropské unie. V březnu 2012 byl zahájen projekt RoboLaw,[7] který o dva roky později zveřejnil Pravidla regulace robotiky. V roce 2015 Výbor EP pro právní záležitosti (JURI) ustanovil pracovní skupinu za účelem vypracování příslušných soukromoprávních pravidel. Tato skupina skutečně vypracovala návrh usnesení EP obsahující sérii doporučení určených Komisi (dále „Návrh“).[8] V návaznosti na tento návrh nechal JURI vypracovat akademiky studii týkající se evropských pravidel robotiky (dále „Studie“).[9] Ta vznesla k Návrhu několik kritických připomínek a i na jejím základě Evropský parlament finálně přijal přepracované usnesení obsahující doporučení týkající se občanskoprávních pravidel robotiky (dále „Usnesení“).[10] To vyzývá Komisi k vypracování legislativního nástroje upravujícího vývoj a využití umělé inteligence a robotiky v horizontu příštích 10 až 15 let.[11]

České právo oproti tomu k tématu inteligentních robotů i umělé inteligence – alespoň prozatím – v podstatě mlčí.

Tato práce má za cíl stručně popsat aktuální vývoj v oblasti robotiky, představit legislativní návrhy vytvářené v této oblasti na různých úrovních a nastínit otázky, které se v těchto souvislostech nabízejí. Není samozřejmě možné v tomto rozsahu pokrýt veškeré aspekty překotného vývoje, ke kterému v oblasti technologií dochází. Z pohledu právníka je však více než žádoucí mít o ní alespoň základní představu, neignorovat nezastavitelný technický vývoj a zamýšlet se nad jeho dopady do kaž­dodenního života, a tím přirozeně i do právního prostředí. 

Já, robot[12] 

Co však je a co není inteligentní či autonomní robot? Formulovat vhodnou definici je přirozeně jedním z prvních úkolů, se kterými si musí zákonodárce poradit. A není to úkol jednoduchý. Často se v této souvislosti zmiňují autonomní vozidla, roboti pečující o handicapované osoby, sofistikované zdravotnické implantáty či protézy, operační roboti a drony. U dvou posledně zmíněných kategorií ovšem často nejde (alespoň prozatím) o skutečně autonomní přístroj, ale jen o „prodlouženou ruku“ chirurga či pilota, byť tyto osoby mohou přístroj ovládat či instruovat na značnou vzdálenost.

Dále zmíněný jihokorejský zákon[13] definuje inteligentního robota jako mechanický přístroj, který vnímá své okolí, vyhodnocuje situace a samostatně se pohybuje.

Usnesení EP se touto definicí inspiruje, když navrhuje definovat kyberfyzické systémy, autonomní systémy, chytré autonomní roboty a jejich subkategorie za pomoci následujících charakteristik tzv. chytrého robota:

• autonomie získaná skrze senzory a/nebo výměnou dat s okolním prostředím, obchodování s nimi a analýzou takových dat;

• samoučení ze zkušeností a interakcí (fakultativní kritérium);

• přinejmenším částečná fyzická podpora;

• přizpůsobení chování a jednání prostředí;

• absence života v biologickém slova smyslu.

Výše nastíněný návrh Usnesení byl schválen i přes výhrady Studie, která kritizovala především výraz „chytrý robot“. Hlavní výhrady vyplývají z tvrzeného rezervovaného „západního“ přístupu a strachu z inteligentních strojů, zakořeněného v evropském kulturním prostředí v kontradikci s přístupem obvyklým na Dálném východě. 

Hrozí nám Skynet?[14] 

Kultura Jižní Koreje, Číny či Japonska roboty tradičně zobrazuje pozitivně jako pomocníky a společníky lidí. V Evropě podle autorů Studie[15] stále přetrvává strach z umělých bytostí plynoucí z antických řeckých a židovských pověstí, znovuoživený uměleckými díly posledních století. Takový Golem či Frankensteinovo monstrum, kteří se vzbouří proti svým tvůrcům, možná skutečně zaseli do podvědomí Evropanů semínka strachu ze stvoření samostatné umělé bytosti.

Ozývají se proto názory varující před riziky plynoucími z využívání a vývoje umělé inteligence. Elon Musk, majitel společnosti Tesla, od roku 2014 opakovaně upozorňuje na možné hrozby, jež umělá inteligence může pro lidstvo představovat. Podobně se vyjadřují i např. Bill Gates či Stephen Hawking.[16] Opačný přístup razí zakladatel sociální sítě Facebook Mark Zuckerberg, který nadšeně vyvíjí vlastního robotického osobního asistenta.

Byť tyto názorové rozdíly mohou být do velké míry zapříčiněny i odlišným časovým horizontem, v němž si dotyční budoucnost umělé inteligence představují, mohu jen souhlasit s názory upozorňujícími na možná úskalí přístrojů nadaných „vědomím“. Osobně největší riziko spatřuji v takové míře autonomie, kdy již člověk naprosto ztratí kontrolu i předvídavost možného jednání takto samostatného stroje.

Podcenit se navíc nedá ani bezbřehá naivita některých uživatelů, kdy např. americká FBI[17] musela opakovaně varovat rodiče před bezhlavým pořizováním a zapojováním inteligentních hraček do internetu věcí. Rodiče si totiž často nejsou vůbec vědomi rizik spojených s možným zneužitím přenášených dat, včetně např. sledování dětí či zneužití informací pro získání důvěry. 

Morální agent Smith[18] 

Jak tedy zabránit, aby se roboti vymkli kontrole?

Můžeme snad po nich chtít určitou seberegulaci? Stanfordský profesor filozofie Taylor si např. klade otázku, zda vůbec můžeme od umělé inteligence očekávat, že se vyrovná člověku, resp. nahradí ho jako mravní autoritu (moral agent) ve smyslu Kantovy etiky, tedy zda lze od ní čekat samostatná morální rozhodnutí.[19]

V rámci hlavních principů, kterými se má vývoj robotiky v Evropské unii řídit, odkazuje Usnesení i na známé Asimovy zákony robotiky.[20] Tato zmínka je předmětem kritiky Studie, jelikož jsou tato pravidla jednak poplatná době a důvodu svého vzniku jako součást literatury fikce, navíc jde o pravidla určená přímo robotům,[21] což znamená předvídat dosud nereálnou etiku strojů samotných a (ne)možnost zapracovat tato pravidla do strojových kódů. Usnesení proto směřuje tato pravidla na designéry, výrobce a operátory robotů.[22]

Přestože je jisté, že určitá pravidla pro vývoj, výrobu a šíření inteligentních strojů jsou potřebná, vhodnější než vy­užít desítky let stará pravidla z pera spisovatele se zdá návrh Usnesení na vytvoření určitého kodexu pravidel chování (Charta robotiky)[23] osob zainteresovaných v robotickém inženýrství, vycházející mj. z principů obsažených ve Smlouvě o Evropské unii a Listině základních práv Evropské unie. Charta by měla obsahovat etická pravidla zavazující inženýry, etické výbory, designéry i uživatele robotů. Jakkoliv lze nástin takových pravidel obecně přivítat, dovolím si pochybovat o povaze takového dokumentu. V případě, kdy – jak se alespoň prozatím zdá – půjde o pouhá pravidla chování na úrovni soft law, a tedy předpis nebude právně závazný, je otázka, zda se jím budou zamýšlení adresáti skutečně řídit. Zároveň návrh až na hrubé obrysy obecných pravidel opomíjí pravidla chování koncových vlastníků či jiných uživatelů robotů.

Dalším z poměrně logických regulačních mechanismů navržených Usnesením je vytvoření Evropské agentury pro robotiku a umělou inteligenci. Ta by vedle dalšího měla mít pod taktovkou systém povinné registrace pokročilých robotů.[24] Zcela oprávněným požadavkem také je, aby byly veškeré takové přístroje povinně vybaveny černou skříňkou zaznamenávající data o všech proběhlých jednáních, včetně logiky vedoucí ke tvorbě rozhodnutí.[25] Bezpečnostní pojistkou by měly být vybaveny i integrované opt-out mechanismy neboli vypínače, které by umožnily okamžité uvedení robota mimo provoz.[26]

Nezanedbatelnou součástí opatrného přístupu k umělé inteligenci je i ochrana závratného množství osobních údajů, k nimž tyto technologie otevřou přístup. Často skloňovaným principem je v této souvislosti tzv. privacy by design, do češtiny původně poněkud krkolomně překládané jako ochrana údajů již od návrhu.[27] Už brzy účinný schválený text takzvaného GDPR[28] používá termín záměrná ochrana údajů. Tento princip ve zkratce spočívá v tom, že každá nová služba či produkt využívající osobní údaje musí zohlednit jejich ochranu již při samotném vývoji. Příslušný správce či zpracovatel osobních údajů musí být schopen prokázat, že přijal vhodná bezpečnostní opatření a pravidelně monitoruje soulad s předpisy. Z relevantního ustanovení se ovšem dají dovodit tato pravidla jen nepřímo.[29]

S problematikou osobních údajů se v praxi setkávám již nyní i ve vztahu k jednodušším typům robotů. Klienti např. řeší situace, kdy ani nemají záměr sledovat své zaměstnance, ovšem např. výrobní roboti mají integrovány kamery, které v rámci továrního nastavení mj. monitorují právě i činnost okolí včetně lidských zaměstnanců. Čím sofistikovanější přístroje budou, tím náročnější bude právně i technicky ošetřit či zcela eliminovat jejich možné zásahy do osobní sféry dotčených osob.

Kladu si také otázku, zda lze požadovat a hlavně prosadit požadavky na co největší transparentnost vývoje umělé inteligence, např. na zveřejňování použitých algoritmů. Na jedné straně stojí veřejný zájem, obzvlášť pokud z nové technologie budou plynout i významná rizika. Na straně druhé pak jednak obchodní zájmy jednotlivých výrobců na uchování jejich specifických vynálezů, a zároveň i riziko, že zveřejnění přílišného množství detailů může vést k neodborným zásahům veřejnosti do podstaty inteligentních strojů, či dokonce k závažným případům jejich zneužití. Na lehkou váhu totiž nelze brát ani riziko hackerských útoků a pokusy o použití těchto nových technologií např. k teroristickým útokům. Je tudíž nezbytné použitý software co nejvíce zabezpečit i v tomto ohledu.

Kromě problémů, které budou s umělou inteligencí souviset zítra, je ovšem třeba si uvědomit rizika, která přináší její využití již nyní. Významné společnosti poskytující online služby již používají počítačové programy disponující na základě strojového učení určitou mírou umělé inteligence. Díky tomu jsou schopné např. rozpoznávat obličeje na fotografiích či cílit reklamu. Do algoritmu takto využívaného umělou inteligencí se ovšem dá jen velmi špatně nahlédnout. Je tak velice složité následně říct, proč vyšel konkrétní výsledek či jak upravit nastavení programu tak, aby tento výsledek znovu nevyšel. To má především dva problematické aspekty. Jednak z pohledu ochrany osobních údajů, kdy GDPR zintenzivňuje povinnosti správce např. prokázat a mapovat zpracování osobních údajů – jednoduše řečeno, správce musí být vždy schopen doložit, jaké osobní údaje jakým způsobem zpracovává, zda dochází k profilování a jakým způsobem. Druhým úskalím mohou být specifická práva spotřebitele, pokud jde o automatizované rozhodování např. banky o poskytnutí úvěru.[30] 

Číslo 5 žije[31] 

Značné otázky a kontroverze s sebou nese případné budoucí sebeuvědomění robotů. Už jen definovat či posoudit lidské vědomí je velice složitá filozofická otázka. Pokud připustíme, že roboti si v budoucnu budou vědomi sebe sama, neomylně z takové situace vyplynou přinejmenším dvě otázky. Za prvé, zda stroj nadaný vědomím, který v naprosté většině ohledů kvalitativně předčí člověka, skutečně neposune lidstvo ke kolapsu, či dokonce zničení. A za druhé, zda si takový vědomím nadaný stroj nakonec „nezaslouží“ ochranu vlastních základních práv. Znamenalo by to snad, že bychom museli brát ohled na potřeby robotů do té míry, že by se z „otroků“ stali ekvivalentem lidí s nároky na odměnu za práci, příznivé pracovní prostředí, či dokonce sociální kontakty?

Návrh se pokouší definovat autonomii jako schopnost rozhodovat se a realizovat rozhodnutí ve vnějším prostředí nezávisle na externí kontrole či vlivu, přičemž tato autonomie je čistě technologického charakteru a její stupeň závisí na míře sofistikovanosti robota.[32] Čím více autonomní roboti budou, tím složitější přirozeně bude určit osobu odpovědnou za jejich jednání. Proto Návrh vznáší otázku, zda by nakonec roboti neměli být nadáni právní osobností jako novou kategorií osoby.[33] Je pravda, že i právnická osoba je dle fikční teorie[34] umělým konstruktem. Tento přístup nahlížení na povahu právnické osoby je však zároveň mnohými odmítán.[35] Studie tuto koncepci taktéž výrazně kritizovala s ohledem na problémy nastíněné výše, které by právní osobnost robota přinesla, a také vzhledem k faktu, že v horizontu 10 až 15 let takový technologický vývoj očekávat nelze.[36] Usnesení proto tento koncept částečně přepracovalo, když finálně navrhuje, že specifický právní status elektronické osoby je žádoucí v dlouhodobějším časovém horizontu a jen pro nejvíce sofistikované autonomní roboty.[37]

Čínský akademik Dr. Yueh-Hsuan Weng ve svých pracích[38] nastiňuje v tomto kontextu dvě základní otázky: (i) Jakým způsobem naprogramovat roboty, aby se řídili určitými právními a etickými normami a zároveň si zachovali vysokou míru autonomie? (ii) Jak kontrolovat hodnotový systém, či dokonce morálku vytvořenou roboty? Weng dále rozebírá i stupně umělé inteligence, kterými jsou akční inteligence (action intelligence), autonomní inteligence (autonomous intelligence) a inteligence vycházející z lidského uvažování (human-based intelligence), jež prozatím nebyla dosažena. Někteří odborníci se dokonce domnívají, že její dosažení ani není možné. Sám autor koneckonců podporuje zákaz instalování takto inteligentního software především z důvodu problematického trestání takto samostatně uvažujících robotů a také právě posunu od hodnot zaměřených na člověka k duálním lidsko-robotickým hodnotám. Řešení bezpečnostních rizik souvisejících s robotickou sebekontrolou vidí Weng s kolegy v konceptu tzv. bezpečnostní inteligence (safety intelligence).[39] Za nejvhodnější přístup naopak považuje charakteristiku robotů jako bytostí tzv. třetí existence, vedle biologicky žijící první existence a zcela neživoucí existence druhé.

S názory upozorňujícími na významná rizika případného sebeuvědomění či inteligence vycházející z lidského uvažování se plně ztotožňuji. Zároveň však považuji za nutné zdůraznit, že i pokud nebude namístě hovořit o vědomí robotů či jejich osobnosti, bezprostřednější riziko může spočívat ve vytváření neadekvátních emocionálních pout člověka k robotům především ze strany obzvlášť zranitelných osob, jako jsou staří či hendikepovaní lidé či děti. Ti by mohli k robotům příliš přilnout na úkor mezilidských vztahů. Usnesení na toto riziko zcela opodstatněně upozorňuje a vyzývá k jeho preventivnímu řešení. Nabízí se i zcela praktická otázka, zda je vůbec vhodné, aby měli roboti lidskou podobu, resp. zda má být tato otázka vůbec regulována právně. 

Viník: palubní počítač s IQ 6000[40] 

Stupeň autonomie a vědomí robotů a jejich právního postavení úzce souvisí s hledáním vhodných řešení odpovědnosti za škodu způsobenou takovými stroji. Přístupy jednotlivých právních řádů se liší; některé mohou být schopné aplikovat současnou legislativu, jiné budou vyžadovat významnější změny. Zásadní bude především definice věci a míra požadovaného zavinění.

V angloamerickém právním prostředí jsou největšími překážkami stanovení osoby odpovědné za škodu způsobenou umělou inteligenci nepředvídatelnost a (očekávaná) schopnost samostatně jednat bez odpovědnosti, či dokonce právní způsobilosti.[41] V tamních zdrojích se také často opakují návrhy použít analogii k odpovědnosti za škodu způsobenou zvířaty či dětmi.

Jisté je, že české právo by se v tomto ohledu muselo novelizovat. Jelikož totiž vymezuje věc široce jako vše, co je rozdílné od osoby a slouží potřebě lidí,[42] bude v našem právním režimu, alespoň prozatím, třeba považovat robota či software bezpochyby pouze za věc.[43] Na náhradu škody způsobené věcí tedy můžeme aplikovat ustanovení občanského zákoníku o škodě způsobené použitou věcí či vadou výrobku.[44]

Za způsobenou škodu tak odpovídá ten, kdo použil vadnou věc,[45] výrobce či některé další osoby zúčastněné na distribuci.[46] Situace, kdy vznikne škoda působením prokazatelné vady přístroje, je tak v českém právu poměrně jasná. Složitější to však bude v případě, kdy o žádnou vadu nepůjde, a ke škodě tak dojde z důvodu povahy přístroje samotného. Zatímco předchozí občanský zákoník[47] používal termín okolnosti, které mají původ v povaze přístroje nebo jiné věci, jichž bylo při plnění závazku použito,[48] současný hovoří o škodě, kterou věc způsobila sama od sebe.[49] V tom případě odpovídá ten, kdo nad věcí měl mít dohled, popř. její vlastník, ledaže prokáže, že náležitý dohled nezanedbal. Na povaze zmíněného ustanovení se však odborníci nemohou shodnout. Zatímco někteří se domnívají, že jde o objektivní odpovědnost s možností liberace,[50] dle jiných jde o subjektivní odpovědnost, při které zavinění spočívá v zanedbání náležitého dohledu nad věcí.[51] Posledně zmíněný závěr, že jde o odpovědnost subjektivní, podporuje také ustanovení občanského zákoníku, dle něhož musí být v zákoně výslovně uvedeno, že jde o objektivní odpovědnost.[52] Podle důvodové zprávy má dané ustanovení, které je proti předchozí úpravě novinkou, přiblížit české právo standardům, z nichž vycházejí civilní kodexy kontinentální Evropy.[53] Toto odůvodnění je však předmětem kritiky a zpřísněná odpovědnost za věci, jež nejsou vadné ani zvlášť nebezpečné, je některými považována za příliš přísnou.[54]

Zanedbání dohledu povinné osoby je použitelné i v zahraničních právních režimech, jak prokázala nedávná první smrtelná havárie automobilu Tesla v režimu autopilota. Závěry vyšetřování potvrdily obhajobu výrobce automobilu, dle kterého se řidič nevěnoval provozu, ač k tomu byl i přes aktivovaný samořídící režim povinen.[55] To jen potvrzuje, že nejjednodušší obranou výrobců současných (polo)autonomních vozidel je právě trvat na tom, že řidič je vždy povinen sledovat provoz a v případě potřeby neodkladně zasáhnout, a tedy, že se nelze zcela spolehnout na automatické řízení.

Zajímavé je, že zmíněná ustanovení jsou typicky použitelná i pro škodu, resp. újmu, způsobenou při poskytování zdravotních služeb, včetně např. odpovědnosti poskytovatele za újmu vzniklou v důsledku očkování.[56] Významným rozdílem samozřejmě je, že tzv. povinné očkování probíhá na příkaz státu, takže se zdá spravedlivé, aby za nežádoucí účinky (nikoliv vadné) vakcíny nesl odpovědnost právě stát. Tento rozdíl však může být minimalizován, pokud v budoucnu budou přijaty právní předpisy, které závazně stanoví, jakým způsobem má autonomní vozidlo v některých situacích reagovat. Co mají však obě situace bezpochyby společné již nyní, jsou jednak potenciálně lidsky velice významné následky (na zdraví a na životě), ale i otázka, nakolik bude v těchto případech docházet k situacím, kdy povinná osoba takzvaně ustojí svou situaci a prokáže, že jednala lege artis a náležitý dohled nezanedbala. Pro poškozené tak bude jistě velice obtížné smířit se se situací, kdy bude uzavřeno, že za nastalou situaci není nikdo (a nic) odpovědný, byť ke škodě došlo přímým působením daného stroje. Co v případě, že robot záměrně provede úkon směřující ke škodě, protože situaci zkrátka špatně vyhodnotí? Bude možné takové chybné rozhodnutí považovat za vadu věci[57] nebo spíše jen právě za důsledek spočívající v jeho povaze? Z těchto důvodů se tak může zdát vhodnější předchozí právní úprava.

U průmyslového využití robotů je samozřejmě možné aplikovat i ustanovení o škodě způsobené provozní činností, či dokonce provozem zvlášť nebezpečným.[58] Použitelná dle specifické povahy použitého stroje mohou být taktéž ustanovení o škodě způsobené provozem dopravních prostředků.[59]

Naopak v úvahu, alespoň prozatím, nepřipadají ustanovení českého práva o plnění za pomoci jiné osoby,[60] byť zamyšlení nad původním významem zásadyrespondeat superior sahající do římskoprávní úpravy otroctví je jistě zajímavé.[61]

Domnívám se ovšem, že je pravděpodobné, že se tyto principy odpovědnosti za škodu způsobenou použitím věci stanou v budoucnu, kdy budou stroje schopny skutečně zcela autonomního rozhodování, nespravedlivé[62] a bude vhodnější je nahradit např. zvláštní odpovědností výrobce i v případech, kdy nepůjde vyloženě o vadu výrobku. Resp. současné řešení, kdy odpovědnost za přístroj, který se samostatně rozhoduje, spočívá na dohlížející osobě či vlastníku, by bylo velice neatraktivní pro případné kupce takových inteligentních robotů s ohledem na přílišné a stěží odhadnutelné riziko škod, jež takové stroje mohou svým jednáním způsobit. 

Astro Boy[63] 

Jak se tedy k otázkám regulace umělé inteligence staví některé jiné státy? Jak již bylo naznačeno, v čele vývoje robotiky i jejího pozitivního zobrazení v kultuře byly vždy státy Dálného východu.

Jedním z nich je přirozeně Japonsko. Již od roku 2003 zde existuje zvláštní zóna „Tokku“ pro robotické empirické testování a vývoj, v níž je možné v běžném prostředí testovat dvounohé roboty bez zvláštní licence.[64] V roce 2015 představilo Japonsko Novou robotickou strategii, jejíž součást tvoří vize, strategie a akční plán.[65] Tato strategie vedla mj. k vytvoření iniciativy Robot Revolution Initiative (RRI),[66] sdružující společnosti působící v této oblasti. Ta nedávno navázala spolupráci i s českým Svazem průmyslu a dopravy ve věcech týkajících se internetu věcí a průmyslu 4.0.[67] V Japonsku se také pravidelně schází Robot Revolution Realization Council, odpovědný za revizi relevantního práva[68] a následnou (de)regulaci. Na základě jeho šetření bylo v časovém horizontu do roku 2020 navrženo vypracovat právní rámec pro ochranu spotřebitelů a zároveň vytvořit nový právní systém uvolňující dosavadní regulaci vedoucí k efektivnímu využití robotů, např. prostřednictvím podpory praktického testování za účelem lépe odhadnout rizika spojená s robotikou.[69]

Nijak pozadu nezůstává Jižní Korea. Ta v roce 2008 přijala např. zákon o vývoji a distribuci inteligentních robotů.[70] Ten byl od té doby již několikrát novelizován, naposledy v lednu 2016. Kromě již zmíněné definice inteligentního robota obsahuje např. úpravu certifikace kvality. Dále byla v roce 2012 přijata Korejská charta robotické etiky, jež nahradila předcházející dokument z roku 2007, ovšem sleduje spíše politické než právní otázky.[71] Jižní Korea přesto neustává a letos její Ministerstvo obchodu, průmyslu a energie představilo iniciativu týkající se robotického průmyslu.[72] Tento program zahrnuje aktivní umístění inteligentních robotů do rehabilitačních center, nemocnic a poštovních úřadů, či podporu vývoje humanoidních robotů ve speciálním státním centru. Zároveň je navržena revize výše zmíněného zákona s důrazem na využití robotů veřejnými institucemi.

Ve Spojených státech amerických se právní úprava této oblasti začíná také více projevovat, i když prozatím je spíše kusá a roztříštěná. Soustředí se převážně na bezpilotní letouny, včetně dronů, a autonomní vozidla. V roce 2017 přijalo už 33 států legislativu upravující autonomní vozidla.[73] Již o rok dříve vydalo Ministerstvo dopravy první příručku týkající se pravidel pro autonomní vozidla.[74] Obamova administrativa ke konci jeho úředního období také zveřejnila na podzim roku 2016 zprávu nazvanou Příprava na budoucnost umělé inteligence[75] a související Národní strategický plán výzkumu a vývoje umělé inteligence.[76]

Ani některé evropské státy nechtějí zůstat pozadu. Britský parlament zveřejnil v roce 2016 zprávu o robotice a umělé inteligenci.[77] Uzavírá v ní ovšem, že ačkoliv mají dané technologie potenciál významně změnit způsob, jakým žijeme a pracujeme, britská vláda v současnosti nedisponuje odpovídající strategií a vyzývá k ustanovení zvláštní komise, která by učinila odpovídající výzkum v oblasti sociálních, etických a právních aspektů.

Usnesení prostřednictvím čl. 225 SFEU volá po celoevropské regulaci prostřednictvím budoucí směrnice. Navrhuje dva možné přístupy k řešení odpovědnosti, a zároveň vyzývá k jejich detailní analýze. Z té by mělo vyplynout, zda vhodnějším přístupem je princip absolutní odpovědnosti, či zda by byla odpovědná osoba určena na základě posouzení rizik. Nikoliv tedy nutně jako někdo, kdo jednal nedbale, ale spíše ten, kdo měl být za daných okolností schopen minimalizovat riziko a vypořádat se s negativními dopady činnosti robota.[78] Odborně rozpracován má být také právě případný systém povinného pojištění, který by se mohl blížit konceptu pojištění povinného ručení u automobilů, včetně fondu pro pokrytí nepojištěných škod.[79] Právě takové pojištění sice může zvýšit počáteční náklady na pořízení inteligentních robotů, zároveň ale může být vhodným kompromisem pro všechny zúčastněné. V tomto kontextu přirozeně považuji za nezbytné posoudit soulad v budoucnu navrženého systému pojištění s národní právní úpravou.[80]

Osobně se také ztotožňuji s potřebou legislativy na minimálně evropské, ne-li dokonce mezinárodní úrovni. S ohledem na konkurenceschopnost evropských podniků není možné nechat příslušnou úpravu na členských státech, což by v případě chybějící či příliš striktní regulatorní právní úpravy vedlo k odlivu výrobců do zahraničí. Pokud nepřijmeme závazná pravidla přiměřeně regulující tuto oblast, nebudeme schopni konkurovat zahraničí. Zároveň je třeba myslet nejen na vývoj a distribuci robotů, ale i na jejich testování v běžném provozu. Zatímco v Japonsku, jak zmíněno výše, již více než deset let existují příslušné zóny, např. v Italii narazili při snaze testovat robota sbírajícího odpadky v praxi na neochotu pojišťovny vyčíslit a pojistit z této činnosti vyplývající riziko.[81]

Otázkou zůstává, zda je směrnice skutečně vhodným legislativním nástrojem s rizikem případných národních odchylek. Cílem by měl být budoucí předpis dostatečně konkrétní, aby umožnil vyvíjet inteligentní stroje v souladu s nejnovějším technologickým pokrokem i smysluplně odškodňovat případné související škody, a zároveň natolik pružný, aby v průběhu několika málo let zcela nezastaral. 

Knight Rider[82] 

Asi nejpředstavitelnějším příkladem využití umělé inteligence pro širokou veřejnost jsou autonomní vozidla. S těmi se ovšem pojí zároveň specifické etické otázky související s chováním, či dokonce rozhodováním takových strojů v krizových situacích. Ten nejspíše nejznámější, takzvané tramvajové dilema, se datuje minimálně do šedesátých let minulého století.[83] V jeho základní verzi se po kolejích řídí neovladatelná tramvaj. Na její trati je pět osob, které nemohou uhnout, a na vedlejší jedna osoba. Dotazovaná osoba má možnost neudělat nic a nechat tramvaj jet po hlavní trati, čímž dojde ke smrti pěti lidí, anebo aktivně přehodit výhybku na vedlejší trať, což povede k neodvratitelné smrti jedné osoby. Podobná zadání se objevují v nespočetně verzích, včetně těch, kdy některé ohrožené osoby mohou být osobami blízkými dotazovanému.

S vývojem autonomních vozidel tyto modelové situace intenzivně nabývají na praktickém významu, když předpokládáme, že autonomní vozidlo by pro takové situace ve skutečném provozu mělo být předem naprogramováno, popř. by mělo být schopné se operativně rozhodnout. Aktualizovanou verzí tramvajového dilematu je např. takzvané tunelové dilema.[84] Autonomní vozidlo se v něm velkou rychlostí blíží k tunelu, když vtom mu do cesty nečekaně vběhne dítě. Otázkou je, jak má automobil zareagovat, tedy zda může obětovat pasažéra pro záchranu dítěte či nikoliv, a také kdo má takové rozhodnutí předem určit.

Nastíněné situace samozřejmě nejsou černobílé a nemají jediné správné řešení. Jako nejčastěji zmiňované řešení zaznívá tzv. utilitaristický přístup,[85] dle kterého by v daném případě bylo nejvhodnějším řešením takové, které vede k co nejmenšímu utrpení co nejmenšího počtu lidí. Podstatné tak mají být pouze počty osob v ohrožení. Opakem tohoto přístupu může být např. sobecký přístup, kdy bude (alespoň do určité míry) preferována bezpečnost posádky.

Co do přístupu k řešení podobných dilemat můžeme diskutovat např. o vozech typu tank (jede vpřed a bezpečnost posádky je pro něj primární, ať se venku děje cokoliv), či naopak o kladném hrdinovi (v souladu s utilitárním principem vždy myslí na blaho co největšího počtu osob) nebo o kompromisech mezi těmito dvěma extrémy (např. vůz, který se rozhoduje podle počtu ohrožených osob, ale v případě rovnosti upřednostní posádku před chodci, anebo bere v potaz případné porušení pravidel silničního provozu jeho dalšími účastníky).

Světové automobilky se shodně vyjadřují, že právě v autonomních vozidlech vidí budoucnost, a proto již intenzivně pracují na jejich vývoji. Ten jim ovšem občas naruší právě legislativní zásah. Např. Mercedes-Benz se dříve nechal slyšet, že vyvíjí automobil, který bude mít naprogramovanou preferenci vlastní posádky bez ohledu na případné vnější ztráty.[86] V Německu je ovšem aktuálně přijímán zákon,[87] zavádějící v těchto ohledech princip ochrany slabších. Mezi další pravidla, která tato úprava přináší, patří např. povinnost řidiče být celou dobu provozu za volantem, zároveň ale umožňuje testovat vozidla, ve kterých budou řidiči moci sundat ruce z volantu a spustit oči z vozovky. Vyžadováno je vybavení černou skříňkou. Řidič má odpovídat za incidenty nastalé během jeho dozoru, pokud však půjde o selhání systému, bude odpovědnost spočívat na výrobci. Zákon má být zároveň za dva roky zrevidován ve světle dalšího technologického vývoje.[88]

Neměli bychom však zapomínat, že jde jen o modelové situace, řešené teoreticky, přičemž v praxi nemusí být k dispozici natolik přesná „diagnostika“, aby bylo možné dopředu spolehlivě kalkulovat, kolik z možných obětí skutečně zahyne či utrpí závažné zranění. Hrát roli samozřejmě bude např. i předchozí zdravotní stav či tělesná konstituce, takže vždy rozhodně nepůjde o jednoduché počty, zda je pět skutečně více než jeden.

Další otázky souvisejí se státní regulací. Jakým způsobem má stát regulovat provoz samořiditelných vozidel, ba dokonce, zda v případě, že bude prokázáno, že jsou tato vozidla bezpečnější než ta řízená lidmi, zda by měl stát dokonce zakázat řízení lidmi?[89]

Kdo má tedy určovat, jakým způsobem se bude vozidlo chovat? Má jít o čistě individuální rozhodnutí každého vlastníka? Nebo má být potlačena jeho autonomie a stroj se má řídit továrním nastavením naprogramovaným výrobcem?

Massachusettský technologický institut v rámci zkoumání podobných situací provozuje zvláštní webové stránky, na kterých mohou zájemci testovat svá rozhodnutí v modelových případech.[90] Z jejich zjištění je patrný konflikt v tom, že lidé chtějí autonomní vozidla co nejpřívětivější k chodcům do okamžiku, kdy by auto mělo obětovat ve prospěch chodců je osobně. Podobně byla většina lidí proti řešení, že by vlády měly zajistit, aby autonomní vozidla byla naprogramována podle utilitaristických principů. Podle průzkumu by byli dotazovaní pouze z jedné třetiny ochotni pořídit si takto naprogramovaný autonomní vůz, v porovnání s neregulovaným vozem, který může být naprogramován jakýmkoliv způsobem.[91]

Technologie autonomních vozidel navíc přináší i další etické otázky. Jakým způsobem se mají vozy postavit k situacím, kdy někdo bude takovýto vůz „šikanovat“ právě proto, že bude vědět, že je nějakým konkrétním způsobem naprogramovaný? Což souvisí s otázkou, zda mají být takto přednastavené situace předem sděleny pasažérům, či dokonce být patrné okolním účastníkům silničního provozu? A neměl by v takovém případě být od posádky dokonce vyžadován informovaný souhlas?

Přes výše nastíněné etické otázky však za stěžejní problém autonomní dopravy stále považuji otázku odpovědnosti. Byť souhlasím, že je nezbytné brát etiku v potaz již při samotném vývoji autonomních vozidel, zároveň se plně ztotožňuji s názory, že za účelem umožnění technologického rozvoje bude třeba učinit kompromisní rozhodnutí a tyto otázky určitým způsobem rozhodnout. 

Hasta la vista, baby[92] 

Velké množství diametrálně odlišných názorů můžeme nalézt i ve vztahu k předpokládaným dopadům očekávané technologické revoluce na trh práce. V tomto ohledu se samozřejmě nabízí historická analogie s revolucí průmyslovou. Ve vztahu k ní se domnívám, že již můžeme uzavřít, že z dlouhodobého hlediska nevedla k trvalému navýšení nezaměstnanosti.[93] Ale zatímco např. z průzkumu skupiny KPMG z roku 2015[94] vyplývá, že užívání vozidel bez řidiče či vzájemně propojených může kromě úspory na životech jen ve Velké Británii vytvořit 320 000 nových pracovních míst, jiní tento názor nesdílejí a naopak se domnívají, že přicházející technologie a změny, které přinášejí, jsou jiného rázu než v historii a skutečně mohou vést k rapidnímu nárůstu nezaměstnanosti.[95]

Tyto obavy jistě nelze brát na lehkou váhu ani v prostředí českého trhu. Podle loňské srovnávací analýzy OECD je v České republice ohroženo automatizací až 55 % pracovních pozic, přičemž 10 % z nich je ohroženo významně. Jde přitom o jedna z největších čísel v porovnání s ostatními státy.[96] V rámci volební kampaně tak některé strany již přicházejí např. s (prozatím nekonkrétními) návrhy na zvláštní zdanění robotů.[97]

Bez ohledu na přesná čísla rušených pracovních míst je jisté, že kromě možného úbytku některých pozic povede rozšíření inteligentních robotů zcela jistě současně k vytvoření nových. Dokumenty vypracované v rámci EU tak zcela oprávněně vyzývají ke kladení dostatečného důrazu na tyto trendy v oblasti vzdělávání, tedy na nezbytnost rekvalifikace a podporu technických oborů. Ryze pozitivní dopad pak může mít rozvoj robotiky na problémy vyplývající ze stárnutí evropské populace.

Snad ani nemá smysl detailně polemizovat nad očekávanými odhady přesných čísel, které nové technologie přinesou. Je však více než vhodné obecně se zamýšlet nad jejich pravděpodobnými dopady na společnost a řešit negativní důsledky pokud možno preventivně. Zavírání očí před neoddiskutovatelným technologickým pokrokem ještě nikomu a ničemu neprospělo.

Ruku v ruce s ostatními společenskými změnami pak musí jít i legislativní vývoj. Právo tak na ně bude muset chtě nechtě zareagovat. I když v této turbulentní oblasti jistě bude více než kdy dříve extrémně složité, aby právní předpisy držely prst na tepu doby, tedy byly dostatečně flexibilní a odpovídaly technologickému vývoji.

Při práci na nových předpisech bude dle mého názoru především nezbytné pokrýt možná rizika a vhodně upravit odpovědnost za vzniklé škody. Je přitom třeba mít na paměti různé zájmy jednotlivých zúčastněných (výrobců, prodejců, uživatelů či pouhých náhodných poškozených) i prostou psychologii obětí. Je přirozené, že přímo poškození či pozůstalí chtějí nalézt viníky dané situace, a zároveň lidé mívají jiný přístup, pokud jde o ně samé či jejich blízké.

Vývoj umělé inteligence tak bude zákonitě muset přinést odpovědi i na tyto otázky, případně stanovit hranice, co ještě mohou tyto stroje rozhodovat samy a co musí zůstat jako přímá a aktivní volba člověka. Zároveň je třeba adekvátně reagovat na již přítomné problémy především v oblasti ochrany osobních údajů.

Tak jako tak, je nyní téměř jisté, že inteligentní roboti a softwary nadané umělou inteligencí budou nedílnou součástí naší budoucnosti. Postava Terminátora zmiňující, že se ještě uvidíme, pomalu, ale jistě opouští pole science fiction a stává se skutečností. 



[1] Výraz byl použit v dramatu Karla Čapka R. U. R. (Rossumovi univerzální roboti) z roku 1920, i když, jak sám Karel Čapek uvedl např. v Lidových novinách 24. 12. 1933, skutečným autorem slova robot byl jeho bratr Josef.

[2] Special Eurobarometer 427 AUTONOMOUS SYSTEMS REPORT, červen 2015, http://ec.europa.eu/commfrontoffice/publicopinion/archives/ebs/ebs_427_en.pdf.

[3] Robot byl pro účely tohoto průzkumu definován jako stroj pomáhající člověku při každodenních úkonech bez nepřetržitého vedení či instrukcí, např. jako spolupracovník v továrně či uklízeč, nebo při činnostech člověku nebezpečných, jako výzkum či záchrana v případě pohrom. Podle této definice mohou mít roboti různé tvary a velikosti, včetně případného lidského zjevu. Tradiční kuchyňské přístroje – kupř. mixéry či kávovary – v průzkumu za roboty považovány nejsou.

[4] McKinsey Global Institute, J. Manyika, M. Chui, J. Bughin, R. Dobbs, P. Bisson, A. Marrsh: Disruptive technologies: Advances that will transform life, business, and the global economy, květen 2013, dostupné v angličtině na https://www.mckinsey.com/business-functions/digital-mckinsey/our-insights/disruptive-technologies.

[5] Výraz byl poprvé použit německou vládou v rámci projektu popularizujícího komputerizaci výroby v roce 2011, představeném na hannoverském veletrhu v roce 2013; https://www.bmbf.de/de/zukunftsprojekt-industrie-4-0-848.html.

[6] Internet věcí (anglicky Internet of Things, zkratka IoT) je v informatice označení pro propojení hmotných přístrojů, vozidel, budov a dalších prvků vybavených elektronikou, softwarem, senzory, ovladači a síťovým připojením, umožňující těmto objektům sbírat a sdílet data. Předpokládá se, že v roce 2020 bude IoT zahrnovat zhruba 30 bilionů objektů.

[7] http://www.robolaw.eu/.

[8] DRAFT REPORT with recommendations to the commission on Civil Law Rules on Robotics [2015/2103 (INL)] ze dne 31. 5. 2016, http://www.europarl.europa.eu/sides/getDoc.do?pubRef=-//EP//NONSGML%2BCOMPARL%2BPE-582.443%2B01%2BDOC%2BPDF%2BV0//EN.

[9] N. Nevejans: Study for the JURI Committee, European Civil Law Rules in Robotics, říjen 2016, http://www.europarl.europa.eu/RegData)etudes/STUD/2016/571379/IPOL_STU%282016%29571379_EN.pdf.

[10] Usnesení Evropského parlamentu ze dne 16. 2. 2017 obsahující doporučení Komisi o občanskoprávních pravidlech pro robotiku [2015/2103 (INL)]; Report with recommendations to the Commission on Civil Law Rules on Robotics [2015/2103 (INL)].

[11] Bod 51. Usnesení.

[12] Kniha Já, robot je soubor devíti sci-fi povídek od Isaaca Asimova, poprvé publikována vydavatelstvím Gnome Press roku 1950, byla inspirací i pro stejnojmenný americký film z roku 2004.

[13] Ust. § 2 odst. 1 zákona Intelligent robots development and distribution promotion Act, Ministry of Trade, Industry and Energy, Act no 13744, naposledy novelizovaného 6. 1. 2016 (viz odkaz 70).

[14] Skynet je fiktivní počítačový systém z filmu Terminátor vytvořený na principu nové umělé inteligence, který po spuštění vyhodnotil lidi jako hrozbu a pokusil se je odstranit za pomoci atomových zbraní.

[15] Str. 10 a násl. Studie.

[16] M. Sainato: Stephen Hawking, Elon Musk, and Bill Gates Warn About Artificial Intelligence, Observer [online], 19. 8. 2015, http://observer.com/2015/08/stephen-hawking-elon-musk-and-bill-gates-warn-about-artificial-intelligence/.

[17] Např. na https://www.fbi.gov/audio-repository/news-podcasts-thisweek-risks-of-internet-of-things-devices.mp3/view.

[18] Agent Smith je fiktivní postava z trilogie filmů Matrix. Představuje zosobněný antivirus, jehož úkolem je zajišťovat pořádek v počítačovém supersystému Matrixu.

[19] Profesor Ken Taylor citovaný v A. Shashskevich: Stanford scholars, researchers discuss key ethical questions self-driving cars present, 22. 5. 2017, http://news.stanford.edu/2017/05/22/stanford-scholars-researchers-discuss-key-ethical-questions-self-driving-cars-present/.

[20] I. Asimov: Robohistorie I., Triton, Praha 2004, str. 8-9, dále např. Nahé slunce, Ivo Železný, Praha 1994, Pravda o románech o robotech, str. 9-10, či Roboti a impérium, Klub Julese Vernea, Praha 1993, str. 350.

[21] 0) Robot nesmí ublížit lidstvu nebo svou nečinností dopustit, aby mu bylo ublíženo, 1) Robot nesmí ublížit člověku nebo svou nečinností dopustit, aby bylo člověku ublíženo, 2) Robot musí uposlechnout příkazů člověka, kromě případů, kdy jsou tyto příkazy v rozporu s prvním zákonem, 3) Robot musí chránit sám sebe před poškozením, kromě případů, kdy je tato ochrana v rozporu s prvním nebo druhým zákonem.

[22] Bod U. Usnesení.

[23] Bod 11. a jeho příloha na str. 21 a násl. Usnesení.

[24] Bod 2. Usnesení.

[25] Bod 12. Usnesení.

[26] Část „Licence designers“ navržená jako součást Charty robotiky na str. 25 Usnesení.

[27] Čl. 23 návrhu nařízení Evropského parlamentu a Rady o ochraně fyzických osob v souvislosti se zpracováváním osobních údajů a o volném pohybu těchto údajů (obecné nařízení o ochraně údajů), 2012/0011 (COD), ze dne 25. 1. 2012, dostupné online na http://ec.europa.eu/justice/data-protection/document/review2012/com_2012_11_cs.pdf.

[28] Nařízení Evropského parlamentu a Rady (EU) 2016/679 ze dne 27. 4. 2016 o ochraně fyzických osob v souvislosti se zpracováním osobních údajů a o volném pohybu těchto údajů a o zrušení směrnice 95/46/ES (obecné nařízení o ochraně osobních údajů), které bude v členských státech přímo použitelné od 25. 5. 2018.

[29] Čl. 25 Nařízení, který upravuje principy použitelné dle možností, jako je např. pseudonymizace či minimalizace údajů.

 

[30] Např. dle § 89 zák. č. 257/2016 Sb., o spotřebitelském úvěru.

[31] Americký film z roku 1986, ve kterém vojenský robot po náhodném zásahu bleskem ožije a začne projevovat lidské vlastnosti.

[32] Bod R. Návrhu.

[33] Body S., T. a 31. písm. f) Návrhu.

[34] Viz např. usnesení Nejvyššího soudu ČR sp  zn. 30 Cdo 5421/2008, F. Korbel: Nový občanský zákoník, Smluvní zastoupení v novém občanském zákoníku, Bulletin advokacie č. 5/2011, str. 46. Východiska z této teorie nalezneme nap. i v důvodové zprávě k o. z. – konsolidovaná verze, dostupné na http://obcanskyzakonik.justice.cz/images/pdf/Duvodova-zprava-NOZ-konsolidovana-verze.pdf, str. 13.

[35] I. Pelikánová: Problémy nové kodifikace, právnické osoby, jejich orgány, zastoupení a forma právních jednání, Rekodifikace & praxe č. 10/2015, str. 2.

[36] Str. 14 a násl. Studie.

[37] Bod 59. písm. f) Usnesení.

[38] Y.-H. Weng: Toward the Human–Robot Co-Existence Society: On Safety Intelligence for Next Generation Robots, 25. 4. 2009, https://works.bepress.com/weng_yueh_hsuan/1/.

[39] Y.-H. Weng: The Legal Crisis of Next Generation Robots: On Safety Intelligence, International Conference on Artificial Intelligence and Law (2007), 4. 6. 2007, https://works.bepress.com/lucemia)2/.

[40] Palubní počítač s IQ 6000 jménem Holly řídící vesmírnou loď Červený trpaslík je jednou z hlavních postav stejnojmenného britského sitcomu.

[41] P. M. Asaro: The Liability Problem for Autonomous Artificial Agents, vypracováno v roce 2016 pro Association of Artificial Intelligence, https://www.aaai.org/ocs/index.php/SSS/SSS16/paper/download)12699/11949.

[42] Dle § 489 zák. č. 89/2012 Sb., občanský zákoník (dále i jen jako „o. z.“).

[43] Podle povahy daného předmětu hmotnou či nehmotnou viz § 496 o. z.

[44] Viz § 2936 až 2943 o. z.

[45] Viz § 2936 o. z.

[46] Viz § 2939 o. z.

[47] Zákon č. 40/1964 Sb., občanský zákoník, ve znění pozdějších předpisů (dále i jen jako „obč. zák. č. 40/1964 Sb.“).

[48] Viz § 421a obč. zák. č. 40/1964 Sb.

[49] Viz § 2937 o. z.

[50] P. Vojtek: Komentář k § 2937, In: J. Švestka, J. Dvořák, J. Fiala: Občanský zákoník, komentář, svazek VI., Wolters Kluwer, Praha 2014, str. 1042.

[51] M. Hulmák a kol., Občanský zákoník VI., Závazkové právo, Zvláštní část (§ 2055–3014), 1. vydání, C. H. Beck, Praha 2014, str. 1639-1642.

[52] Dle § 2895 o. z.

[53] Důvodová zpráva k o. z. – konsolidovaná verze, dostupná na http://obcanskyzakonik.justice.cz/images/pdf/Duvodova-zprava-NOZ- konsolidovana-verze.pdf.

[54] E. Karner, E. Ondreasiva: Odpovědnost za zdroje zvláštního nebezpečí podle nového českého občanského zákoníku z komparativního hlediska, Sborník Karlovarské právnické dny 22/2014, str. 129.

[55] N. E. Boudette: Tesla’s Self-Driving System Cleared in Deadly Crash, The New York Times, 19. 1. 2017, https://www.nytimes.com/2017/01/19/business/tesla-model-s-autopilot-fatal-crash.html?mcubz=0.

[56] Podrobně P. Šustek: Povinné očkování z pohledu soukromého práva: je někdo povinen nahradit případnou újmu na zdraví? 15. 6. 2017, Jurisprudence, ASPI LIT235787CZ.

[57] Určité vodítko zde může představovat § 2941 o. z.

[58] Viz § 2924 a 2925 o. z.

[59] Ust. § 2927 až 2932 o. z.

[60] Ust. § 1935 a 2914 o. z.

[61] M. Štípa: Umělá inteligence a odpovědnost za škodu aneb redefinování zákonů robotiky, část I., Právní prostor, 2. 6. 2017, http://www.pravniprostor.cz/clanky/ostatni-pravo/umela-inteligence-a-odpovednost-za-skodu-aneb-redefinovani-zakonu-robotiky-cast-i.

[62] J. Januš: Kdo ponese odpovědnost za jednání robotů?, 26. 8. 2016, http://ceskapozice.lidovky.cz/kdo-ponese-odpovednost-za-jednani-robotu-fpb-/tema.aspx?c=A160825_012009_pozice-tema_lube.

[63] Japonský manga seriál o dobrodružstvích androida jménem Astro Boy psal a ilustroval Osamu Tezuka v letech 1952 až 1968.

[64] Y.-H. Weng: Intersection of „Tokku“ Special Zone, Robots and the Law: A Case study on Legal Impacts to Humanoid Robots, International Journal of Social Robotics, 13. 2. 2015, https://works.bepress.com/weng_yueh_hsuan/39/.

[65] New Robot Strategy, Japan’s Robot Strategy – Vision, Strategy, Action Plan, The Headquaters for Japan’s Economic Revitalization, 10. 2. 2015, http://www.meti.go.jp/english/press/2015/pdf/0123_01b.pdf.

[66] https://www.jmfrri.gr.jp/english/outline/establishment.html.

[67] Joint statement, Confederation of Industry of the Czech Republic and the Robot Revolution Initiative of Japan agree on cooperation regarding Internet of Things / Industry 4.0, 28. 6. 2017, https://www.jmfrri.gr.jp/content/files/Czech_JS.pdf.

[68] Dotčenými zákony jsou např. zákony o rádiovém vysílání, farmacii a medicínských přístrojích, průmyslové bezpečnosti, silniční dopravě, civilním letectví, ochraně spotřebitele ve vztahu k výrobkům a další.

[69] New Robot Strategy, op. cit. sub 65, str. 41 a násl.

[70] Zákon v kompletním znění přijatých novel v angličtině dostupný na http://elaw.klri.re.kr/kor_mobile/viewer.do?hseq=39153&type=sogan&key=13.

[71] https://www.jura.uni-wuerzburg.de/fileadmin/_migrated)content_uploads/Legal_Regulation_of_Autonomous_Systems_in_South_Korea_on_the_Example_of_Robot_Legislation_-_Hilgendorf_Kim_05.pdf.

[72] Anglické shrnutí tiskové zprávy publikované 15. 11. 2016 na https://www.rvo.nl/sites/default/files/2017/04/South-Korea-to-Boost-its-Robot-Industry.pdf.

[73] National Conference of State Legislatures, 25 7. 2017, http://www.ncsl.org/research/transportation/autonomous-vehicles-self-driving-vehicles-enacted-legislation.aspx.

[74] The U.S. Department of Transportation’s Federal Automated Vehicles Policy, září 2016, https://www.transportation.gov/AV/federal-automated-vehicles-policy-september-2016.

[75] Executive Office of the President National Science and Technology Council Committee on Technology, Preparing for the future of artificial intelligence, říjen 2016, https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/preparing_for_the_future_of_ai.pdf.

[76] National Science and Technology Council, THE NATIONAL ARTIFICIAL INTELLIGENCE RESEARCH AND DEVELOPMENT STRATEGIC PLAN, říjen 2016, https://obamawhitehouse.archives.gov/sites/default/files/whitehouse_files/microsites/ostp/NSTC/national_ai_rd_strategic_plan.pdf.

[77] Zpráva britské Dolní sněmovny (House of Commons), Robotics and artificial intelligence, zveřejněná 12. 10. 2016, https://publications.parliament.uk/pa)cm201617/cmselect/cmsctech/145/145.pdf.

[78] Body 53. až 55. Usnesení.

[79] Bod 59. Usnesení.

[80] Jak správně upozorňují R. Nešpůrek a P. Bratský: Evropský parlament otevírá cestu unijní regulaci umělé inteligence, ze dne 15. 9. 2017, https://www.epravo.cz/top/clanky/evropsky-parlament-otevira-cestu-unijni-regulaci-umele-inteligence-106387.html, konstrukce pojištění dle bodu 57 Usnesení je v rozporu se současným zákonem č. 168/1999 Sb., o pojištění odpovědnosti za škodu způsobenou provozem vozidla, dle kterého se pojišťuje jen odpovědnost provozovatele, a nikoliv vadné jednání a chyby lidského činitele.

[81] The Safety for Human-Robot Co-Existing: On New ISO 13482 Safety Standard for Service Robots, 17. 10. 2013, http://www.robolaw.asia/interview-iso-13482-weng-virk-yang-en.html.

[82] Americký televizní seriál, ve kterém vystupuje mluvící inteligentní automobil jménem KITT.

[83] Dilema známé pod anglickým názvem „trolley problem“ vychází ze situací, jež v roce 1967 nastínila britská filozofka Philippa Ruth Foot (The Problem of Abortion and the Doctrine of the Double Effect, Oxford Review č. 5/1967), vycházela přitom z morálních dotazníků používaných již dříve. Její původní verze obsahovala trochu jiné okolnosti zadání, přičemž tramvajové dilema bylo na základě její práce vytvořeno jejími následovníky.

[84] Tzv. „tunnel problem“ nastíněný Jasonem Millarem v článku An ethical dilemma: When robot cars must kill, who should pick the victim, 11. 6. 2016, http://robohub.org/an-ethical-dilemma-when-robot-cars-must-kill-who-should-pick-the-victim/, http://robohub.org/an-ethical-dilemma-when-robot-cars-must-kill-who-should-pick-the-victim/.

[85] Zakladatelem tohoto filozofického a etického směru byl britský filozof a právní teoretik Jeremy Bentham, který jej vyložil v knize Úvod do principů morálky a zákonodárství (1789). Ke klasikům utilitarismu dále patří např. John Stuart Mill (Utilitarianism, 1863) a Henry Sidgwick (Methods of Ethics, 1875). 

[86] D. Šmíd: Maminku, nebo babičku? 21. 9. 2017, EXCELLENT (příloha časopisu Reflex č. 38).

[87] Novela německého zákona o pozemních komunikacích Das Straßenverkehrsgesetz (StVG), byla ke dni 2. 10. 2017 projednána Německým spolkovým sněmem a čekala na schválení a na vyhlášení ve sbírce zákonů, text dostupný v němčině na http://dip21.bundestag.de/dip21/btd)18/113/1811300.pdf.

[88] Reuters, Germany adopts self-driving vehicles law, 12. 5. 2017, https://www.reuters.com/article/us-germany-autos-self-driving/germany-adopts-self-driving-vehicles-law-idUSKBN1881HY.

[89] Na řečnické soutěži studentů etiky Ethics Bowl došli studenti alabamské univerzity k závěru, že ano. Viz M. Winsdor: Will your self-driving car be programmed to kill you? 12  6. 2015, dostupné v angličtině na https://phys.org/news/2015-06-self-driving-car.html.

[90] http://moralmachine.mit.edu/.

[91] Driverless cars: Who gets protected? Study shows public deploys inconsistent ethics on safety issue, 23. 6. 2016, https://phys.org/news/2016-06-driverless-cars-deploys-inconsistent-ethics.html. 

[92] Španělský výraz „hasta la vista“ lze do češtiny volně přeložit jako „uvidíme se“. Celou zmíněnou frázi pak pronáší postava Terminátora ve filmu Terminátor 2: Den zúčtování z roku 1991.

[93] V kontextu posledních dvou století nedošlo s výjimkou období velké hospodářské krize k markantnímu navýšení nezaměstnanosti.

[94] KPMG, Connected cars to deliver huge UK jobs boost, finds first UK study, 26. 3. 2015, https://home.kpmg.com/uk/en/home/media)press-releases/2015/03/connected-cars-to-deliver-huge-uk-jobs-boost-finds-first-uk-study.html.

[95] A. Shashskevich: Stanford scholars, researchers discuss key ethical questions self-driving cars present, 22. 5. 2017, http://news.stanford.edu/, 2017/05/22/stanford-scholars-researchers-discuss-key-ethical-questions-self-driving-cars-present/.

[96] OECD Social, Employment and Migration Working Papers, The Risk of Automation for Jobs in OECD Countries, A Comparative Analysis, 14. 5. 2016, http://www.oecd-ilibrary.org/docserver/download)5jlz9h56dvq7-en.pdf?expires=1505802173&id=id&accname =guest&checksum=D98082B05A71D1DB43 08199BA0B52FA4.

[97] Např. aktuální volební programy Strany zelených či Pirátů.