Kto je zodpovedný za nehodu autonómneho robota? Odpovedá advokátka

RoboTech Vision presentation

23. október 2020  Súvisiace

Pri vývoji nového produktu je veľmi dôležité prihliadať na ochranu spotrebiteľa z hľadiska jeho bezpečia aj súkromia. Toto odvetvie sa stáva čoraz významnejším i pri vývoji autonómnych robotov, na ktoré sa zameriava aj spoločnosť RoboTech Vision. Oslovili sme preto partnerku advokátskej kancelárie Malata, Pružinský, Hegedüš & Partners s. r. o., Zuzanu Jahodníkovú, ktorá sa špecializuje na legislatívu v oblasti IT a technológií, aby nám priblížila, kto je podľa zákona zodpovedný za nehodu autonómneho vozidla a ako legislatíva chráni užívateľov pred spracovaním osobných dát.

Legislatívna regulácia autonómnych vozidiel či robotov, ktoré sa dostávajú do styku s človekom je ešte len v počiatkoch. Príkladom jej naliehavosti je však nedávna nehoda autonómneho auta, ktoré pri teste v Arizone usmrtilo chodkyňu. V čase rozšírenia vírusu COVID-19 bola pri nasadzovaní inteligentných zariadení zase často diskutovanou témou GDPR otázka. Na mnohé z týchto oblastí možno aplikovať už existujúce zákony z iných sektorov. V prípade využívania umelej inteligencie sa však často dostávame na hranicu zákona a otázka jej predvídateľnosti či zodpovednosti je tak mnohokrát nejasná.

Dajú sa aj v zákone nasimulovať všetky rizikové scenáre? Aký je postup, ak je zákon prikrátky?

„Zákonom či iným právnym predpisom nemožno niekedy upraviť či predvídať absolútne všetky situácie, ktoré môžu v reálnom svete aj nastať. Objektívne by to niekedy nebolo ani možné, keďže pri umelej inteligencii vidíme aj určité vlastné obmedzenia vnímania rozvoja. Vo všeobecnosti však na druhej strane platí, že právny poriadok by sa všeobecnou formuláciou právnych noriem mal snažiť o to, aby svojím regulačným pôsobením obsiahol čo najviac situácií, ktoré môže život priniesť. Aj vďaka tejto vlastnosti práva preto dnes vieme s menšími či väčšími neúspechmi aplikovať existujúci právny rámec.

A to aj na úpravu vzťahov, ktoré vznikajú vďaka využívaniu umelej inteligencie. Právne nástroje, ktorými možno odstrániť „krátkozrakosť“ súčasných právnych noriem je k dispozícii viacero. Často sa spoliehame na analógiu (aplikovanie noriem upravujúcich príbuzné alebo obdobné otázky), prípadne rozširujúci, extenzívny výklad právnych noriem či využívanie všeobecných právnych princípov a zásad, na ktorých je náš právny systém postavený. Samozrejme, nejde o ideálny stav už len z tohto dôvodu, že prináša so sebou aj dosť veľkú dávku právnej neistoty.

Zohľadňuje legislatíva aj rozdiely medzi robotmi, ktoré je možné ovládať človekom a autonómnymi zariadeniami? Kto je podľa zákona v prípade nehody za ujmu zodpovedný?

„Bezpečnosť je pri technológiách využívajúcich umelú inteligenciu veľkou témou a vzbudzuje pochopiteľne aj najväčšie obavy. Prevádzka dopravných prostriedkov je zdrojom zvýšeného nebezpečenstva a zvýšenej možnosti vzniku škôd už aj v súčasnosti a to aj bez priameho využitia umelej inteligencie pri ich riadení.

Fyzické a právnické osoby vykonávajúce dopravu zodpovedajú za škodu vyvolanú osobitnou povahou tejto prevádzky. Svojej zodpovednosti sa nemôžu zbaviť, ak bola škoda spôsobená okolnosťami, ktoré majú pôvod práve v tejto prevádzke. Zbavenie sa zodpovednosti prichádza do úvahy, len ak preukážu, že sa škode nemohlo zabrániť ani pri vynaložení všetkého úsilia, ktoré možno požadovať. Ak sa stretnú prevádzky dvoch alebo viacerých prevádzateľov dopravných prostriedkov, tak zodpovedajú podľa účasti na spôsobení vzniknutej škody.

Pre iné veci ako dopravné prostriedky platí aj právna úprava týkajúca zodpovednosti za škodu spôsobenú prístrojom, respektíve vecou. Každý zodpovedá za škodu spôsobenú okolnosťami, ktoré majú pôvod v povahe prístroja alebo inej veci, ktoré sa pri plnení záväzku použili. Tejto zodpovednosti sa nemôže zbaviť. Tieto pravidlá sú pomerne dobre etablované, pričom bližšie podmienky ich uplatnenia určuje aj judikatúra, čiže rozhodnutia súdov vo veciach, v ktorých sa aplikovali tieto ustanovenia na konkrétne prípady.

Pokiaľ teda hovoríme o zodpovednosti za škodu v občianskoprávnej rovine, máme už aj v súčasnosti k dispozícii určitý model zodpovednosti. Je však ťažko predstaviteľné, že tieto pravidlá budú dostatočné v prípade autonómnych technológií a umelej inteligencie.

V trestnoprávnej rovine sa napríklad páchateľovi trestného činu dokazuje, či ujmu na zdraví poškodeného či prípadne jeho smrť naozaj zavinil práve on. To môže byť práve v prípadoch technológií využívajúcich umelú inteligenciu problém. Umelá inteligencia už dnes umožňuje určité nepredvídateľné správanie spôsobené schopnosťou konať autonómne, teda nie len na základe vopred stanovených algoritmov,  a to najmä ak hovoríme o takzvanom „black box“ efekte prejavujúcu sa práve pri robotoch s umelou inteligenciou.

„Black box“ efekt je metaforou, ktorá odkazuje na skutočnosť, že hoci pri technológiách s umelou inteligenciou vieme identifikovať zadané vstupy (príkazy a algoritmy) a následné výstupy (správanie či reakciu takýchto technológií), proces, akým sa napríklad autonómny robot k spomenutým výstupom (konaniu) dopracoval niekedy nepoznáme. Práve táto nevedomosť môže výrazným spôsobom komplikovať preukazovanie takzvanej príčinnej súvislosti medzi konaním, napríklad programátora a protiprávnym následkom v podobe usmrtenia chodca autonómnym vozidlom. Ide o problém, na ktorý bude musieť nájsť právo všeobecne akceptovateľné riešenie.“

Je možné uznať vinu aj v prípade, že sa robot dostane do neznámeho prostredia a je stratený? Vzťahuje sa na roboty aj hmotná zodpovednosť?

„Zjednodušene môžeme povedať, že v občianskom práve v zásade platí, že každý zodpovedá za škodu, ktorú zavinil vlastným protiprávnym konaním. Samozrejme, toto je veľmi všeobecné pravidlo, ktoré je precizované, dopĺňané a aj menené v závislosti od okolností, ktoré môžu nastať.

Robot nemá spôsobilosť mať práva a povinnosti, či spôsobilosť na právne úkony. Právo robotom nepriznáva práva a povinnosti porovnateľné s tými, ktoré prináležia ľuďom. Z tohto dôvodu so svojimi „zamestnávateľmi“ nemôžu uzatvárať niečo ako dohodu o hmotnej zodpovednosti. Roboty stále ostávajú v právnom ponímaní predmetmi, vecami.

Nie je však možné vylúčiť, že budúci technologický vývoj zákonodarcov postaví pred otázku, či, a ak áno kedy a za akých podmienok, priznať humanoidným technológiám s umelou inteligenciou právnu subjektivitu. To, že to nie je úplne nereálne potvrdzuje aj prvý prípad humanoida menom Sophia, ktorej Saudská Arábia udelila štátne občianstvo. Týmto sa Sophia stala prvým humanoidom so statusom, ktorý je priznávaný výlučne ľuďom.

Bolo by podľa vás riešením poistenie voči podobným prípadom?

Samozrejme, poistenie zodpovednosti za škodu spôsobenú technológiami s umelou inteligenciou je riešením ako minimalizovať negatívne dôsledky spôsobené činnosťou týchto technológií, respektíve ako sa chrániť pred stratami vyplývajúcimi z činnosti alebo nečinnosti umelej inteligencie.

Predpokladám, že trh komerčného poistenia prinesie produkty, ktorých úloha bude pokrytie takýchto rizikových prípadov. Bude teda aj úlohou poisťovní, aby pripravili špecifické poistné produkty tejto kategórie. Aktivita poisťovní bude závisieť aj od úspešnosti prijímania právnych predpisov, nakoľko základné otázky poistných podmienok budú musieť zohľadňovať aj aplikovateľnú právnu úpravu.”

Autonómne mobilné roboty k svojej samostatnosti využívajú senzorický systém, kam patrí aj kamera, ktorá sníma tvár či skener, ktorý zaznamenáva biometrické dáta. Ak sa robot pohybuje po verejnom priestranstve, aké povinnosti sa naň vzťahujú z hľadiska GDPR?

„Na monitorovanie autonómnymi robotmi sa uplatnia predpisy upravujúce ochranu osobných údajov rovnako ako je to v prípade napríklad bežných priemyselných kamier. Vyžaduje sa správne vymedzenie účelu spracúvania osobných údajov, stanovenie doby spracúvania získaných záznamov, či splnenie informačných povinností. Prevádzkovatelia si tak musia plniť svoje povinnosti aj v rámci tejto oblasti a dbať na legálnosť získavania osobných údajov.

Práve toto bola jedna z oblastí, v ktorej sa v čase pandémie ochorenia COVID-19 prejavila potreba upozornenia na splnenie zákonných povinností napríklad pri meraniach telesnej teploty či monitorovaní prekrytia tváre rúškom. Informácie o zdravotnom stave fyzickej osoby patria do osobitnej kategórie osobných údajov, označených ako citlivé údaje, ktoré podliehajú pomerne prísnej právnej ochrane a ktoré sa zvyčajne nespracúvajú. Rozšírením napríklad monitorovania telesnej teploty zamestnávateľmi a prevádzkami sa zároveň zvýšil záujem verejnosti o informácie, za akých zákonných predpokladov sa takéto monitorovanie môže vôbec uskutočňovať.

Prevádzkovateľ by mal vždy zvážiť použitie čo najmenej invazívnych prostriedkov podľa zásady proporcionality a tiež by mal dbať na ochranu súkromia dotknutých osôb. Riziká do neprimeraného zásahu do práva na súkromie by mali teda vyhodnocovať prevádzkovatelia ešte pred nasadením autonómnych robotov, respektíve robotov vo všeobecnosti.”   

Autor príspevku

Dominika Krajčovičová

Marketing manager

Podobné články

Roboty pomáhajú v boji proti COVID 19. Ako zohľadňuje ich bezpečnosť legislatíva?​

Dokončujeme našu autonómnu navigáciu vo vinohrade pomocou vizuálneho systému

Otestovali sme našu autonómnu navigáciu pomocou mapy v troch rôznych prostrediach

Kategórie

NAJNOVŠIE PRÍSPEVKY

Pin It on Pinterest

Share This