24. 6. 2024
Umělá inteligence (AI) je fenoménem, který výrazně ovlivňuje mnoho oblastí našeho života, aniž bychom si to museli plně uvědomovat. S její rostoucí přítomností však také vyvstává potřeba právních úprav, které zajistí její bezpečné a etické využívání nejen pro jedince, ale i pro firmy.
S AI se setkáváme ve zdravotnictví, v průmyslu, ale i při brouzdání na internetu. V tomto článku se podíváme na hlavní právní výzvy a otázky, které AI přináší.
Jak moc je užívání AI bezpečné?
Systémy umělé inteligence jsou navrženy tak, aby shromažďovaly velké množství dat, a to včetně osobních údajů, které následně využívá. K tomu musí být dle GDPR splněny určité požadavky – transparentnost, zákonnost a bezpečnost při zpracování osobních údajů.
Uživatelé musí být informováni o tom, jaké údaje jsou shromažďovány a jak jsou využívány. Zároveň musí mít také možnost svůj souhlas odvolat nebo případně využít svého práva být „zapomenut“.
Bezpečnost užívání umělé inteligence je třeba sledovat i z pohledu firem, u kterých by mohlo docházet k úniku obchodních tajemství nebo porušení povinnosti mlčenlivosti. Pokud tedy vaši zaměstnanci používají při práci třeba ChatGPT, je nutné, aby neudávali žádná citlivá data, která by mohla způsobit nenapravitelné škody.
Právní úpravu ochrany osobních údajů v oblasti AI nově (od dubna 2024) najdeme také v nařízení EU AI Act, které reguluje její používání.
Tato otázka je v právu velmi komplexní. Ve všech evropských právních řádech můžeme hovořit o odpovědnosti na základě zavinění. V rámci zemí sice existuje mnoho rozdílů, ale vlastně jde vždy o to samé – odpovědný je ten, kdo škodu způsobil, pokud se nechoval pečlivě a řádně.
Jenže tradiční právní systémy nejsou vždy připraveny na situace, kdy škodu způsobí autonomní systém. Jako příklad si můžeme uvést dopravní nehodu způsobenou autonomním vozidlem. Kdo je odpovědný – výrobce, provozovatel, nebo samotný systém?
Tuto problematiku částečně upravují dvě směrnice EU. Jedna z nich se zabývá mimosmluvní odpovědností za zavinění při používání umělé inteligence. Druhá se týká odpovědnosti za výrobek. Ačkoli úprava stále není dostatečná, zavádí důležitá kritéria pro vyhodnocení odpovědnosti – například povinnost uživatele nebo distributora předložit relevantní fakta o vysoce rizikových systémech AI. Pokud člověk, na kterého se tato povinnost vztahuje, fakta nepředloží, odpovědnost za škodu nese on.
V oblasti automatizovaných systémů je důležitým úkolem stanovit příslušné požadavky péče, např. s ohledem na nezbytný dohled.
Etické otázky a problémy, které už před více než sto lety vyzdvihl Karel Čapek s prvním použitím slova robot, zůstávají aktuálními dodnes. Dokonce jsou ještě palčivější.
Jako téměř vše, i AI má dvě strany. Může přinášet užitek, ale zároveň představovat riziko, a to v případě, že je systém zneužit nebo „pouze“ špatně naprogramován.
Pokud AI čerpá své zkušenosti ze zaujatých nebo člověkem ovlivněných dat, může se z ní namísto objektivně hodnotícího systému stát systém rasistický, homofobní a sexistický. Na toto nebezpečí upozorňuje i Evropská unie. Podle ní by „nesprávné provedení“ mohlo mít vliv na objektivnost procesů například při najímání či propouštění zaměstnanců, při nabízení půjček, či dokonce v trestním řízení.
Nová pravidla pro fungování umělé inteligence schválili europoslanci letos na jaře. Tento průlomový dokument představuje první závazné nařízení svého druhu.
Akt o AI zavádí klasifikaci technologií podle způsobu využití a nastavuje různé úrovně omezení podle míry souvisejících rizik, včetně transparentnosti, bezpečnosti a ochrany základních práv.
Naše kancelář je připravena vám pomoci s navigací v této složité oblasti, aby vaše používání AI bylo bezpečné a v souladu s platnými právními předpisy.