Právo být člověkem v éře umělé inteligence
Umělá inteligence stále častěji ovlivňuje společnost a občany. Klíčová slova jako jsou algoritmus, automatizace nebo velká data se tak stávají běžnou součástí našich životů. V roce 1948 byla přijata Všeobecná deklarace lidských práv. Na základě této deklarace se Evropská unie (EU) zavázala podporovat demokracii a lidská práva ve svých vnějších vztazích v souladu se svými základními svobodami, demokracií a dodržováním právního státu.
Některé z algoritmů umělé inteligence (AI) tvoří obrovské množství dat nashromážděných a generovaných od “běžných” občanů. Tato skutečnost byla jedním z podnětů pro uspořádání naší debaty. Jejím cílem bylo vzbudit veřejnou diskuzi o tom, jaké dopady má na občany a jejich základní práva a svobody využití systémů založených na umělé inteligenci. Debata rovněž nabídla relevantní argumenty o tom, zda a případně jakým způsobem současné politické štěpení a technologické změny ovlivňují nebo odporují některým důležitým hodnotám. Jedná se o hodnoty, které utvářejí dnešní moderní společnost, jako je například svoboda projevu.
Doktorka Anne Bowser, zástupkyně ředitele pro Vědecký inovační program (STIP) a ředitelka inovačního programu ve Wilsonově Centru, byla první ze dvou řečníků, kteří se účastnili debaty ze Spojených států. V rámci své práce se zabývá především souvislostmi a vztahy mezi vědou/technologií a demokracií.
Dle perspektivy USA by se na problematiku umělé inteligence, zejména na etiku s ní spojenou, mělo nahlížet v souvislosti se specifickým rozpoznáváním obličeje pokročilými druhy umělé inteligence, po případě také na zkreslené obličeje.
Problematika spojená se zkreslení obličeje představuje koncept, jež je vázán na kognitivní a evoluční psychologií. Zejména v takových situacích, kdy je pro lidi výhodné rychle se nechat rozpoznat s omezeným množstvím informací, které mají napodobovat lidský mozek. Mezi dvě nejčastější formy zkreslení patří a) zkreslení dat zahrnující zkreslení výběru, neúplná nebo nesprávná data a zkreslení hlášení b) algoritmické zkreslení, a to včetně návrhu systému a závěrů založených na kauzalitě.
S vývojem techniky, tedy i systémů umělé inteligence, se tyto dva zdroje zkreslení mají tendenci spojovat a integrovat, což vede k silným sociálním a etickým důsledkům. V rámci akademických studií zabývající se tímto problémem – Gender Shades (2018), demografická studie NIST Effects Study (2019), bylo zjištěno že předsudky ohledně AI existují ve značné míře plošně. Studie Gender Shades poukazuje na to, že Amazon’s Rekognition’s Facial Analysis mylně identifikovala ženu jako muže celkem v z 19 % případů. Ženu tmavší pleti poté v 31 % případů.
Širší využívání těchto systémů rozpoznávání obličeje vyžaduje politická, etická a technologická řešení. Jak se vyrovnáme se zkreslením v AI? – 1) Krátkodobé, identifikace a zmírnění, 2) střednědobé, plánování, hodnocení algoritmických dopadů a technické architektury, 3) konečně dlouhodobě rámce „velkého obrazu“, takové principy, definice, standardy a požadavky.
Theresa Harris, projektová ředitelka programu Vědecká odpovědnost, lidská práva v rámci Americké asociace pro pokrok ve vědě (AAAS), řeší především projekty spojené s oblastí vědy a lidských práv, a to včetně služby dobrovolných doporučení, jejichž prostřednictvím je zprostředkována technická podpora organizacím lidskoprávního charakteru. Tyto projekty jsou také podporují sítě vědeckých společností a sdružení, zejména poté Koalice pro vědu a lidská práva. Samotná činnost podporovat lepší porozumění lidskému právu v souvislosti s vědou a také nová iniciativa spojená s umělou inteligencí jsou zaměřené na veřejné zdraví a hromadný dohled.
Hlavním záměrem Theresy Harris je zjistit, jak by mohlo právo využívat výhod vědeckého a také technologického pokroku a postupnou aplikací zajistit informovanost o strachu lidí, že budou lidská práva budou za pomoci umělé inteligence zneužita.
AAAS přistupovala k problematice příležitostí a významu umělé inteligence v lidskoprávní oblasti, s použitím 27. článku Všeobecné deklarace lidských práv – Právo využívat vědeckého pokroku a jeho aplikací. Detailně je poté toto právo popsáno v 15. článku Mezinárodního paktu o hospodářských a sociálních právech.
Výbor OSN pro hospodářská, sociální a kulturní práva (OHCHR), před rokem 2020 přijal obecnou poznámku č. 25, v rámci, které jsou podrobně popsané závazky státu respektovat a plnit právo na vědu. Tato poznám poskytuje jakési vodítko pro státy k tomu, aby vyvinuly mechanismy, které budou navrženy za tím účelem, aby u autonomních zpravodajských systémů nedocházelo k diskriminaci. Podstatné je také vytvoření právního rámce, jež bude nestálým subjektům ukládat povinnosti náležité péče v oblasti lidských práv.
Povinnost předcházet škodám a využívat vědu a technologii k rozšíření lidských práv, nikoli k jejich porušování. Upřednostněním veřejného financování výzkumu zaměřeného na základní potřeby poskytuje spravedlivější přístup. Zdůraznění důležitosti „kvality“ dat spočívá v mnoha výzvách systémů AI, konkrétně v biometrii.
Závěrem tedy je že pokroková vize a pohled z bližší perspektivy můžeme využít a maximalizovat využití těchto technologií k zajištění výhod pro lidská práva. Současně omezit používání umělé inteligence tam, kde může způsobit potenciální újmu a porušovat lidská práva nebo právo využívat výhod vědeckého pokroku a jeho aplikací.
Dr. Stefan Larsson, docent pro technologie a sociální změny a odborný asistent na Lund University ve Švédsku. Se v rámci své kariéry zabývá multidisciplinárním výzkumem v souvislosti s otázkou transparentnosti a důvěry na digitálních trzích, jejichž základ je tvořen daty. Dále se jeho ohnisko zájmu koncentruje na sociálně-právní dopady autonomních technologií a také technologií na bázi umělé inteligence.
Dr. Larsson se zaměřil na mechaniku implementace umělé inteligence založené na hodnotách. Vzhledem k tomu, že v posledních několika letech došlo jak k nárůstu povědomí, tak i etických pokynů jako nástrojů pro správu umělé inteligence, na nejvyšší úrovni EU i členských států.
A) zvýšené povědomí, jelikož používání více autonomních systémů nabývá na všudypřítomnosti, implementace těchto systémů může mít na svědomí nepříznivé účinky na společnost. Ve Švédsku, konkrétně v organizacích, jako je Wallenberg AI, Autonomous Systems and Software Program – Humanities and Society (WASP-HS), se pozornost soustředí na kombinaci implementace a aplikace technologií.
B) pokyny pro Umělou inteligenci jsou v posledních několika letech na vzestupu a začleňují publikace, strategie a iniciativy ve veřejném i soukromém sektoru. I když s velkým množstvím konvergence kolem i) transparentnosti, ii) spravedlnosti, iii) nepříznivosti, iv) odpovědnosti a v) soukromí, v používání terminologie nejsou podstatné rozdíly.
C) EU a členské státy, v souvislosti k AI zaměřené na člověka v EU, se řídí pokyny stanovenými v přístupu Evropské unie k „důvěryhodné AI“. Tato představa vychází ze jmenování skupiny odborníků na vysoké úrovni pro AI (AI HLEG) a jejích klíčových publikací, zejména etických pokynů pro důvěryhodnou umělé inteligence. Konkrétně sedm klíčových požadavků na realizaci důvěryhodné AI, které jsou uvedeny v pokynech pro etiku, jakož i v dalších dokumentech, včetně podobných pojmů, z OECD Policy Policy Observatory
Vyvstává tedy otázka, „co by mělo být jasně regulováno a jaké metodiky a nástroje hodnocení by měly být vyvinuty na úrovni členských států?“
Z Indie se do debaty také zapojil Dr. Mohd Shahid Siddiqui, který je specialistou na média a vývoj v oblasti digitálních médií a sociálního rozvoje. Pan doktor je také aktivistou za lidská práva a pracuje jako novinář.
Pozitivní aspekt je, že technologie AI v současné době připravují cestu v oblasti medicíny, výzkumu a technologií. AI se již za určitých okolností používá v systémech zdravotní péče, policie a trestního soudnictví. Také uvádí, že během jedné generace bude používání umělé inteligence mnohem rozšířenější na nespočet pracovištích, ve zdravotnictví, ve vzdělávání a ve veřejném sektoru, s možností zlepšení života občanů.
Klade důraz na průzkum Pew Research Center (2019), v rámci kterého se přišlo na skutečnost, že u minorit je méně pravděpodobné vlastnictví počítače nebo dostupnost vysokorychlostního internetu v USA , ve srovnání s 82% bělochů, kteří vlastní stolní nebo přenosný počítač.
Do negativ se poté řadí oblasti regulace a správy věcí veřejných z hlediska lidských práv s ohledem na vznikající digitální technologie. Stejně jako zneužívání některých systémů, například těch, které se používají k zajištění svobody projevu nebo jiných lidských práv.
V budoucnu by se mělo zaměřit na společenské a ekonomické dopady umělé inteligence, jelikož soukromý i veřejný sektor se stále více a více AI využívá.
Domen Savič je ředitel neziskové organizace Občan D (Drzavljan D). Se v rámci své praxe zaměřuje na rozvoj dlouhodobých projektů souvisejících s digitálními právy, komunikačním soukromím a digitální bezpečností, regulací médií a aktivní účastí občanů v politické sféře.
Vývoj aplikace covid tracing ve Slovinsku vede ke dvěma implementacím, a) tvrzení, že aplikace „vyřeší krizi covid“ pouhým stažením b) přijetí závazného zákona pro stahování a implementaci aplikace, který nebyl vynucen, což ve Slovinsku vyvolává zmatek.
Aplikace na bázi Bluetooth pro sledování kontaktů COVID-19 byly zavedeny jako prostředek k využití technologie ve snaze omezit šíření korona viru. Prostřednictvím sledováním a kontaktováním jedinců, kteří byli v kontaktu nebo okolí někoho, kdo může být v budoucnu pozitivně testován.
Teorie a praktická stránka vývoje aplikace covid tracing ve Slovinsku však vedly k neúspěchu především kvůli právnímu rámci. Důraz je kladen na to, že problémy AI by se neměly soustředit jen na technologii vs. transparentnost, technologie vs. otevřenost, ale také na odpovědnost. Samotná technologie, AI, by také neměla být používána jako zástěrka k odrazování od odpovědnosti na veřejné i soukromé straně.