Etické aspekty umelej inteligencie

Pôsobenie umelej inteligencie v medziach etiky rozoberá nie len laická verejnosť, ale aj špecialisti pre oblasť umelej inteligencie. Dôležitosť aspektu potvrdila aj Európska komisia, ktorá zriadila expertnú skupinu na vysokej úrovni (AI HLEG). Skupina zostavená z verejnosti, osobností z priemyslu aj akademickej obce, pripravila dokument podporujúci stratégiu Európskej komisie ohľadne umelej inteligencie a robotiky. Ako však sami uvádzajú, dokument je výsledkom práce skupiny a nemožno ho považovať za oficiálne stanovisko Komisie.

Etika v AI

zdroj: Peggy und Marco Lachmann, Pixabay

Súlad s Chartou

Dokument sa zameriava hlavne na etické hodnotyodolnosť – od samotnej technickej stránky aj zo sociálneho hľadiska. Aby sa spoločnosť venovala vývoju systému v súlade s platnou legislatívou je zrejmé a žiaduce, ale tomuto bodu sa nevenuje.

Na čo teda upriamuje AI HLEG pozornosť? Pri vývoji a začleňovaní umelej inteligencie do života sa má vychádzať zo štyroch etických zásad, vychádzajúcich z Charty základných práv Európskej Únie (pozn. zoradené abecedne):

1. Prevencia ujmy – zásada sa opiera o článok o nedotknuteľnosti osoby, a to jej telesnej aj duševnej podoby, konkrétne z pohľadu medicíny a biológie napr. zákaz reprodukčného klonovania ľudskej bytosti, kompletné znenie nájdete v Charte v článku 3. Rovnako sa dotýka slobody zhromažďovania (článok 12), vzhľadom na nerovnomerné rozloženie moci vo vzťahoch. Viac v požiadavkách, ktorým sa budeme venovať nabudúce.

2. Rešpektovanie ľudskej autonómie – systém umelej inteligencie nesmie oslabovať ani na ňu inak nepriaznivo vplývať. Človek má možnosť dohliadať na systém a zasiahnuť do procesu. Konkrétne podoby budú rozpísané v ďalšom dieli.

 3. Spravodlivosť – má rôzne podoby, ale vývoj systému by sa mal byť spravodlivý v zmysle dvoch rozmerov. Hmotnoprávny rozmer zahŕňa rovnoprávne rozdelenie nákladov a prínosov ako aj zabezpečenie, aby človek nebol vystavený diskriminácii či zaujatosti. Procesný rozmer zahŕňa možnosť odmietnuť rozhodnutia systému umelej inteligencie a ľudí a trvať na náprave. „Na tento účel musí byť možné identifikovať subjekt zodpovedný za rozhodnutie a procesy rozhodovania by mali byť vysvetliteľné.“

Etika a spravodlivosť v AI

zdroj: Gerd Altmann, Pixabay

 4. Vysvetliteľnosť – zaručiť, aby systém umelej inteligencie bol vždy transparentný, bolo možné identifikovať postupy a otvorene komunikovať o účeloch systému. V prípade, kedy nie je možné identifikovať rozhodnutie, aký algoritmus napr. systém použil (tzv. čierna skrinka), je nutné mať prehľad o schopnostiach systému, a to napr. zabezpečiť transparentnosť komunikácie či kontrolovateľnosť schopností.

Tieto etické zásady vyústili do etických požiadavok, ktoré je nutné dodržiavať pri realizácii tzv. dôveryhodnej umelej inteligencie, ako nazývajú dané systémy s umelou inteligenciou. Tým sa budeme venovať v ďalšom pokračovaní článku.

Zdroj:

https://ec.europa.eu/digital-single-market/en/news/ethics-guidelines-trustworthy-ai

Pridaj komentár

Vaša e-mailová adresa nebude zverejnená. Vyžadované polia sú označené *