|Aktuality|Zajímavosti|Menu

Etické zásady pro AI

2019/ číslo 2
Evropská komise představila 8. dubna etické pokyny týkající se bezpečné umělé inteligence, které zpracoval tým odborníků na AI.

Skupina s názvem High-Level Expert Group on Artificial Intelligence zahrnuje 52 špičkových odborníků z různých oblastí, např. zástupce technologických firem, výzkumníky z Fraunhoferova institutu a německého výzkumného centra pro AI, filozofy či experty z univerzit.

EU chce nastavit pravidla, která by zabránila, aby se AI stala rizikem či potenciální hrozbou. Etické pokyny, které obsahují zásady, jak by se v této věci mělo postupovat, a jak dát umělou inteligenci do souladu s právem a regulacemi upravujícími fungování moderní společnosti, se budou od letošního léta testovat v praxi. Evropská komise bude sbírat poznatky (výsledku by se chtěla dobrat v roce 2020), aby Evropa mohla hledat konsenzus s dalšími státy a téma prosazovat na globální scéně (např. v rámci zemí G7 či G20).

Tyto pokyny nejsou právně závazné, ale mohly by formovat budoucí právní předpisy EU. Zpráva obsahuje tzv. „Seznam důvěryhodných hodnot AI“ – kolekci faktorů, které mohou odborníkům pomoci zjistit případná slabá místa nebo nebezpečí v softwaru AI, jako jsou otázky typu: Ověřili jste, jak se váš systém chová v neočekávaných situacích a prostředích? Některé z požadavků obsažené v dokumentu jsou poměrně abstraktní a jejich pojetí se může lišit v podmínkách různých zemí, ale řada je formulována konkrétněji a bude možné je objektivně posuzovat.

Sedm základních podmínek etických zásad:

1- Umožnit řízení a dohled ze strany člověka. AI by neměla potlačovat lidskou autonomii. Lidé by v případě potřeby měli mít možnost zasáhnout nebo dohlížet na rozhodnutí, které software dělá. Systémy využívající AI by měly pomáhat vytvářet spravedlivou společnost podporou lidského faktoru a nikoliv omezovat lidskou nezávislost.

2- Technická robustnost a bezpečnost. AI by měla být bezpečná, přesná a přiměřeně spolehlivá a neměla by být snadno ohrožena vnějšími útoky. Systémy AI musí být důvěryhodné, založené na robustních, odolných algoritmech, které budou fungovat i v případě, že se vyskytnou chyby nebo bude systém nestabilní.

3- Ochrana soukromí a správa dat. Osobní údaje shromážděné systémy AI by měly být bezpečné a neměly by být přístupné komukoliv a snadno zcizitelné. Nesmí být použity k újmě uživatelů ani k jejich diskriminaci.

4- Transparentnost. Systémy AI musí být přehledné a sledovatelné. Data a algoritmy používané k vytvoření systémů AI by měla být přístupná a rozhodnutí učiněná softwarem vysledovatelná lidmi.

5- Rozmanitost, rovný a nediskriminativní přístup. Systémy AI by měly zohledňovat celou škálu lidských schopností, dovedností a požadavků, bez jakékoli diskriminace. Služby poskytované AI by měly být dostupné všem, bez ohledu na věk, pohlaví, rasu nebo jiné charakteristiky.

6- Užitek pro společnost i prostředí. AI by se měla využívat k podpoře pozitivních sociálních změn a ke zvýšení udržitelnosti a ekologické odpovědnosti.

7- Odpovědnost. Měly by být zavedeny mechanismy, které zajistí odpovědnost za systémy AI a za výsledky jejich činností. Systémy by měly být auditovatelné a být pokryty existující ochranou pro oznamovatele z řad firem (tzv. whistleblowery), upozorňující na problémy.

Nastavení pravidel v oblasti AI by mělo zabránit, aby se AI stala rizikem či potenciální hrozbou.
Robotic journal