Accenture se snaží, aby systémy umělé inteligence byly etické a společensky korektní

AccentureSpolečnost Accenture vytvořila nový nástroj AI Fairness pro podporu etického jednání při zavádění umělé inteligence a strojového učení. Nástroj pomůže identifikovat a napravit chování algoritmů umělé inteligence (AI – Artifical Intelligence), které je v rozporu s aktuálními společenskými i právními standardy. Cílem je zachytit diskriminaci, které by se jinak mohla umělá inteligence dopustit a způsobit tak škodu.



Počítačové algoritmy se dostávají do role, kdy v prvním sítu rozhodují o řadě záležitostí – dělají jakýsi předvýběr, který předkládají k dořešení „lidským“ kolegům. A tak umělá inteligence může rozhodovat o tom, zda určitý člověk dostane půjčku, nabídku zaměstnání, případně povolení k určité činnosti. Umělá inteligence přitom může dojít k závěrům, které jsou považovány za diskriminační. Společnost Accenture se proto rozhodla vytvořit nástroj, který vyhodnocuje, zda systémy AI rozhodují v souladu s aktuálními společenskými i právními standardy.

Nástroj AI Fairness například hledá skryté citlivé proměnné, které podle současných etických pravidel není možno využít při rozhodování. Přestože by tak například algoritmus umělé inteligence nemusel explicitně zohledňovat pohlaví, pokud se podívá na příjem, mohl by snadno oddělit výsledky pro ženy a muže. Nástroj AI Fairness je schopen tento algoritmus opravit, ale protože tento typ korekce může způsobit snížení jeho přesnosti, navrhne řešení a umožní uživateli rozhodnout, nakolik se má změnit.

„V minulosti jsme našli modely, které jsou celkově velmi přesné, ale pokud se podíváte, jak se určitá chyba rozkládá nad podskupinami, uvidíte obrovský rozdíl mezi tím, jak správný je určitý model například pro bílého muže ve srovnání s černou ženou.“ říká Rumman Chowdhury, lídr v oblasti umělé inteligence společnosti Accenture.

„Vidíme rostoucí zaměření na algoritmické zkreslení a spravedlnost. Řada států vytváří etické rady AI, Google nedávno vydal své etické pokyny,“ konstatuje Rumman Chowdhury. „Takže si myslím, že lídři v oboru AI, stejně jako non-tech společnosti, hledají cestu. Hledají standardy a protokoly a něco, čím se mohou řídit, protože chtějí vytvářet a využívat bezpečné produkty.“

Umělá inteligence sama o sobě nemůže být spravedlivá nebo nespravedlivá, ovšem algoritmy, které pro rozhodování využívá, mohou kodifikovat nesprávné lidské chápání. Nový nástroj je určen společnostem, které chtějí rozšířit své používání AI, ale obávají se rizika neúmyslných dopadů. Předpokládá se, že prvními uživateli budou ti, kteří se nacházejí v nejvíce regulovaných oborech - například finančních služeb a zdravotní péče, kde je potenciál nežádoucích dopadů AI velký.


 
  

- PR -

Repasovaný notebook: Proč je chytřejší volba než nový?

Za deset tisíc korun dnes v obchodě pořídíte nový notebook se základním výkonem a plastovým tělem. Za stejné peníze ale můžete mít repasovaný stroj se skvělým výkonem, který původně stál i čtyřicet tisíc. Není to překlep a není to háček. Pojďte se podívat, proč si repas zaslouží vaši pozornost.

  

- PR -

Díky digitalizaci zvládneme více zakázek se stejným počtem servisních techniků,

říká Jana Dupalová, manažerka kvality společnosti ERILENS


Ing. Jana Dupalová je manažerkou kvality ve společnosti ERILENS, která se zabývá instalací a servisem stropních zvedacích systémů pro imobilní osoby. Dříve se v této firmě potýkali s extrémním množstvím administrativy v papírové podobě, která zdržovala servisní techniky a komplikovala plánování. Problémem byla i chybovost, nepřehlednost a složitý přístup k potřebným informacím. Proto firma hledala způsob, jak celý proces evidence zakázek zefektivnit. Optimální řešení našla v systému Digio, díky kterému nastoupila cestu od papírování k digitálnímu servisu.