facebook LinkedIN LinkedIN - follow

Accenture se snaží, aby systémy umělé inteligence byly etické a společensky korektní

AccentureSpolečnost Accenture vytvořila nový nástroj AI Fairness pro podporu etického jednání při zavádění umělé inteligence a strojového učení. Nástroj pomůže identifikovat a napravit chování algoritmů umělé inteligence (AI – Artifical Intelligence), které je v rozporu s aktuálními společenskými i právními standardy. Cílem je zachytit diskriminaci, které by se jinak mohla umělá inteligence dopustit a způsobit tak škodu.



Počítačové algoritmy se dostávají do role, kdy v prvním sítu rozhodují o řadě záležitostí – dělají jakýsi předvýběr, který předkládají k dořešení „lidským“ kolegům. A tak umělá inteligence může rozhodovat o tom, zda určitý člověk dostane půjčku, nabídku zaměstnání, případně povolení k určité činnosti. Umělá inteligence přitom může dojít k závěrům, které jsou považovány za diskriminační. Společnost Accenture se proto rozhodla vytvořit nástroj, který vyhodnocuje, zda systémy AI rozhodují v souladu s aktuálními společenskými i právními standardy.

Nástroj AI Fairness například hledá skryté citlivé proměnné, které podle současných etických pravidel není možno využít při rozhodování. Přestože by tak například algoritmus umělé inteligence nemusel explicitně zohledňovat pohlaví, pokud se podívá na příjem, mohl by snadno oddělit výsledky pro ženy a muže. Nástroj AI Fairness je schopen tento algoritmus opravit, ale protože tento typ korekce může způsobit snížení jeho přesnosti, navrhne řešení a umožní uživateli rozhodnout, nakolik se má změnit.

„V minulosti jsme našli modely, které jsou celkově velmi přesné, ale pokud se podíváte, jak se určitá chyba rozkládá nad podskupinami, uvidíte obrovský rozdíl mezi tím, jak správný je určitý model například pro bílého muže ve srovnání s černou ženou.“ říká Rumman Chowdhury, lídr v oblasti umělé inteligence společnosti Accenture.

„Vidíme rostoucí zaměření na algoritmické zkreslení a spravedlnost. Řada států vytváří etické rady AI, Google nedávno vydal své etické pokyny,“ konstatuje Rumman Chowdhury. „Takže si myslím, že lídři v oboru AI, stejně jako non-tech společnosti, hledají cestu. Hledají standardy a protokoly a něco, čím se mohou řídit, protože chtějí vytvářet a využívat bezpečné produkty.“

Umělá inteligence sama o sobě nemůže být spravedlivá nebo nespravedlivá, ovšem algoritmy, které pro rozhodování využívá, mohou kodifikovat nesprávné lidské chápání. Nový nástroj je určen společnostem, které chtějí rozšířit své používání AI, ale obávají se rizika neúmyslných dopadů. Předpokládá se, že prvními uživateli budou ti, kteří se nacházejí v nejvíce regulovaných oborech - například finančních služeb a zdravotní péče, kde je potenciál nežádoucích dopadů AI velký.


 
  

- PR -

Jak zajistit vzornou docházku u zaměstnanců v terénu?

Díky digitalizované evidenci do­cház­ky, která snižuje admi­ni­stra­tiv­ní zátěž personalistů a eliminuje nepoctivé praktiky zaměstnanců, můžete ušetřit až statisíce korun ročně. Pozdní příchody, dřívější odchody, půjčování kartiček nebo čipů, falešné přesčasy nebo evidence příchodu či odchodu na nesprávném místě — to vše se negativně projeví na výši vašich mzdových nákladů.

  

- PR -

Pět způsobů, jak AI změní náš svět k nepoznání

AI_analyzuje_data-PR.jpegUmělá inteligence (AI) a strojové učení (ML) přináší už více než 10 let podnikům i výzkumníkům stále možnosti. Ať už jde o využití prediktivní analýzy k předvídání údržby zařízení, nástroje počítačového vidění, které dávají oči robotům na automatických montážních linkách, nebo digitální dvojčata sloužící k simulaci fungování továren, měst, a dokonce i celých ekonomik, seznam aplikací poháněných AI je dlouhý a stále se prodlužuje.