Accenture se snaží, aby systémy umělé inteligence byly etické a společensky korektní

AccentureSpolečnost Accenture vytvořila nový nástroj AI Fairness pro podporu etického jednání při zavádění umělé inteligence a strojového učení. Nástroj pomůže identifikovat a napravit chování algoritmů umělé inteligence (AI – Artifical Intelligence), které je v rozporu s aktuálními společenskými i právními standardy. Cílem je zachytit diskriminaci, které by se jinak mohla umělá inteligence dopustit a způsobit tak škodu.



Počítačové algoritmy se dostávají do role, kdy v prvním sítu rozhodují o řadě záležitostí – dělají jakýsi předvýběr, který předkládají k dořešení „lidským“ kolegům. A tak umělá inteligence může rozhodovat o tom, zda určitý člověk dostane půjčku, nabídku zaměstnání, případně povolení k určité činnosti. Umělá inteligence přitom může dojít k závěrům, které jsou považovány za diskriminační. Společnost Accenture se proto rozhodla vytvořit nástroj, který vyhodnocuje, zda systémy AI rozhodují v souladu s aktuálními společenskými i právními standardy.

Nástroj AI Fairness například hledá skryté citlivé proměnné, které podle současných etických pravidel není možno využít při rozhodování. Přestože by tak například algoritmus umělé inteligence nemusel explicitně zohledňovat pohlaví, pokud se podívá na příjem, mohl by snadno oddělit výsledky pro ženy a muže. Nástroj AI Fairness je schopen tento algoritmus opravit, ale protože tento typ korekce může způsobit snížení jeho přesnosti, navrhne řešení a umožní uživateli rozhodnout, nakolik se má změnit.

„V minulosti jsme našli modely, které jsou celkově velmi přesné, ale pokud se podíváte, jak se určitá chyba rozkládá nad podskupinami, uvidíte obrovský rozdíl mezi tím, jak správný je určitý model například pro bílého muže ve srovnání s černou ženou.“ říká Rumman Chowdhury, lídr v oblasti umělé inteligence společnosti Accenture.

„Vidíme rostoucí zaměření na algoritmické zkreslení a spravedlnost. Řada států vytváří etické rady AI, Google nedávno vydal své etické pokyny,“ konstatuje Rumman Chowdhury. „Takže si myslím, že lídři v oboru AI, stejně jako non-tech společnosti, hledají cestu. Hledají standardy a protokoly a něco, čím se mohou řídit, protože chtějí vytvářet a využívat bezpečné produkty.“

Umělá inteligence sama o sobě nemůže být spravedlivá nebo nespravedlivá, ovšem algoritmy, které pro rozhodování využívá, mohou kodifikovat nesprávné lidské chápání. Nový nástroj je určen společnostem, které chtějí rozšířit své používání AI, ale obávají se rizika neúmyslných dopadů. Předpokládá se, že prvními uživateli budou ti, kteří se nacházejí v nejvíce regulovaných oborech - například finančních služeb a zdravotní péče, kde je potenciál nežádoucích dopadů AI velký.


 
  

- PR -

AI už není jen trend, ale potvrzuje svou reálnou sílu v byznysu

Generativní umělá inteligence už není jen experimentem technologických nadšenců, ale stává se významnou součástí fungování firem a organizací. Často se prezentuje marketingovým pozlátkem, ale pokud má fungovat ve složitém světě organizací, nestačí jen začít. Důležité je vybudovat celé zázemí, které jí dá reálnou hodnotu. To je hlavní poselství 22. ročníku technologické konference SOFTECON 2025, kterou pořádala společnost SOFTEC. Akce se zúčastnilo přes 300 odborníků z bank, pojišťoven, telekomunikací i veřejného sektoru.

  

- PR -

Od nadšení „devadesátek“ k úspěšnému podnikání v EMS

torola_microchip_01.jpgHistorie společnosti TOROLA electronic, spol. s r.o., se datuje od roku 1991, kdy se tři vysokoškolští kamarádi, kteří do té doby pracovali ve společnostech TESLA Třinec a TESLA Rožnov pod Radhoštěm, rozhodli založit vlastní firmu. A protože měli zálibu v elektronice a pracovali v elektrotechnickém průmyslu, směřovala i jejich vlastní budoucnost právě tímto směrem.