- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (79)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tisk![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Accenture se snaí, aby systémy umělé inteligence byly etické a společensky korektní
Společnost Accenture vytvořila nový nástroj AI Fairness pro podporu etického jednání při zavádění umělé inteligence a strojového učení. Nástroj pomůe identifikovat a napravit chování algoritmů umělé inteligence (AI Artifical Intelligence), které je v rozporu s aktuálními společenskými i právními standardy. Cílem je zachytit diskriminaci, které by se jinak mohla umělá inteligence dopustit a způsobit tak kodu.

Počítačové algoritmy se dostávají do role, kdy v prvním sítu rozhodují o řadě záleitostí dělají jakýsi předvýběr, který předkládají k dořeení lidským kolegům. A tak umělá inteligence můe rozhodovat o tom, zda určitý člověk dostane půjčku, nabídku zaměstnání, případně povolení k určité činnosti. Umělá inteligence přitom můe dojít k závěrům, které jsou povaovány za diskriminační. Společnost Accenture se proto rozhodla vytvořit nástroj, který vyhodnocuje, zda systémy AI rozhodují v souladu s aktuálními společenskými i právními standardy.
Nástroj AI Fairness například hledá skryté citlivé proměnné, které podle současných etických pravidel není mono vyuít při rozhodování. Přestoe by tak například algoritmus umělé inteligence nemusel explicitně zohledňovat pohlaví, pokud se podívá na příjem, mohl by snadno oddělit výsledky pro eny a mue. Nástroj AI Fairness je schopen tento algoritmus opravit, ale protoe tento typ korekce můe způsobit sníení jeho přesnosti, navrhne řeení a umoní uivateli rozhodnout, nakolik se má změnit.
V minulosti jsme nali modely, které jsou celkově velmi přesné, ale pokud se podíváte, jak se určitá chyba rozkládá nad podskupinami, uvidíte obrovský rozdíl mezi tím, jak správný je určitý model například pro bílého mue ve srovnání s černou enou. říká Rumman Chowdhury, lídr v oblasti umělé inteligence společnosti Accenture.
Vidíme rostoucí zaměření na algoritmické zkreslení a spravedlnost. Řada států vytváří etické rady AI, Google nedávno vydal své etické pokyny, konstatuje Rumman Chowdhury. Take si myslím, e lídři v oboru AI, stejně jako non-tech společnosti, hledají cestu. Hledají standardy a protokoly a něco, čím se mohou řídit, protoe chtějí vytvářet a vyuívat bezpečné produkty.
Umělá inteligence sama o sobě nemůe být spravedlivá nebo nespravedlivá, ovem algoritmy, které pro rozhodování vyuívá, mohou kodifikovat nesprávné lidské chápání. Nový nástroj je určen společnostem, které chtějí rozířit své pouívání AI, ale obávají se rizika neúmyslných dopadů. Předpokládá se, e prvními uivateli budou ti, kteří se nacházejí v nejvíce regulovaných oborech - například finančních slueb a zdravotní péče, kde je potenciál neádoucích dopadů AI velký.
Formulář pro přidání akce











