- Přehledy IS
- APS (20)
- BPM - procesní řízení (22)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (33)
- CRM (51)
- DMS/ECM - správa dokumentů (20)
- EAM (17)
- Ekonomické systémy (68)
- ERP (79)
- HRM (27)
- ITSM (6)
- MES (32)
- Řízení výroby (36)
- WMS (29)
- Dodavatelé IT slueb a řeení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (39)
- Dodavatelé CRM (33)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (71)
- Informační bezpečnost (50)
- IT řeení pro logistiku (45)
- IT řeení pro stavebnictví (26)
- Řeení pro veřejný a státní sektor (27)
ERP systémy
CRM systémy
Plánování a řízení výroby
AI a Business Intelligence
DMS/ECM - Správa dokumentů
HRM/HCM - Řízení lidských zdrojů
EAM/CMMS - Správa majetku a údrby
Účetní a ekonomické systémy
ITSM (ITIL) - Řízení IT
Cloud a virtualizace IT
IT Security
Logistika, řízení skladů, WMS
IT právo
GIS - geografické informační systémy
Projektové řízení
Trendy ICT
E-commerce B2B/B2C
CAD/CAM/CAE/PLM/3D tisk![]() | |
| Přihlaste se k odběru newsletteru SystemNEWS, který kadý týden přináí výběr článků z oblasti podnikové informatiky | |
![]() | |
Velká data a velké výzvy pro OpenShift
Umělá inteligence, strojové učení, velká data a jejich analýza - to jsou dnes velmi často skloňované termíny, které zahrnují rychle se vyvíjející oblasti a technologie, po kterých je v IT vysoká poptávka. Výzev, které tyto oblasti přináí a musí překonávat, je nespočet a spadají do mnoha kategorií, od těch vyloeně abstraktních matematických a po návrh specializovaného hardwaru umoňujícího výpočty urychlit.
Velká data přináejí pro vývojáře ve vech oblastech zásadní výzvy. Jak nasadit specializovaný hardware do produkce? Jak zajistit kompatibilitu vech potřebných knihoven a komponent? Jak poskytnout přístup k potřebné infrastruktuře vem zainteresovaným osobám? Podobné výzvy je třeba řeit nejen v oblasti velkých dat a umělé inteligence, ale objevují se obecně v kontextu vývoje moderních cloudových aplikací. V cloudu, jak se zdá, vítězí Kubernetes, potamo jejich podniková varianta OpenShift. Stojí tedy za to zváit, do jaké míry je tato platforma aplikovatelná v prostředí velkých dat a umělé inteligence, případně jaké nové vlastnosti jsou do ní třeba implementovat.
Pokud dnes začínáme vyvíjet aplikaci, která má kálovat, být nasazena napříč geografickými zónami a která se umí vypořádat se zásadními výpadky, pravděpodobně budeme hledat existující kontejnerovou platformu, která nám vývoj a provoz aplikace co nejvíce usnadní. Pro mnoho firem a vývojářů je takovou platformou Kubernetes a OpenShift. V případě umělé inteligence a strojového učení je nástup jednotné platformy pro nasazení poněkud opoděný. Mnoho z těch, kteří se věnují umělé inteligenci, nejsou vývojáři sledující nejnovějí trendy. Jsou to vědci, kteří jsou pičky ve svém oboru, umí Python, Javu, nebo jiný programovací jazyk, případně znají trochu git. Nevědí ovem, jak navrhnout CI/CD procesy, jak automatizovat nasazení a jak monitorovat aplikaci v produkčním prostředí, upozorňuje Václav Pavlín, Principal Software Engineer ve společnosti Red Hat.
Také zprovoznit specializovaný hardware je větinou náročný úkol. A reprodukovat tuto konfiguraci v produkci je pak jetě komplikovanějí procedura. Praxe ukazuje, e integrace a testování vech úrovní infrastruktury jsou klíčové. Proto je důleité se na to při výběru dodavatele platformy Kubernetes zaměřit - platformy jako Kubernetes nám mají práci ulehčovat, ne komplikovat. Integrátor hardwaru a softwaru by pak pro takovou platformu měl také poskytnout co nejvyí stupeň automatizace a kálovatelnosti.
Klíčovým prvkem v datové vědě obecně je sdílení a spolupráce. Nemluvíme jen o sdílení výsledků výzkumu, ale také o sdílení infrastruktury a výpočetních zdrojů. To platí v oblasti umělé inteligence dvojnásob, protoe se často vyuívá nákladný specializovaný hardware. OpenShift jako platforma toto sdílení a spolupráci usnadňuje. Operační systém, virtualizace, síování, na kterých OpenShift běí, musí spolupracovat, aby ono sdílení zdrojů umonily, říká Václav Pavlín.
Principy vzájemného fungování vech vrstev infrastruktury a zásadní přínosy společnosti Red Hat do oblasti umělé inteligence a velkých dat představí Václav Pavlín i na letoním českém Red Hat Fóru. V rámci své přednáky ukáe, jak lze snáze a více sdílet výpočetní zdroje a spolupracovat a ve spojitosti s tím sniovat náklady a zrychlit proces přechodu od nápadu k produkčnímu nasazení. Zúčastněte se Red Hat Fóra EMEA 2020 v netradičním online formátu, pohodlně z domova a česky a najděte tu správnou cestu pro vae IT. Konference se koná 3. listopadu a registrace je zdarma.
V rámci vystoupení Václava Pavlína na Red Hat Fóru se dozvíte více i o projektu Open Data Hub (opendatahub.io), který se snaí výhody platformy OpenShift vyuít a ukázat. Tento meta-operator v sobě integruje populární technologie z oblasti umělé inteligence a zpracování dat a nabízí je uivatelům pomocí jednoduché instalace skrze OpenShift Operator Hub. Open source nástroje jako Jupyter, Tensorflow, Spark, ale i různé komponenty z projektu Kubeflow tak mají uivatelé k dispozici na několik kliknutí.
Formulář pro přidání akce









