- Přehledy IS
- APS (25)
- BPM - procesní řízení (23)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (31)
- CRM (52)
- DMS/ECM - správa dokumentů (19)
- EAM (17)
- Ekonomické systémy (68)
- ERP (75)
- HRM (28)
- ITSM (6)
- MES (33)
- Řízení výroby (36)
- WMS (28)
- Dodavatelé IT služeb a řešení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (41)
- Dodavatelé CRM (38)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (66)
- Informační bezpečnost (48)
- IT řešení pro logistiku (48)
- IT řešení pro stavebnictví (26)
- Řešení pro veřejný a státní sektor (27)


















![]() | Přihlaste se k odběru zpravodaje SystemNEWS na LinkedIn, který každý týden přináší výběr článků z oblasti podnikové informatiky | |
![]() | ||
Budoucnost datových center
Kolem roku 2020 dojde k výrazné změně komunikace ve směru k datovým centrům. Ta jsou poslední desetiletí koncipována a stavěna především pro naplnění potřeb lidských uživatelů, tj. architekturou, kde rychlost změny parametrů prostředí odpovídá specifickým potřebám člověka. Zmíněné tradiční pojetí datových center ale nedokáže naplnit budoucí očekávání, a navíc je spolu s tím také dynamicky upravovat v čase.


Nový, obsahově jiný typ datové komunikace v reálném čase generovaný miliony snímačů, robotických a automatizovaných systémů povede k řádově vyššímu nárůstu přenosů dat a jejich následného zpracování v reálném čase, a tedy i k nasazování otevřených architektur reagujících na danou skutečnost. Takovéto architektury budou muset splňovat podmínku rychlé škálovatelnosti ve vertikální i horizontální rovině. Podmínka extrémně rychlého zpracování dat, přetvořená do konkrétní úlohy, je přitom základem řízení všech chytrých systémů.
DC as a Code
Otevřeností architektury se v tomto kontextu rozumí distribuovatelnost výpočetních zdrojů, úložišť i služeb napříč komoditními technologiemi různých výrobců a dnes poskytovateli Public Cloudových služeb prezentované coby Software Defined Things, případně kontejnerovými a síťovými / bezpečnostními službami. Abstrakce výpočetního výkonu a úložišť, komunikačních a bezpečnostních služeb formou hyperkonvergence a softwarově definovaných prostředků představuje možnou univerzální a snáze re konfigurovatelnou cestu naplnění budoucí výzvy distribuce a zpracování dat. To vše bez ohrožení důvěry ve spolehlivost, dostupnost a bezpečnost datového centra. Dnešní technologie, v kombinaci se správně zvolenou architekturou - tj. pohledem „se shora“ skrz služby propagované aplikacemi, jsou schopné tyto předpoklady úspěšně naplnit. Při jejich výběru je přitom do rozhodovacích podmínek vhodné zahrnout existenci podpory pro orchestraci a automatizaci, kooperaci s ostatními výrobci a poskytovateli služeb. Nedílnou částí věci „DC as a Code“ je pak práce s daty a spuštění úloh na nich závislých v reálném čase. Toto zpracování budou řešit tzv. „Machine learning“ systémy využívající pro své fungování automatickou obsluhu podkladové infrastruktury. Vyjma úprav své výkonnosti, také i mechanismy pro zajištění kontinuity provozu a vlastní ochrany.
Dnešní řešení firemních datových center využívajících model Disaster Recovery scénářů primárního plus sekundárního datového centra povede k přerodu na model logického datového centra rozkročeného mezi více automaticky volených zdrojů – vlastní datové centra, Public Cloud apod. Z pohledu prezentace služeb, řízení a komunikace to vždy bude jediné datové centrum, které samostatně reaguje na okamžité potřeby - tzn. DC prezentované a řízené zdrojovým kódem.
Proč tedy „DC as a Code“? Odpovědí může být hned několik – od rychlosti odbavování přicházejících požadavků přes náročnost obsluhy versus množství personálu až po bezpečnost. Rychlost a naplnění požadavků obchodu na tradičně řešenou a řízenou infrastrukturu dnes většinou neodpovídá jejich očekávání a je neefektivní. Podobně je to s bezpečností, kdy ochrana perimetrů, aplikačních sil i jednotlivých zón v rámci datových center je sice dnes standardní disciplína, nicméně většina z nich nevidí až k samotnému „zpracovateli“ dat. Distribuovaná bezpečnost, monitorující a chránící každou komponentu zpracovatele, je tak spíše výjimkou a mechanismy sledující chování a styl komunikace těchto komponent v reálném čase jsou v současnosti ve fázi testování. Nemluvě o její spolupráci s řídícími prvky, kterou na základě štítků „Security Tag“ automaticky a striktně vyžadují po celou dobu života aplikace, a právě pouze během této doby.
Další etapou zvýšení spolehlivosti a důvěryhodnosti budoucích datových center spatřuji v nasazení algoritmů pro hledání anomálií chování. Ty budou základním prvkem ochrany proti zlomyslným útokům z vně i uvnitř perimetru, stejně jako budou předcházet výpadkům služeb a kontinuálně sledovat anomálie v rámci provozních dat.
On the Edge of DC
Cloud Computing a jeho koncept jednoduchého přístupu ke službám pomocí Internetu mimo jiné přinesl jednu zásadní změnu v chování uživatelů. Ti chtějí dnes komfortně pracovat se svými daty odkudkoliv a navíc v reálném čase, kdy z jejich pohledu ani z perspektivy společnosti nezáleží na obsahu, struktuře a důležitosti dat, to je pro každého individuální.
Komfortní práce odkudkoliv, a tedy i z jakéhokoliv typu a vlastnictví zařízení (pracovní nebo soukromé), navíc v reálném čase znamená posun v uživatelském chování. Tímto posunem je výrazný nárůst využívání bezdrátových (Wi-Fi) a mobilních sítí bez ochoty „přepínání se“ a ztráty komfortního přístup ke všem aplikacím a datům.
Tradiční řešení vzdálených přístupů do firemních sítí (tj. Remote Access a VPN) a aplikacím schovanými za tímto přístupem bývají zpravidla nekomfortní. Uživatel chce dodržení svého komfortu a tedy změnu – obvykle i za cenu vědomého porušení bezpečnostních pravidel a standardů společnosti z jeho strany. Navíc, když firmy tento přímý přístup k některým aplikacím skrz veřejný internet již umožňují. Typickým příkladem jsou třeba služby Microsoft Office 365, Salesforce či G Suite od společnosti Google.
Firemní IT, pokud chce předejít snaze o obcházení bezpečnostních pravidel a stát se partnerem, nikoliv nepřítelem, pak musí podobně publikovat i další aplikace, tedy bez mezi kroku v podobě VPN. Co tedy znamená život na hraně datového centra?
Firemní aplikace jsou například publikovány pomocí HTML5 přímo do veřejné sítě prostřednictvím virtualizačních technologií Citrix XenDesktop/XenApp, potažmo Vmware Horizon a Application Delivery Controller nad HTTS, který nedělá rozdíl v přístupu z firemní Wi-Fi, případně veřejného Internetu na koncové zařízení, jež neomezují automatické přepínání mezi mobilní sítí a Wi-Fi. Přičemž data zůstávají v rámci datového centra a uživatel pracuje pouze „terminálově“, případně s offline režimem toho samého. Podobně jako u datových center je i zde značnou výzvou, ale nikoliv překážkou, zajištění jednoznačné identifikace a ověření uživatele, jeho oprávnění a také ochrany používaných aplikací a dat. Co proto tedy udělat?
Důležité je analyzovat své možnosti a prostředí, zjistit preference uživatelů a klasifikovat data včetně nutnosti přístupu k nim. Tyto podklady je pak nutné zahrnout do budoucího návrhu architektury a procesů, přičemž každý by měl pamatovat na to, že bezpečnost není super technologie umístěná na perimetr, případně do vybraných zón, ale že datové centrum představuje živý organismus a musí se na něj nahlížet jako na celek.
Místo závěru
Otázka směrování vývoje a budoucnosti podnikových datových center v rámci tohoto článku nebyla záměrně postavena ve světle stoprocentního využití cloudových služeb oproti vlastnímu či hybridnímu řešení. To je různé pro každou společnost a organizaci. Článek jde spíše směrem změny konceptu a přístupu k datovým centrům jako takovým, protože i podnikové může být prohlášeno za „cloud“, pokud dokáže naplnit danou definici a své služby nabízet na vyžádání, zároveň efektivně a v odpovídající kvalitě. Nejdůležitější přitom je naplnění potřeb uživatelů, a tak model kdy pro vlastní vývoj používám zdroje veřejného cloudu a produkční prostředí přesouvám logicky tam, kde je to vhodnější.
Tři základní výzvy a body pro naplnění požadavků budoucích DC jsou ale společné pro jakékoliv prostředí. Tím prvním je flexibilita a škálovatelnost provozovaného prostředí. Přijetí myšlenky logického datového centra, jehož zdroje jsou čerpány dle parametrů a vhodnosti pomocí automatizačních nástrojů přímo aplikacemi, dává možnost volby. Nástroje typu OpenStack, Vmware vRealize aj. mohou mít pro poskytování systémových prostředků více zdrojů. Změnou servisního profilu aplikace, typicky Dev-Test-Prod, dochází i k migraci na jiné fyzické zdroje, jak lokální, tak i cloudové.
Druhou výzvou je zajištění kontinuity provozu, kam patří procesní a informační bezpečnost. Odsuneme-li procesní stránku věci Enterprise architektury, pak decentralizace a distribuovaný model jejího řešení v kombinaci s algoritmy řízení pomohou naplnit problematiku ochrany proti zlomyslným útokům, pokusům o krádeže dat a celkového omezení provozu.
V tomto odstavci sice poslední, ale v běžném životě je pak na prvním místě komfort práce uživatelů. Nenaplněním očekávané úrovně dochází ke vzniku šedého IT, využívání služeb třetích / neschválených stran a porušování bezpečnostních pravidel. Přitom servisně orientované datové centrum, vybavené distribuovaným modelem bezpečnosti, dokáže při zajištění exekutivy nastavených bezpečnostních a provozních parametrů a pravidel kýžený komfort nabídnout.
Vhodně navržený koncept architektury s několikaletým výhledem pomáhá předcházet rozčarování. Obchod a vedení dává směr vývoje a IT poskytuje odpovědi na očekávání a kvantifikuje parametry služeb.
![]() |
Pavel Vomáčka Autor článku je Senior Business Consultant společnosti Anect. |


![]() ![]() | ||||||
Po | Út | St | Čt | Pá | So | Ne |
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 1 | 2 | 3 | 4 |
5 | 6 | 7 | 8 | 9 | 10 | 11 |
Formulář pro přidání akce
15.5. | Konference SCADA Security |
22.5. | Akce pro automobilové dodavatele "3DEXPERIENCE... |
12.6. | Konference ABIA CZ 2025: setkání zákazníků a partnerů... |
29.9. | The Massive IoT Conference |