facebook LinkedIN LinkedIN - follow
IT SYSTEMS 12/2017 , ITSM (ITIL) - Řízení IT

Budoucnost datových center

Pavel Vomáčka


AnectKolem roku 2020 dojde k výrazné změně komunikace ve směru k datovým centrům. Ta jsou poslední desetiletí koncipována a stavěna především pro naplnění potřeb lidských uživatelů, tj. architekturou, kde rychlost změny parametrů prostředí odpovídá specifickým potřebám člověka. Zmíněné tradiční pojetí datových center ale nedokáže naplnit budoucí očekávání, a navíc je spolu s tím také dynamicky upravovat v čase.


Nový, obsahově jiný typ datové komunikace v reálném čase generovaný miliony snímačů, robotických a automatizovaných systémů povede k řádově vyššímu nárůstu přenosů dat a jejich následného zpracování v reálném čase, a tedy i k nasazování otevřených architektur reagujících na danou skutečnost. Takovéto architektury budou muset splňovat podmínku rychlé škálovatelnosti ve vertikální i horizontální rovině. Podmínka extrémně rychlého zpracování dat, přetvořená do konkrétní úlohy, je přitom základem řízení všech chytrých systémů.

DC as a Code

Otevřeností architektury se v tomto kontextu rozumí distribuovatelnost výpočetních zdrojů, úložišť i služeb napříč komoditními technologiemi různých výrobců a dnes poskytovateli Public Cloudových služeb prezentované coby Software Defined Things, případně kontejnerovými a síťovými / bezpečnostními službami. Abstrakce výpočetního výkonu a úložišť, komunikačních a bezpečnostních služeb formou hyperkonvergence a softwarově definovaných prostředků představuje možnou univerzální a snáze re konfigurovatelnou cestu naplnění budoucí výzvy distribuce a zpracování dat. To vše bez ohrožení důvěry ve spolehlivost, dostupnost a bezpečnost datového centra. Dnešní technologie, v kombinaci se správně zvolenou architekturou - tj. pohledem „se shora“ skrz služby propagované aplikacemi, jsou schopné tyto předpoklady úspěšně naplnit. Při jejich výběru je přitom do rozhodovacích podmínek vhodné zahrnout existenci podpory pro orchestraci a automatizaci, kooperaci s ostatními výrobci a poskytovateli služeb. Nedílnou částí věci „DC as a Code“ je pak práce s daty a spuštění úloh na nich závislých v reálném čase. Toto zpracování budou řešit tzv. „Machine learning“ systémy využívající pro své fungování automatickou obsluhu podkladové infrastruktury. Vyjma úprav své výkonnosti, také i mechanismy pro zajištění kontinuity provozu a vlastní ochrany.

Dnešní řešení firemních datových center využívajících model Disaster Recovery scénářů primárního plus sekundárního datového centra povede k přerodu na model logického datového centra rozkročeného mezi více automaticky volených zdrojů – vlastní datové centra, Public Cloud apod. Z pohledu prezentace služeb, řízení a komunikace to vždy bude jediné datové centrum, které samostatně reaguje na okamžité potřeby - tzn. DC prezentované a řízené zdrojovým kódem.

Proč tedy „DC as a Code“? Odpovědí může být hned několik – od rychlosti odbavování přicházejících požadavků přes náročnost obsluhy versus množství personálu až po bezpečnost. Rychlost a naplnění požadavků obchodu na tradičně řešenou a řízenou infrastrukturu dnes většinou neodpovídá jejich očekávání a je neefektivní. Podobně je to s bezpečností, kdy ochrana perimetrů, aplikačních sil i jednotlivých zón v rámci datových center je sice dnes standardní disciplína, nicméně většina z nich nevidí až k samotnému „zpracovateli“ dat. Distribuovaná bezpečnost, monitorující a chránící každou komponentu zpracovatele, je tak spíše výjimkou a mechanismy sledující chování a styl komunikace těchto komponent v reálném čase jsou v současnosti ve fázi testování. Nemluvě o její spolupráci s řídícími prvky, kterou na základě štítků „Security Tag“ automaticky a striktně vyžadují po celou dobu života aplikace, a právě pouze během této doby.

Další etapou zvýšení spolehlivosti a důvěryhodnosti budoucích datových center spatřuji v nasazení algoritmů pro hledání anomálií chování. Ty budou základním prvkem ochrany proti zlomyslným útokům z vně i uvnitř perimetru, stejně jako budou předcházet výpadkům služeb a kontinuálně sledovat anomálie v rámci provozních dat.

On the Edge of DC

Cloud Computing a jeho koncept jednoduchého přístupu ke službám pomocí Internetu mimo jiné přinesl jednu zásadní změnu v chování uživatelů. Ti chtějí dnes komfortně pracovat se svými daty odkudkoliv a navíc v reálném čase, kdy z jejich pohledu ani z perspektivy společnosti nezáleží na obsahu, struktuře a důležitosti dat, to je pro každého individuální.

Komfortní práce odkudkoliv, a tedy i z jakéhokoliv typu a vlastnictví zařízení (pracovní nebo soukromé), navíc v reálném čase znamená posun v uživatelském chování. Tímto posunem je výrazný nárůst využívání bezdrátových (Wi-Fi) a mobilních sítí bez ochoty „přepínání se“ a ztráty komfortního přístup ke všem aplikacím a datům.

Tradiční řešení vzdálených přístupů do firemních sítí (tj. Remote Access a VPN) a aplikacím schovanými za tímto přístupem bývají zpravidla nekomfortní. Uživatel chce dodržení svého komfortu a tedy změnu – obvykle i za cenu vědomého porušení bezpečnostních pravidel a standardů společnosti z jeho strany. Navíc, když firmy tento přímý přístup k některým aplikacím skrz veřejný internet již umožňují. Typickým příkladem jsou třeba služby Microsoft Office 365, Salesforce či G Suite od společnosti Google.

Firemní IT, pokud chce předejít snaze o obcházení bezpečnostních pravidel a stát se partnerem, nikoliv nepřítelem, pak musí podobně publikovat i další aplikace, tedy bez mezi kroku v podobě VPN. Co tedy znamená život na hraně datového centra?

Firemní aplikace jsou například publikovány pomocí HTML5 přímo do veřejné sítě prostřednictvím virtualizačních technologií Citrix XenDesktop/XenApp, potažmo Vmware Horizon a Application Delivery Controller nad HTTS, který nedělá rozdíl v přístupu z firemní Wi-Fi, případně veřejného Internetu na koncové zařízení, jež neomezují automatické přepínání mezi mobilní sítí a Wi-Fi. Přičemž data zůstávají v rámci datového centra a uživatel pracuje pouze „terminálově“, případně s offline režimem toho samého. Podobně jako u datových center je i zde značnou výzvou, ale nikoliv překážkou, zajištění jednoznačné identifikace a ověření uživatele, jeho oprávnění a také ochrany používaných aplikací a dat. Co proto tedy udělat?

Důležité je analyzovat své možnosti a prostředí, zjistit preference uživatelů a klasifikovat data včetně nutnosti přístupu k nim. Tyto podklady je pak nutné zahrnout do budoucího návrhu architektury a procesů, přičemž každý by měl pamatovat na to, že bezpečnost není super technologie umístěná na perimetr, případně do vybraných zón, ale že datové centrum představuje živý organismus a musí se na něj nahlížet jako na celek.

Místo závěru

Otázka směrování vývoje a budoucnosti podnikových datových center v rámci tohoto článku nebyla záměrně postavena ve světle stoprocentního využití cloudových služeb oproti vlastnímu či hybridnímu řešení. To je různé pro každou společnost a organizaci. Článek jde spíše směrem změny konceptu a přístupu k datovým centrům jako takovým, protože i podnikové může být prohlášeno za „cloud“, pokud dokáže naplnit danou definici a své služby nabízet na vyžádání, zároveň efektivně a v odpovídající kvalitě. Nejdůležitější přitom je naplnění potřeb uživatelů, a tak model kdy pro vlastní vývoj používám zdroje veřejného cloudu a produkční prostředí přesouvám logicky tam, kde je to vhodnější.

Tři základní výzvy a body pro naplnění požadavků budoucích DC jsou ale společné pro jakékoliv prostředí. Tím prvním je flexibilita a škálovatelnost provozovaného prostředí. Přijetí myšlenky logického datového centra, jehož zdroje jsou čerpány dle parametrů a vhodnosti pomocí automatizačních nástrojů přímo aplikacemi, dává možnost volby. Nástroje typu OpenStack, Vmware vRealize aj. mohou mít pro poskytování systémových prostředků více zdrojů. Změnou servisního profilu aplikace, typicky Dev-Test-Prod, dochází i k migraci na jiné fyzické zdroje, jak lokální, tak i cloudové.

Druhou výzvou je zajištění kontinuity provozu, kam patří procesní a informační bezpečnost. Odsuneme-li procesní stránku věci Enterprise architektury, pak decentralizace a distribuovaný model jejího řešení v kombinaci s algoritmy řízení pomohou naplnit problematiku ochrany proti zlomyslným útokům, pokusům o krádeže dat a celkového omezení provozu.

V tomto odstavci sice poslední, ale v běžném životě je pak na prvním místě komfort práce uživatelů. Nenaplněním očekávané úrovně dochází ke vzniku šedého IT, využívání služeb třetích / neschválených stran a porušování bezpečnostních pravidel. Přitom servisně orientované datové centrum, vybavené distribuovaným modelem bezpečnosti, dokáže při zajištění exekutivy nastavených bezpečnostních a provozních parametrů a pravidel kýžený komfort nabídnout.

Vhodně navržený koncept architektury s několikaletým výhledem pomáhá předcházet rozčarování. Obchod a vedení dává směr vývoje a IT poskytuje odpovědi na očekávání a kvantifikuje parametry služeb.

Pavel Vomáčka Pavel Vomáčka
Autor článku je Senior Business Consultant společnosti Anect.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.

Inzerce

Modernizace IS je příležitost přehodnotit způsob práce

IT Systems 4/2025V aktuálním vydání IT Systems bych chtěl upozornit především na přílohu věnovanou kybernetické bezpečnosti. Jde o problematiku, které se věnujeme prakticky v každém vydání. Neustále se totiž vyvíjí a rozšiřuje. Tematická příloha Cyber Security je příležitostí podívat se podrobněji, jakým kybernetickým hrozbám dnes musíme čelit a jak se před nimi můžeme chránit. Kromě kybernetické bezpečnosti jsme se zaměřili také na digitalizaci průmyslu.