- Přehledy IS
- APS (25)
- BPM - procesní řízení (23)
- Cloud computing (IaaS) (10)
- Cloud computing (SaaS) (31)
- CRM (52)
- DMS/ECM - správa dokumentů (19)
- EAM (17)
- Ekonomické systémy (68)
- ERP (75)
- HRM (28)
- ITSM (6)
- MES (33)
- Řízení výroby (36)
- WMS (28)
- Dodavatelé IT služeb a řešení
- Datová centra (25)
- Dodavatelé CAD/CAM/PLM/BIM... (41)
- Dodavatelé CRM (38)
- Dodavatelé DW-BI (50)
- Dodavatelé ERP (66)
- Informační bezpečnost (48)
- IT řešení pro logistiku (48)
- IT řešení pro stavebnictví (26)
- Řešení pro veřejný a státní sektor (27)
Tematické sekce


















Branžové sekce
![]() | Přihlaste se k odběru zpravodaje SystemNEWS na LinkedIn, který každý týden přináší výběr článků z oblasti podnikové informatiky | |
![]() | ||
Partneři webu
IT SYSTEMS 3/2009 , ITSM (ITIL) - Řízení IT
O efektivitě datových center, potažmo jejich provozních nákladech, se vedou časté diskuse, vznikají dlouhé studie a provozovatelé stále počítají, zda a kdy se co vlastně vyplatí. Podívejme se nyní na toto téma z trochu jiného pohledu – jak efektivitu zvyšovat v rámci přirozeného, průběžného navyšování výkonu datacentra.
V podstatě u každého datového centra je potřeba v určitých intervalech zvyšovat kapacitu a výkon. Současným trendem růstu datacenter je kombinace růstu intenzivního a extenzivního, neboli „zahušťování“ výkonu na stávající ploše a zároveň její rozšiřování. Konsolidací systémů lze dosáhnout nejen zjednodušení jejich správy a údržby, ale rovněž zvýšení efektivity využití energie – a to jak na úrovni počítačů, tak i podpůrné infrastruktury, především pak systému chlazení. Skutečnost, že systém chlazení datacenter má často o polovinu vyšší spotřebu energie než vlastní IT technika, zaměřuje pozornost zpravidla tímto směrem.
Obr. 1: Spotřeba výrobníků chladu 568 kW s běžným a pokročilým volným chlazením (zdroj: Uniflair)
Jakmile přesáhne tepelná zátěž uvedenou hranici, je potřeba tok chladného vzduchu řídit ještě přesněji. Efektivita dalšího řešení závisí na konkrétní konfiguraci – pokud do serverovny umisťujete jeden či dva stojany s vysokou hustotou, bude výhodnější osadit zdvojenou podlahu aktivním prvkem, který bude řídit distribuci vzduchu přímo u těchto stojanů. Případně lze tyto racky umístit do uzavřeného stojanu s vlastním chlazením. Pokud bude racků s vyšší hustotou nyní nebo v krátkodobém výhledu více, bude výhodnější je seskupit na jedno místo a použít uzavření „studené“ uličky. Uzavření zabrání úniku a mixování chladného vzduchu a vhodná jednotka přesné klimatizace s inteligentním řízením tlaku v podlaze zajistí dostatek chladného vzduchu pro běžnou techniku i pro servery s vysokou hustotou v nejvyšších pozicích racků.
Zpravidla se jedná o speciálně vybavený a zabezpečený kontejner standardních rozměrů (20’), který skrývá infrastrukturu potřebnou pro provoz serverů i veškerých podpůrných služeb – obsahuje chlazení, napájení, variabilní stojany, zhášecí, monitorovací a zabezpečovací systémy. Kromě ohně, kouře a vlhkosti ochrání svůj obsah i před narušiteli a nenechavci.
Vedle zřejmých předností mobility a zabezpečení je uzavřený systém výrazně energeticky efektivnější, díky systému kolejí a posuvů maximálně modulární a lze jej uvést do provozu za zlomek času a výdajů potřebných u srovnatelně velkého klasického „pokojového datacentra“.
Obr. 2: Přísun chladného vzduchu k rackům je potřeba od příkonu 5 kW/rack začít přesněji řídit
Pokud tepelná zátěž na jeden rack přesáhne 15 kW, bude potřeba zkombinovat obě výše uvedené technologie – uzavření uličky a aktivní podlahový modul – nebo opět využít speciální uzavřený stojan s přímým chlazením. Tímto způsobem se dají efektivně chladit systémy s příkonem až 30 kW/rack.
Efektivita řešení se snadno pozná podle poměru celkového chladicího výkonu jednotek potřebného k uchlazení konkrétní tepelné zátěže, respekitve k příkonu datacentra (metriky viz například www.TheGreenGrid.org nebo česky www.CompleteCZ.cz/GreenIT.html). To vše je užitečné sledovat nejen u nových, ale i během konsolidace stávajících datacenter.
Obr. 3: Jednotky přesné klimatizace zajišťují tlakování zdvojené podlahy studeným vzduchem
Přibližme si nyní princip volného chlazení. Pokud máte doma chladničku nastavenou na 6 °C, tak je jasné, že jakmile venkovní teplota poklesne pod tuto hranici, je činnost kompresoru vlastně zbytečná – stačilo by ke zchlazení využít venkovního vzduchu (přímé volné chlazení), případně venkovním vzduchem ochladit cirkulační médium, které by pak zchladilo prostor uvnitř ledničky (nepřímé volné chlazení). Poměr nákladů, úspory a komfortu nás u ledničky k takovému řešení nejspíš nepřiměje, ale už u trochu větší serverovny rozhodně stojí za úvahu – navíc je zde ona magická teplotní hranice kolem +10 °C, v některých případech až +15 °C (dle typu zařízení a konfigurace).
Dle systému a aktuálního počasí lze provozní náklady při celoročním chlazení snížit až o čtyřicet procent. Záleží však samozřejmě na použitých technologiích. Na trhu jsou zdroje chladu vybavené volným chlazením, které se zapíná čistě v situaci, kdy toto zařízení z atmosférického chladu pokryje celý nárok systému na zchlazení média. K dispozici jsou však rovněž řešení, kde se nízká venkovní teplota využije i v případě, že nepokrývá celou tepelnou zátěž – k částečnému zchlazení vody v systému, a tím i zkrácení provozu kompresorů. Dalším zdrojem úspor je schopnost paralelního propojení výměníků, tzv. inteligentní free-cooling. Každé datacentrum musí mít z důvodu zálohování dva či více výrobníků chladu (konfigurace n+1) a když se v režimu volného chlazení využijí výměníky vzduch/voda záložních jednotek, může být spotřeba o další čtyři až šest procent nižší, než když tato možnost chybí.
Obr. 4: Datacentrum AST umožňuje flexibilní konfiguraci racků a podpůrných technologií
Úplně nejvyšší efektivitu využití energie a zároveň i cestu k dalšímu růstu v situaci, kdy je celkový příkon budovy pevně omezen, představuje kombinace suchých chladičů se zařízeními vybavenými turbokompresorem typu Turbocor. Tento kompresor má řádově nižší příkon při startu než klasické kompresory, což snižuje nároky na napájení i zálohování celého datacentra, a zároveň dosahuje zatím nejvyšší efektivity provozu zejména při částečné zátěži – právě když je větší část chladu získávána přímo z atmosférického vzduchu. V kombinaci se suchými chladiči, které lze při nízkých teplotách využít jako účinný zdroj volného chlazení, je tato varianta zajímavá i z hlediska investičních nákladů. A právě o náklady jde přece všem provozovatelům především.
Autor působí ve společnosti Complete CZ.
Jak při rozšiřování datacentra zvýšit i jeho efektivitu
Marek Dědič



V podstatě u každého datového centra je potřeba v určitých intervalech zvyšovat kapacitu a výkon. Současným trendem růstu datacenter je kombinace růstu intenzivního a extenzivního, neboli „zahušťování“ výkonu na stávající ploše a zároveň její rozšiřování. Konsolidací systémů lze dosáhnout nejen zjednodušení jejich správy a údržby, ale rovněž zvýšení efektivity využití energie – a to jak na úrovni počítačů, tak i podpůrné infrastruktury, především pak systému chlazení. Skutečnost, že systém chlazení datacenter má často o polovinu vyšší spotřebu energie než vlastní IT technika, zaměřuje pozornost zpravidla tímto směrem.

Obr. 1: Spotřeba výrobníků chladu 568 kW s běžným a pokročilým volným chlazením (zdroj: Uniflair)
Optimalizace chlazení v sále
Uvažujme nyní o datovém či komunikačním centru vybaveném klasickým systémem chlazení prostřednictvím zdvojené podlahy. Prvními kroky, které máte možná již za sebou, bývá uspořádání stojanů a techniky do celistvých řad se „studenými“ a „teplými“ uličkami (kde jsou čelní „nasávací“ strany k sobě a zadní „výfukové“ strany k sobě), dále zaslepení prázdných pozic v racku a zkrocení kabeláže. Efektivitu chlazení totiž nejvíce snižují tepelné zkraty, kdy se příchozí chladný vzduch mísí s teplým. Kdo si pohraje s rovnoměrným rozložením zátěže a nastavením obvodových jednotek přesné klimatizace, efektivně takto uchladí ICT vybavení minimálně do příkonu, respektive ztrátového tepla 5 kW/rack.Jakmile přesáhne tepelná zátěž uvedenou hranici, je potřeba tok chladného vzduchu řídit ještě přesněji. Efektivita dalšího řešení závisí na konkrétní konfiguraci – pokud do serverovny umisťujete jeden či dva stojany s vysokou hustotou, bude výhodnější osadit zdvojenou podlahu aktivním prvkem, který bude řídit distribuci vzduchu přímo u těchto stojanů. Případně lze tyto racky umístit do uzavřeného stojanu s vlastním chlazením. Pokud bude racků s vyšší hustotou nyní nebo v krátkodobém výhledu více, bude výhodnější je seskupit na jedno místo a použít uzavření „studené“ uličky. Uzavření zabrání úniku a mixování chladného vzduchu a vhodná jednotka přesné klimatizace s inteligentním řízením tlaku v podlaze zajistí dostatek chladného vzduchu pro běžnou techniku i pro servery s vysokou hustotou v nejvyšších pozicích racků.
Mobilní, efektivní a bezpečné datacentrum
Když se požadavek na vyšší efektivitu spojí se zájmem o vyšší zabezpečení, případně omezenými či nevyhovujícími prostorami, vyhlídkou na stěhování závodu nebo provozem v hrubších podmínkách, pak je velmi zajímavou variantou „kontejnerové datacentrum“.Zpravidla se jedná o speciálně vybavený a zabezpečený kontejner standardních rozměrů (20’), který skrývá infrastrukturu potřebnou pro provoz serverů i veškerých podpůrných služeb – obsahuje chlazení, napájení, variabilní stojany, zhášecí, monitorovací a zabezpečovací systémy. Kromě ohně, kouře a vlhkosti ochrání svůj obsah i před narušiteli a nenechavci.
Vedle zřejmých předností mobility a zabezpečení je uzavřený systém výrazně energeticky efektivnější, díky systému kolejí a posuvů maximálně modulární a lze jej uvést do provozu za zlomek času a výdajů potřebných u srovnatelně velkého klasického „pokojového datacentra“.

Obr. 2: Přísun chladného vzduchu k rackům je potřeba od příkonu 5 kW/rack začít přesněji řídit
Pokud tepelná zátěž na jeden rack přesáhne 15 kW, bude potřeba zkombinovat obě výše uvedené technologie – uzavření uličky a aktivní podlahový modul – nebo opět využít speciální uzavřený stojan s přímým chlazením. Tímto způsobem se dají efektivně chladit systémy s příkonem až 30 kW/rack.
Efektivita řešení se snadno pozná podle poměru celkového chladicího výkonu jednotek potřebného k uchlazení konkrétní tepelné zátěže, respekitve k příkonu datacentra (metriky viz například www.TheGreenGrid.org nebo česky www.CompleteCZ.cz/GreenIT.html). To vše je užitečné sledovat nejen u nových, ale i během konsolidace stávajících datacenter.
Optimalizace zdroje chladu na střeše
Přesná klimatizace v sále však potřebuje zdroje chladu neboli výrobníky chlazené vody, anglicky chillery. Mimochodem v řetězci chlazení to jsou právě ta energeticky nejnáročnější zařízení (zhruba 35 až 40 procent spotřeby celeho datacentra). Jedná se o ona poměrně objemná zařízení na střeše, která pomocí venkovního vzduchu zchlazují médium, většinou nemrznoucí směs. Kromě vlastní efektivity těchto systémů se díky teplotnímu profilu naší republiky otevírají velmi zajímavé možnosti úspor energií za pomoci technologie volného chlazení, anglicky free-coolingu. Jestliže tedy budete dokupovat nový chiller nebo měnit dosluhující, čtěte pozorně.
Obr. 3: Jednotky přesné klimatizace zajišťují tlakování zdvojené podlahy studeným vzduchem
Přibližme si nyní princip volného chlazení. Pokud máte doma chladničku nastavenou na 6 °C, tak je jasné, že jakmile venkovní teplota poklesne pod tuto hranici, je činnost kompresoru vlastně zbytečná – stačilo by ke zchlazení využít venkovního vzduchu (přímé volné chlazení), případně venkovním vzduchem ochladit cirkulační médium, které by pak zchladilo prostor uvnitř ledničky (nepřímé volné chlazení). Poměr nákladů, úspory a komfortu nás u ledničky k takovému řešení nejspíš nepřiměje, ale už u trochu větší serverovny rozhodně stojí za úvahu – navíc je zde ona magická teplotní hranice kolem +10 °C, v některých případech až +15 °C (dle typu zařízení a konfigurace).
Dle systému a aktuálního počasí lze provozní náklady při celoročním chlazení snížit až o čtyřicet procent. Záleží však samozřejmě na použitých technologiích. Na trhu jsou zdroje chladu vybavené volným chlazením, které se zapíná čistě v situaci, kdy toto zařízení z atmosférického chladu pokryje celý nárok systému na zchlazení média. K dispozici jsou však rovněž řešení, kde se nízká venkovní teplota využije i v případě, že nepokrývá celou tepelnou zátěž – k částečnému zchlazení vody v systému, a tím i zkrácení provozu kompresorů. Dalším zdrojem úspor je schopnost paralelního propojení výměníků, tzv. inteligentní free-cooling. Každé datacentrum musí mít z důvodu zálohování dva či více výrobníků chladu (konfigurace n+1) a když se v režimu volného chlazení využijí výměníky vzduch/voda záložních jednotek, může být spotřeba o další čtyři až šest procent nižší, než když tato možnost chybí.

Obr. 4: Datacentrum AST umožňuje flexibilní konfiguraci racků a podpůrných technologií
Úplně nejvyšší efektivitu využití energie a zároveň i cestu k dalšímu růstu v situaci, kdy je celkový příkon budovy pevně omezen, představuje kombinace suchých chladičů se zařízeními vybavenými turbokompresorem typu Turbocor. Tento kompresor má řádově nižší příkon při startu než klasické kompresory, což snižuje nároky na napájení i zálohování celého datacentra, a zároveň dosahuje zatím nejvyšší efektivity provozu zejména při částečné zátěži – právě když je větší část chladu získávána přímo z atmosférického vzduchu. V kombinaci se suchými chladiči, které lze při nízkých teplotách využít jako účinný zdroj volného chlazení, je tato varianta zajímavá i z hlediska investičních nákladů. A právě o náklady jde přece všem provozovatelům především.
Autor působí ve společnosti Complete CZ.
Chcete získat časopis IT Systems s tímto a mnoha dalšími články z oblasti informačních systémů a řízení podnikové informatiky? Objednejte si předplatné nebo konkrétní vydání časopisu IT Systems z našeho archivu.


![]() ![]() | ||||||
Po | Út | St | Čt | Pá | So | Ne |
1 | 2 | 3 | 4 | 5 | 6 | |
7 | 8 | 9 | 10 | 11 | 12 | 13 |
14 | 15 | 16 | 17 | 18 | 19 | 20 |
21 | 22 | 23 | 24 | 25 | 26 | 27 |
28 | 29 | 30 | 1 | 2 | 3 | 4 |
5 | 6 | 7 | 8 | 9 | 10 | 11 |
IT Systems podporuje
Formulář pro přidání akce
Další vybrané akce
15.5. | Konference SCADA Security |
22.5. | Akce pro automobilové dodavatele "3DEXPERIENCE... |
12.6. | Konference ABIA CZ 2025: setkání zákazníků a partnerů... |
29.9. | The Massive IoT Conference |