facebook
Aktuality -> Hardware - 6. 12. 2017 10:09

HPE uvádí nový server Superdome Flex pro náročné in-memory úlohy

HPE Superdome FlexSpolečnost Hewlett Packard Enterprise (HPE) uvedla na náš trh nový stavebnicový server Superdome Flex, který je určen pro výpočetně náročné úlohy a databázové aplikace využívající in-memory technologii, kdy jsou všechna data uložena v operační pamětí serveru. Výkon a výbava HPE Superdome Flex se tak plně uplatní především pro složité vědeckotechnické výpočty a pro běh aplikací nad databázemi, jakými jsou např. SAP HANA, MS SQL 2016, Oracle 12c, které in-memory zpracování podporují. Na Superdome Flex běží standardní operační systémy, jaké známe ze světa serverů x86, tedy především Linux (RedHat, SuSE a Oracle). Připravuje se také podpora Windows a VMware. Superdome Flex je tak alternativou pro migrace nákladných unixových podnikových aplikací na Linux nebo v budoucnu i Windows.



Superdome Flex kombinuje technologie používané v superpočítačích řady Superdome X a v serverech MC990 X (dříve UV300 společnosti SGI, kterou HPE koupilo). Cílem vývoje serveru Superdome Flex bylo přiblížit se výkonu a vlastnostem superpočítačů a současně zvýšit dostupnost a především flexibilitu serveru, kdy je možné jeho výkon postupně rozšiřovat bez nutnosti pořídit hned v prvním kroku drahé šasi, jako je to běžné u superpočítačů.

Server Superdome Flex je proto osazen procesory Intel Skylake Platinum a Gold a lze jej postupně rozšiřovat od 4 až na 32 procesorů a 96 TB operační paměti. Díky originálnímu firmware HPE dosahuje Superdome Flex velmi vysoké dostupnosti (99,999 % v jednom systému). Ovšem jeho stěžejní výhodou je už zmíněná stavebnicová škálovatelnost. Zákazník kupuje pouze výkon, který zrovna potřebuje, a systém může postupně nejen rozšiřovat, ale díky možnosti vytváření HW oddílů i přerozdělovat zcela podle svých potřeb.

HPE Superdome FlexNový server HPE Superdome Flex je vhodný pro úlohy vyžadující vysokou dostupnost i zpracování velkého objemu dat v paměti, které jsou typické například v medicíně, jako je např. výzkum léčby lidské demence způsobené Alzheimerovou chorobou. Právě diagnostika a léčba Alzheimerovy choroby může díky novým počítačům s velmi rozsáhlou pamětí udělat velký skok vpřed. Medicínský výzkum totiž do značné míry závisí na schopnosti zpracovávat velké objemy dat.

Výzkum léčby neurodegenerativních chorob vyžaduje hluboké porozumění genetickým vlivům. Vědci zkoumají obrovské množství individuálních genomických vzorků a následně skládají výsledky do celkového obrazu. To vyžaduje mimořádnou výpočetní sílu. K rozložení jednoho jediného genomu do genetického obrazu je zapotřebí 180 datových gigabajtů a samotné zpracování přidá dalších 500 gigabajtů. Pokud se zpracování provede pro velké množství pacientů, lékaři a vědci dovedou identifikovat tzv. biomarkery, které rozdělují nemocné do podobných skupin a umožní mj. navrhovat cílenou optimalizovanou léčbu.

Příkladem praktického využití výkonných serverů optimalizovaných pro in-memory aplikace (postavených dle konceptu „memory driven“) je nasazení serverů HPE v Německém centru pro neurodegenerativní choroby, kde je již využíván funkční prototyp počítačového systému The Machine. Z původní 22minutové délky zpracování se zde jedna výpočetní úloha zkrátila na 13 sekund. Superpočítač The Machine je vybaven největší operační pamětí na světě, jejíž kapacita je 160 TB. Všechny procesy přitom obsluhuje pouze jediná instance operačního systému Linux.


 
POINT.X
  

- Inzerce -

Automatizace výdejů materiálu v procesu výroby

ControlSpousta firem jistě narazila na otázku, jak nejefektivněji vyřešit výdej materiálu v procesu výroby. Jedná se povětšinou o drobný materiál v řádu haléřů, jejichž správa prostřednictvím skladových zásob je spíše komplikovaná a náročná.