fbpx
Damir Špoljarič

Pojďme se podívat na to, jaké prvky v páteřní síti hostingových firem či telekomunikačních operátorů reálně ovlivňují kvalitu připojení a dostupnost.

100Gbps – inovace nebo marketing?

100Gbps technologie je naprosto běžnou součástí páteřních sítí a ceny síťových prvků klexsají. Například Nexus 3232C, 1U switch disponující 32x 100Gbps porty vychází dnes po slevě kolem částky 300 000Kč: z pohledu páteřních sítových prvků drobná položka. Bez pochyb je dostatečná propustnost sítě naprostý základ stability, jde ale bohužel jen o jeden prvek, který je na tom všem reálně nejlevnější. Firmy chlubící se 100Gbps sítí ovšem často skrývají další aspekty sítě, které mají na reálnou spolehlivost větší vliv.

Čím se routuje?

Globální internet z pohledu počtu IP rozsahů propagovaných v routovacích tabulkách neustále roste. Je to zapříčiněno primárně tím, že z důvodu nedostatku IPv4 adres dochází na jejich „drobení“ až na malé rozsahy /24 a počet rozsahů v internetu tak roste.

Routery po světě, které od upstream providerů získávají plné routovací tabulky, mají mnohdy problém jakékoliv změny rychle přepočítat v rozumném čase. Často k tomu potřebují i více než 15 minut bez ohledu na to, jestli máte 1Gbps nebo 100Gbps. Routery jsou nejdražším prvkem v síti a často jde o nejslabší místo hostingových firem či providerů. Proto o routerech mnohdy vůbec nehovoří a chlubí se jen 100Gbps ?

Ve vshosting~ disponujeme technologií podporující 100Gbps i kvalitními routery a vše jsme transparentně popsali v našem článku vhosting~ – jaký hardware používáme v síti.

S kým je poskytovatel propojen?

Další naprosto zásadní otázkou je to, s kým je daná hostingová firma propojena a s jak kvalitním operátorem. Za kvalitního operátora s dostatečnou infrastrukturou lze označit Tier1 operátory, jejichž seznam naleznete i na wikipedii. Je totiž možné, že i při 100Gbps portu nakonec dojde k saturaci u upstream providera, například při útoku, a reálně 100Gbps v ničem nepomůže.

Je také vhodné se podívat, zda je daný operátor připojen do nějakého peeringového centra a jakou rychlostí a s kým je tak napřímo propojen. Propojení v rámci peeringového centra (například NIX.CZ) totiž zkracuje propojení a mezi hostingovou firmou a koncovým uživatelem tak odpadá „mezičlánek“ v podobě upstream providera.

To má pozitivní vliv na rychlost, náklady i spolehlivost a hlavně rychlost při konvergenci.

Příklad: daný operátor má nějaký výpadek a přepne provoz mezi více uplinků. Pokud jste s operátorem propojeni napřímo, routery se rychleji „domluví“ a data mezi vašimi sítěmi budou rychleji obnovena.

100Gbps připojením do NIXu disponuje například zatím jen Microsoft, Seznam, T-mobile, Justin.tv (viz veřejné statistiky) a několik málo dalších, kteří své statistiky na webu nixu nezveřejňují.

Čím může být dále poskytovatel omezen?

Řada providerů disponující 100Gbps technologií má ve své síti zapojeny prvky, které ovšem reálně 100Gbps neumí využít. K saturaci a omezení dostupnosti tak dojde i při řádově menším trafficu. Jde například o různé IDS/IPS sondy postavené na Linuxu. Datovou analýzu provádí procesor serveru a to je v řadě míst nejslabší článek, kde by bylo mnohdy nutné pro zvládnutí 100Gbps trafficu disponovat stovkami jader, aby bylo možné takový traffic v reálném čase vyhodnotit.

Ověřte si, jak moc je váš poskytovatel transparentní a zda zveřejňuje informace o tom, čím routuje, s jakými providery je propojen a jak reálně vypadá topologie sítě. Síťařina je samostatný a komplexní obor a marketing firem se často schovává za líbivé pojmy jako „100Gbps síť“. Ve vshosting~ něco takového považujeme za samozřejmé :-). Do roka budeme pravděpodobně vzhledem k nárůstu trafficu upgradovat uplinky do NIXu ze 40Gbps na 2x 100Gbps.


Damir Špoljarič

Kvalitní sít postavená na pořádných síťových prvcích je základ. Podívejte se, jaké prvky v síti používáme ve vshosting~ .

Čím routujeme

Kvalitní routery jsou základ. Spousta firem nezveřejňuje, jaké používá routery, přitom na pořádných routerech stojí stabilita celé sítě. Internet je routován dynamicky a propojení s jinými operátory je realizováno prostřednictvím BGP protokolu.

Právě výpočet dynamického routingu je nejslabší místo většiny routerů. K dnešnímu dni (6.6.2017) je v Internetu celkem 670868 IPv4 prefixů (rozsahů) z celkem 57624 autonomních systémů operátorů a 39910 IPv6 prefixů (počet však roste cca 300 za týden) z 13477 autonomních systémů. Málo výkonné routery, které pracují s plnou routovací tabulkou, potřebují k výpočtu rout klidně desítky minut. Po takovou dobu nemusí být některé destinace plně funkční.

Často se proto operátoři uchylují k tomu nepracovat s plnou routovací tabulkou, ale udržovat v paměti routerů jen některé základní prefixy (max. jednotky tisíc prefixů) a používat default gateway nadřazeného operátora. Připravují se tak o možnost podrobně nastavovat a určovat kudy potečou jaká data a rozhodovat, například na základě kvality spojení do jednotlivých lokalit, přes jakého operátora priorizují daný prefix.

Za posledních 11 let jsme si ve vshosting~ vyzkoušeli různé routery a postupně vyměnovali routery za lepší až jsme se nakonec rozhodli nedělat žádné kompromisy a využít routery z těch nejdražších a nejvyšších řad, které se pro datová centra používají u velkých nadnárodních operátorů. K routingu tak používáme routery Juniper MX960. V ServerPark DC1 máme hned 2, pro jistotu.

Tyto routery s výkonnými routing enginy, které používáme, zvládnou spočítat celý internet za desítky vteřin. Navíc máme v hlavním routeru dva routing enginy pro plnou redundanci, takže případná porucha jednoho neznamená nutnost přepínat provoz mezi routery, což s sebou vždy a u všech operátorů přináší mikrovýpadek (ten však může následně vést k přepnutí clusterů a způsobit další dílčí situace). S takovou situací se jeden router vypořádá a přepne veškerý provoz ihned na záložní router engine.

čím routujeme ve vshosting~

Kapacita MX960 udávaná výrobcem je 10Tbps (tedy asi 20 násobek datového provozu v NIX.CZ) a rozšiřování kapacity se provádí za běhu přidáváním či výměnou karet. Podporována je samozřejmě 100Gbps technologie (zatím aktivně nepoužíváme), její nasazení je pak již jednoduché.

Výhodou těchto high performance enteprise routerů je fakt, že veškerý provoz zajišťuje hardware, kde nehrozí, že provoz neupočítají procesory routerů, jak se to stává u méně výkonných zařízení. V tomto případě routing enginy v routerech provádí výpočet rout a vše poté zapisují přímo do karet, kde se o samotný provoz dále stará již hardware.

Co používáme na L2 páteř (páteřní switche)

L2, tedy switching, je druhý základní prvek páteřní sítě. Ani zde jsme nedělali kompromisy a o switchování se starají Nexus řady 7000 (konkrétně Nexus 7010). V datacentru jsou opět 2. Oba Nexusy 7000 používají pro redundanci vPC technologii. Jak Nexus 7000, tak vPC technologie je používána například na páteřní síti NIX.CZ, z čehož je patrné, že jsme zvolili špičkové zařízení.

Stejně jako v případě routerů i Nexus 7010 podporuje přidávání či výměnu karet za běhu dle potřeby. Kapacita na jeden slot je 550Gbps a i zde jsme připraveni na 100Gbps. Do těchto páteřních switchů se sbíhají uplinky “top of rack” switchů. Díky vPC je každý rack připojen v režimu active-active do dvou těchto páteřních prvků a rychlost připojení každého racku je 20Gbps.

Jak tyto nexusy tak routery bylo poměrně obtížné dostat do racků :-), každé zařízení má několik set kilo. I v tomto případě má každý Nexus 7000 2 supervisory (jakési mikropočítače) v high-availability režimu, takže porucha na jednom supervisoru neznamená nutnost provádět přepínání čehokoliv v síti. K tomu dojde ihned a automatizovaně až pokud by došlo k větší poruše na daném zařízení.

Náš hardware: routery a nexusy
vshosting~ hardware
jaký hardware používáme v síti

Do čeho připojujeme servery

Jako top of rack switche používáme Nexus řady 3000 a 3100 (také dva s vPC) s možností 2x 40Gbps uplinků či n x 10Gbps. Do každého páteřního switche Nexusu 7000 tak vede minimálně jeden uplink. Porucha uplinku či jednoho z Nexusů 7000 způsobí pouze snížení propustnosti, která je dimenzovaná stejně na mnohonásobek reálné potřeby. K žádnému výpadku nedojde díky vPC a LACP. Servery pak mají uplinky do obou Nexus 3172 switchů. V síti máme také řadu Cisco Catalyst switchů, které budeme v budoucnu nahrazovat za Nexusy.

do čeho připojujeme servery

Kudy tečou data

Většinu evropských dat se snažíme měnit v peeringových centrech. vshosting~ je aktuálně aktivně připojen do celkem 4 peeringových center v celkem 3 státech. V největším českém – tedy NIX.CZ je vshosting~ připojen již téměř 10 let (od 1.1.2008) a 9 let v největším slovenském SIX.SK.

Dlouhou dobu jsme také připojeni ve německém Frankurtu do největšího světového peering centra DE-CIX. V těchto peeringových centrech jsme propojeni se stovkami sítí, mezi kterými je i například Apple, Facebook, Microsoft a jednáme o přímém propojení s Amazon Web Services.

Některé statistiky můžete sledovat veřejně:
NIX.CZ: https://www.nix.cz/cs/port/port/day/all
SIX.SK: http://www.six.sk/index.php?page=pripojene_siete

Dále plánujeme připojení do dalších peeringových center. Z těch největších jsou ve hře AMS-IX (2. největší na světě) či LINX (největší britské peeringové centrum). Připojení NIX.CZ čeká upgrade a v budoucnu chystáme připojení do NIXu na 2x 100Gbps. Máme také v plánu připojení do zabezpečené VLAN Fénix (https://fe.nix.cz/)

Data, která se nemění v peeringových centrech se posílají do globálního Internetu prostřednictvím globálních TIER1 a TIER2 operátorů. Jmenovat můžeme například Telia Sonera nebo Cogent.


Damir Špoljarič

Práce technika v datovém centru je velká výzva pro každého nadšeného kutila – elektrotechnika a zájemce o hardware a špičkové technologie. Tým techniků tvoří jeden z hlavních pilířů vshosting~. Pojďme se krátce podívat na to, co vlastně takový technik datového centra dělá.

Uvnitř v datacentru

servery, všude servery

Pro znalce počítačů žádné překvapení. Vše v datacentru samozřejmě běží na serverech :-). Nejčastěji používáme servery značek DELL a SuperMicro. V ServerParku se však najde i například bladecenter HP (na tom provozujeme cloudovou službu SnackHost) a storage značky NetApp včetně pěkných hraček jako NetApp řady 82xx.

V ServerParku provozujeme 3 lokální sklady. V jednom se nachází desítky serverů (bez komponent) a v druhém serverové komponenty (stovky pevných disků a SSD disků, paměťových modulů, procesorů, síťových karet a dalšího). Třetí sklad slouží pro uložení datových a napájecích kabelů či náhradní komponenty do rozvoden.

Technici se tak starají o kompletní sestavení serverů, aktualizace firmware, montáže do racků v datacentru a základní instalaci operačního systému. V případě, že se jakýkoliv server porouchá, tak ve spolupráci s naším týmem adminů provedou diagnostiku problému a opravu či výměnu celého serveru.

Ve vshosting~ máme takové pravidlo – zajistit produkční provoz a raději vyměnit celý server než experimentovat na “živém”. S porouchaným serverem si poté technici hrají a hledají problém v klidu v kanceláři, ve které mají vyhrazen montážní prostor (sen každého kutila :-)). Často může jít pouze o méně závažný problém jako je například výměna vadného disku v RAIDu.

Ve vshosting~ nás rovněž na konci tohoto a začátku příštího roku čeká další zajímavý projekt. Plánujeme začít vyvíjet vlastní hardware po vzoru Facebooku, Google a dalších. Chceme zajistit větší efektivitu a využitelnost prostoru datacentra a přinést do oblasti hardware řadu inovací.

Technici upotřebí i manuální jemnou zručnost, neboť krom práce se serverovými komponentami řeší také instalaci optických prvků a spolupracují s týmem síťových specialistů vshosting~ na budování fyzické páteřní sítě.

Nejmodernější datové centrum v ČR

ServerPark je nejmodernější datacentrem v ČR. Aby toho nebylo málo, výhledově chystáme stavbu druhého datacentra. Technici datacentra se o datacentrum starají a hlídají jeho chod. Datacentrum disponuje špičkovou infrastrukturou vyhovující náročným technologickým požadavkům pro redundanci 2xN.

Technici datacentra se starají o monitoring chodu datacentra a zásahu v případě mimořádné události. ServerPark je plně autonomní datacentrum s automatizovaným řízením, které si poradí až se třemi souběžnými poruchami bez zásahu člověka. Přesto je ale takovou situaci nutno řešit.

Technici zde přijdou do styku s technologiemi průmyslových rozvoden, nejmodernějších UPS systémů (systém pro zajištění nepřetržitého napájení serverů), obrovskými 750kW záložními motor-generátory. Technici jsou zkrátka ti, kterým datacentrum říká pane. Znají každý kout budovy, kontrolují všechny systémy a jsou připraveni i na takovou situaci jako globální výpadek (blackout) na území Prahy.

ServerPark si poradí bez napájení ze sítě několik dní autonomně z vlastních zásob nafty. Preventivně ale při výpadku delším než 12 hodin přijíždí k ServerParku cisterna z ČEPRO a je připravena doplnit zásoby nafty. I toto tým techniků datacentra koordinuje.

Takto vypadá systém monitoringu. V ServerParku je rozmístěno více než 1000 různých čidel a monitorovacích bodů:

systém monitoringu v datacentru ServerPark

Mrkněte na reportáž České televize:


Damir Špoljarič

Konec roku 2016 a začátek roku 2017 sebou přinesl několik výpadků datacenter. Připravili jsme pro Vás přehled typických a bohužel stále ignorovaných hrozeb provozu datových center v České republice. 

(následující rizika nepopisují žádné konkrétní datové centrum, abychom nebyli napadeni pro “nekalosoutěžní jednání”).

Lokalita

Když jsem v roce 2013 psal podobný článek na E15, ani by mě nenapadlo, že zaplavení datacentra z důvodu nevhodné lokality, které jsem uváděl jako reálnou hrozbu, se jen pár měsíců na to stane v Casablance. Nutno podotknout, že riziko provozu datacentra ve staré výškové budově v podobě možnosti zaplavení při havárii inženýrských sítí je stále reálné a neeliminují ho ani „stříšky“ v datovém sále. Bohužel špatně zvolená lokalita je stále často ignorovanou hrozbou, která se následně v reálném provozu jen těžko řeší.

Zkrátka – kde hrozí riziko zaplavení technologie, nemá datové centrum, co dělat.

Napájení

Většina výpadků datacenter však bylo způsobeno výpadkem napájení, zejména poruchou na systému UPS. Vždy, když se toto stane, je z toho patrné, že dané datacentrum není realizováno ani dle požadavků TIER III, který vyžaduje mít 2 nezávislé napájecí větve.

Mnoho provozovatelů datových center si bohužel neuvědomuje, že na spolehlivosti UPS stojí spolehlivost celého datacentra. Když už mají 2 nezávislé UPS, často jsou jednotlivé UPS vytíženy na více než 50%, z čehož vyplývá, že při poruše jedné UPS dojde u druhé UPS k přetížení.

Dalším častým prohřeškem bývá 1 bateriový string na UPS. Baterie jsou ve stringu zapojeny v sérii a je možné, že některá baterie bude mít poruchu, například vysoký vnitřní odpor a funkce UPS, jako hlavního záložního prvku datacentra, je tak narušena, což se často zjistí až při skutečném výpadku napájení z veřejné sítě.

Baterie čas od času odchází, na což se většinou přijde při pravidelné revizi UPS, která by se měla minimálně 1x ročně provádět v každém datacentru. Zatím jsem v ČR neviděl datacentrum s monitoringem každé jednotlivé baterie, byť takovou technologii výrobci UPS často nabízí, systém UPS však výrazně prodražují. Již jsem se také setkal s datacentrem, které pro 2 „nezávislé UPS“ sdílelo jednu sadu baterií.

Za spolehlivý systém UPS lze považovat 2 nezávislé systémy (v případě modulární UPS nejlépe navíc každá UPS s vnitřní redundancí na bázi modulů N+1), přičemž každý systém UPS by měl disponovat vlastní sadou baterií a ideálně více než 1 string na každou UPS. UPS musí být rovněž výkonnostně dostatečně naddimenzovaná pro případ poruchy druhé UPS.

V datovém centru by se v nejlepším případě neměla nacházet žádná jednozdrojová zařízení. Taková zařízení je pak nutné vybavit STS (static switchem) zajišťujícím plynulé přepnutí mezi napájecími větvemi při havárii jedné celé větve bez vlivu na běh zařízení. vshosting~ je v ČR jedinou společností, která STS nabízí jako nadstandardní výbavu racků.

Hodně opomíjenou vlastností datacenter je pořádný projekt. Často datacentra vznikají „na koleni“ a rozšířují se až dle aktuálních potřeb klientů bez řádného projektu. U takových datacenter pak hrozí reálné riziko, že v kritickém případě nezafunguje správně selektivita či nejsou správně spočítané zkratové proudy jistících prvků. Může se tak například stát, že prostá porucha zdroje v serveru vedoucí ke zkratu způsobí popadání jističů až na výstupu z UPS a dojde tak ke kompletnímu výpadku celé větve.

V kombinaci s nedostatky z pohledu UPS popsaných výše může tak snadno dojít k výpadku celého datacentra. Výpočet selektivity považuji za jednu z nejdůležitějších částí každého energo projektu datacentra.

Zásobování naftou

V únoru postihla VVN rozvodnu na Chodově v Praze porucha vedoucí k cca 30 minutovému výpadu napájení velké části Prahy. Mnoho provozovatelů datacenter se na twitteru či facebooku chlubilo tím, jak bravurně zvládlo pomocí generátoru zazálohovat napájení datacentra.

Nechávám stranou, že jde o naprosto běžnou situaci, se kterou si datacentrum musí umět poradit naprosto automaticky a netřeba z toho dělat mimořádnou situaci. Tato událost ale ukázala na dvě jiná témata. Jedním z nich je reálné napájení z více VVN rozvoden v Praze, kterým se několik datacenter chlubí. Realita je ovšem taková, že i tato datacentra, chlubící se nezávislým přívodem VN, startovalo generátory, tudíž realita s existencí nezávislých VN přívodů ze dvou VVN rozvoden je minimálně diskutabilní.

Druhým tématem je realita stavu zásob nafty. 30 minutový výpadek jistě žádnému standardnímu datacentru nečiní problém. Jaká by však byla situace při výpadku, který by trval 6, 12, 24 hodin nebo déle? Mnoho datacenter nemá žádným způsobem vyřešeno naftové hospodářství s dostatečnou rezervou (TIER III udává objem paliva pro souvislý provoz z generátorů po dobu minimálně 48 hodin).

Řada datacenter má generátory umístěny včetně nádrží na střeše s obtížnou možností doplňování paliva. Skutečný stav je pak takový, že v případě výpadku elektřiny nefungují ani okolní čerpací stanice a má-li někdo sjednané smluvní zavážený nafty je otázkou, zda se na takovou službu, v případě delšího blackoutu, lze spolehnout.

Riziko výpadku chlazení

Nedostatečně řešené chlazení považuji za druhý nejčastější důvod výpadku datacenter. Nebudu rozebírat rozdílnost a spolehlivost jednotlivých technologií. Zaměřím se na reálnou míru redundance a riziko nedostatku takové míry zálohy chlazení. Většina datacenter uvádí, že disponují redundancí na úrovní chlazení N+1, to znamená, že si datové centrum bez vlivu na provoz může dovolit výpadek 1 chladící jednotky. Je to ale opravdu dostatečné?

V případě, že se jedná například o přímý výpar, tedy nejčastěji použitou chladící technologii datacenter, každá porucha na chladícím okruhu znamená odstávku jednotky i na několik dní. Znamená to odsát chladivo, provést opravu, vakuovat okruh (několik hodin), doplnit chladivo, zprovoznit jednotku. Klimatizační jednotky tvoří nejporuchovější části datacentra, protože mají spoustu mechanických částí (motory, elektronicky řízené ventily, ventilátory apod.) a jsou trvale v chodu. Riziko souběhu poruch tak existuje a v případě N+1 redundance může jít o kritickou situaci, která způsobí výpadek datacentra.

Často provozovatelé datacenter opomíjejí druhou důležitou veličinu týkající se chlazení. Kromě chladícího výkonu je nutné řešit objem vzduchu. Trend výrobců serverů je v dnešní době takový, že na stále se snižující příkon serveru připadá stále stejný průtok vzduchu serverem. Může se tak stát, že chladící jednotky mají sice rezervu ve výkonu, nemusí však stačit objem vzduchu, což se může při poruše jednotky projevit velice rychle formou podtlaku ve studené uličce a přehříváním serverů.

Damir Špoljarič

CEO


Damir Špoljarič

Prosinec byl ve znamení probíhající vánoční sezóny, ve které se tradičně řešily špičky v návštěvnosti e-shopů, které zažívaly nejkritičtější období v roce. U některých e-shopů se projevila slabá místa v aplikaci, které bylo nutné ve spolupráci našich adminů a vývojářů klientů optimalizovat, případně navýšit výkon infrastruktury. Mnoho velkých e-shopů, které spravujeme, ale bylo letos podle našich doporučení (a to jak z pohledu infrastruktury, tak z pohledu testovacího prostředí a performance testů) na vánoční sezónu dobře připraveno.

V prosinci se nám podařilo produkčně zprovoznit naší CDN pro Evropu a USA. Celý koncept CDN nás tak zatím stál několik set hodin času, a to jsme stále s CDNkou na začátku. Ladění CDN se ukázalo jako náročnější z pohledu sítě a také z pohledu jednání s některými velkými TIER1 operátory, se kterými bylo nutné, často zdlouhavě, domlouvat individuální nastavení propojení a BGP komunit. První globální klient nám z CDN již běží a načtení stránky se v USA zkrátilo průměrně o několik vteřin na ~1,5 – 2 vteřiny, což je prakticky stejná hodnota jako v Evropě. V této souvislosti jsme rozšířili naší infrastrukturu do Los Angeles a New Yorku.

Čím dál častěji zaznamenáváme požadavky na implementaci podpory pro http/2 a vzrůstající počet požadavků je také na Let‘s Encrypt. Mnohdy jsou tyto požadavky nekompatibilní se staršími verzemi operačního systému (požadavek na prehistorické verze některého SW ze strany klienta). Objevil se první požadavek na instalaci PHP 7.1, která zatím není podporována.

V našem labu jsme testovali některé nové technologie, mezi které patří například Netflix/dynamite, jako zajímavější alternativa pro redis / memcached cluster. Produkčně jsme dynamite nasadili již na naši novou službu CloudMail. Naším testem prošla také PostgreSQL 9.6 a Postgres-XL – oboje letošní novinky. Test se zaměřoval především na možnost clusterování a zajištění vysoké dostupnosti v náročných systémech. Bohužel ani jeden produkt jsme zatím neshledali vhodným pro produkční provoz, který je extrémně náročný na spolehlivé škálování či high-availability. Z tohoto pohledu se například Galera cluster (MariaDB) jeví zatím podstatně lépe.

Spoustu úsilí věnujeme přípravě nové platformní služby, o které vás budeme informovat tento rok, a dalšímu rozvoji páteřní sítě. Objednali jsme nové routery MX480 (premium edice – plně vnitřně redundantní), vyvíjíme nové prvky síťové bezpečnosti a testujeme nový HW na rychlá propojení storage se servery s nejnižšími možnými latencemi (například 100Gbps technologie omni-path od Intelu).

ServerParku úspěšně plníme II. etapu datacentra a v prosinci proběhla rozsáhlejší zkouška spolehlivosti diesel generátorů před zimními mrazy. Vše proběhlo v pořádku.


Damir Špoljarič

Rok 2016 byl stejně jako posledních několik let ve znamení stále větší poptávky trhu po cloudových a managed server službách a snižování poptávky po kolokačních službách (server hosting) pro jednotlivé servery, a naopak je možné zaznamenat nárůst poptávky po kolokačních službách středního a velkého rozsahu (prostor pro 200 a více serverů od firem provozující vlastní cloudové prostředí). Český trh tak následuje trendy západních trhů jako je UK či USA.

Prakticky vymizela poptávka po provozování například vlastního mailového či webového serveru, ale čím dál častěji požadují firmy hotovou službu formou hostovaného řešení. Managed infrastruktura je pro firmy tím nejklíčovějším prvkem v jejich internetovém businessu. Počet používaných technologií roste. Tam, kde dřív stačil Linux+apache+PHP+MySQL, se dnes používají desítky různých a složitých technologií, které nejsou v silách jednotlivce znalostně obsáhnout. Proto se firmy zaměřují spíše na development a veškeré operations postupně outsourcují. Po managed a cloud službách je v oblasti hostingu nejvyšší nárůst poptávky ze všech hostingových služeb.

Na popularitě získávají cloudové služby

Ke slovu se dostávají stále více nové cloudové služby typu SaaS (software jako služba) a PaaS (platforma jako služba), kdy i dříve běžné technologie provozované na serveru lze mít umístěné v cloudu jako “blackbox” službu (různé SQL i noSQL databáze apod.). V tomto ohledu chystáme ve VSHostingu pro rok 2017 nové služby, které budou, nejen pro český trh, převratné. Mezi technologické novinky jistě patří nová generace kontejnerových řešení (LXC/LXD apod). Věřím tomu, že v příštích 3 až 5 letech získají kontejnerová řešení v nových instalacích převahu nad klasickými virtuálními servery v cloudu, jelikož jsou rychlé s minimální režií a umožňují obrovské možnosti škálování. Možnosti kontejnerů krásně popsal např. Google, který hostuje aplikaci Pokemon Go právě na vlastním kontejnerovém řešení, kdy se možnost škálování, prakticky v reálném čase, ukázala být u aplikací tohoto typu nutností.

Další výstavby datových center lze očekávat i nadále

Vzhledem k nové “dotační vlně” lze očekávat v roce 2017 další stavby nových datových center (mnohdy zbytečných). Lze ale také předpokládat, že půjde o poslední takto masivní vznik datových center v ČR, kdy mnoho z nich jako by se řídilo imaginárním heslem “datacentrum do každé vesnice”. Tato zbytečná datová centra často zůstávají prázdná a bez klientů i po několika letech provozu. Jednak by údajně mělo jít o poslední dotační výzvu na výstavbu datacenter, a navíc nabídka ploch datacenter již v dnešní době výrazně převyšuje její poptávku a k datacentrům se stále více přistupuje jako ke komoditní službě. Datová centra často nemají pro klienty server hostingu příliš co nového nabídnout, mezi hlavní parametry datacenter však stále patří provozní bezpečnost (zálohování napájení, automatické hašení), kvalitní chlazení, bezpečnost objektu a konektivita. A samozřejmě cena.

Zvyšují se požadavky na AntiDDos ochranu

Velkým tématem zůstávaly i v roce 2016 kyberútoky. O vhodnou AntiDDoS ochranu je čím dál větší zájem zejména s příchodem “internetu věcí” a tím spojeným nárůstem chytrých zařízení připojených k Internetu. První takový útok chytrými zařízeními (webkamery apod.) byl veden na infrastrukturu firmy Dyn, která zajišťuje provoz DNS pro služby jako jsou Twitter a další. Útoků tohoto typu bude masivně přibývat, což využívají společnosti zabývající se rozvojem AntiDDoS zařízení jako je Radware, Fortinet, Arbor a další. Na platformě neutrální spolupráce světových telekomunikačních operátorů v různých organizacích (peeringová centra apod) vzniká intenzivnější dialog o tom, jak se bránit DDoS útokům z obou stran – tedy jak na straně cíle útoku, tak i na straně jeho zdroje.


Damir Špoljarič

Včera se potýkalo jedno pražské datové centrum několikahodinovým výpadkem napájení elektrické energie. Dle vyjádření provozovatele šlo o chybu UPS, kdy se nečekaně vybily baterie při instalaci nového diesel generátoru. S podobným problémem se potýkala i další hostingová firma s datacentry v Praze a Brně. Podívejme se, jak vlastně systém UPS funguje, proč jde o nejdůležitější komponentu celého datacentra a jak má být ve správném datovém centru UPS udržována a co od ní lze očekávat.

UPS slouží k zajištění nepřetržité dodávky elektrické energie pro koncové spotřebiče (v případě datacentra jde především o servery a kritické části infrastruktury datacentra) a také k zajištění kvalitní dodávky, kdy UPS vyrovnává podpětí či předpětí na síti.

Nejpoužívanějším typem pro tento účel jsou bateriové UPS (on-line UPS s invertorem), zřídkakdy lze najít v některých datacentrech rotační UPS, která funguje na principu velkého setrvačníku, který dodává až několik desítek vteřin napájení serverům do doby nastartování generátorů. Bateriový systém je používanější, neboť jeho účinnost je v dnešní době poměrně vysoká (> 96%) a zaručuje dodávku energie po dobu několika jednotek až desítek minut, čímž se získá větší časová rezerva například ke startu záložního generátoru. O UPS je však nutné patřičně pečovat a znát slabá místa tohoto systému.

Životnost baterií, aneb jak se nespoléhat na dobu zálohování

Výrobce v dnešní době deklarují životnost baterií až 12 let. Lze to přirovnat ke garanci spotřeby auta výrobcem. Jde o velice teoretický údaj závislý na mnoha faktorech, mezi které patří například prostředí, ve kterém se baterie nacházejí či jejich četnost a způsob vybíjení a nabíjení. Baterie potřebují prostředí 20°C, vyšší teplota prostředí zkracuje dobu životnost, nižší teplota zvyšuje dobu životnosti, ale zkracuje dobu zálohování.

Baterie postupem času ztrácí svoji původní kapacitu a výpočet doby zálohování vychází z matematického výpočtu UPS dle typu baterií a vybíjecí křivky (při vybíjení baterii klesá napětí a při stálém odběru tedy stoupá proud (P=U x I) – to znamená, že se rychlost vybíjení zrychluje). UPS tak může krásně na display psát předpokládanou dobu zálohování 30 minut, ale po pár letech to již nemusí být pravda a posledních pár desítek % baterie při vybíjení zmizí v mžiku. 

Z tohoto důvodu je nutné provádět pravidelné kapacitní zkoušky, které například v ServerParku provádíme jednou do roka. Při těch se provádí vybíjení baterií až na nízkou hodnotu, sleduje se vybíjecí křivka a také rozdíl napětí na bateriích, čímž se zjistí i například vadný článek baterie, což je opět situace, kterou UPS nemá možnost v běžném provozu poznat.

Paralelní bateriové stringy UPS

Kapacitní test je přitom naprosto bezpečný, protože pouze sníží úroveň napětí ze sítě na usměrňovači na vstupu UPS ze sítě, čímž se začnou baterie vybíjet. Pokud by při testu došlo k problému, například nečekaně rychlému vybití baterií (pod kritickou hodnotu, která je po dobu testu nastavena na usměrňovači), nezpůsobí to výpadek napájení serverů, protože při náhlém poklesu napětí na bateriích UPS začne ihned napájet ze sítě.

Baterie jsou ve stringu zapojeny v sérii a pokud by došlo někde například k vadné baterii a výrazným zvýšením jejího vnitřního odporu nebo špatnému kontaktu mezi dvěma bateriemi, při výpadku napájení ze sítě dojde k tomu, že UPS nebude zálohovat a dojde k výpadku serverů. Z tohoto důvodu je vhodné mít zapojených několik paralelních bateriových stringů. V ServerParku tak máme na každé větvi UPS 3 nezávislé bateriové stringy. 

Nelze spoléhat na jeden systém… vždyť jde jen o techniku

Nikdy se nelze spoléhat na to, že UPS bude na 100 % fungovat, ať už výrobci deklarují co chtějí. Stejně tak správné datové centrum nemůže provádět výměnu či servis generátoru bez jiného náhradního zdroje elektrické energie. I dle UPTIME INSTITUTE je generátor primárním zdrojem elektrické energie.

ServerParku tak máme zapojené dvě naprosto nezávislé napájecí větve, na každé větvi je UPS v režimu N+1, tzn celkem tedy režim 2 x (N+1), každá větev disponuje vlastním diesel generátorem a současně je zapojen další diesel generátor, který je automatickým řídícím systémem připnut místo generátoru na jedné z větví, který je v poruše či údržbě. Každá větev disponuje vlastní sadou baterií a každá sada baterií je složena ze 3 stringů. 

I kdyby datové centrum potkala porucha generátoru, do toho se záhadně vybily baterie a do toho nastala porucha rozvaděče, datové centrum si s tím musí být schopni poradit bez výpadku napájení serverů. Servery by tak měly mít instalované 2 zdroje a být současně zapojeny do obou nezávislých větví, na nezávislé UPS, nezávislé rozvaděče a nezávislé generátory. Pokud servery mají pouze 1 napájecí zdroj, máme v ServerParku pro takové servery nainstalované v racku STS switche, tedy polovodičové rychlé „přepínače“, které při kompletní poruše na jedné větvi přepnou napájení z druhé větve bez výpadku serverů.

Foto z nedávné revize UPS ServerParku, která zahrnovala i kontrolu jednotlivých modulů modulární UPS (kontrola kondenzátorů, čištění modulu):


Během 17 let jsme provedli úspěšnou migrací stovky klientů. Pomůžeme i vám.

  1. Domluvte se na konzultaci

    Stačí nám zanechat kontakt. Obratem se vám ozveme.

  2. Bezplatný návrh řešení

    Nezávazně probereme, jak vám můžeme pomoct. Navrhneme řešení na míru.

  3. Profesionální realizace

    Připravíme vám prostředí pro bezproblémovou migraci dle společného návrhu.

Zanechte nám svůj e-mail nebo telefon




    Nebo nás kontaktujte napřímo

    +420 246 035 835 V provozu 24/7
    konzultace@vshosting.cz
    Zkopírovat
    Obratem se vám ozveme