fbpx
vshosting~

Asi nikoho nepřekvapí, že ve vshosting~ bereme bezpečnost smrtelně vážně. Občas si děláme legraci, že naše opatření hraničí s paranoiou. Ale to je naše práce. Jen díky extrémně přísným opatřením a do detailu vypracovaných krizových scénářů dokážeme provozovat datacentrum bez výpadků od jeho otevření v roce 2015 a zajistit našim klientům maximální spolehlivost.

Pro zajímavost poodhalujeme, jak chráníme servery a data našich klientů před třemi typickými hrozbami: sabotáží nebo krádeží serverů, dlouhým blackoutem a poruchou chlazení.

Apokalyptický scénář 1: Sabotáž či krádež serverů

Kdyby se náhodným vandalům nebo dokonce vaší konkurenci podařilo zmocnit se vašich serverů, byl by to pořádný průšvih. Nejen že by vaše aplikace (např. váš e-shop) přestaly fungovat, ale dotyční by mohli získat i vaše data. Naštěstí pokud jste svou infrastrukturu svěřili nám ve vshosting~, nic takového nehrozí.

Naše datacentrum ServerPark je v podstatě neproniknutelná železobetonová kostka s pancéřovými dveřmi, která je ještě navíc obehnaná vysokým plotem s ostnatým drátem.

Datacentrum ServerPark

Datacentrum ServerPark

Ani to nám ovšem nepřišlo dostatečně bezpečné, a proto jsme přidali sofistikovaný bezpečnostní systém včetně kamer, který se aktivuje jakmile by někdo například přelezl plot nebo se vlamoval do dveří. Do serverovny se dostanete jedině pomocí kombinace několika klíčů, čipů a přístupového kódu. Aby toho nebylo málo, všechny serverové racky jsou samostatně uzamykatelné, takže k jednotlivým serverům se skutečně jen tak někdo neprobojuje.

Za zmínku stojí i naše ochrana před sabotáží kybernetickou: DDoS útoky. Ty se dají poměrně snadno a levně objednat online a útočníci pak mohou přetížit vaši aplikaci a v podstatě ji vyřadit z provozu. Proto jsme vyvinuli vlastní anti-DDoS ochranu, která těmto útokům účinně brání. Sabotéři tedy budou mít smůlu i pokud zvolí softwarovou cestu.

Apokalyptický scénář 2: Několikadenní výpadek elektřiny

Zloději, sabotéři i jiní záškodníci jsou tedy eliminováni, ale co kdyby, řekněme, vypadl proud? Datové centrum spotřebovává obrovské množství elektrické energie – jak bychom tedy zvládli blackout? A co teprve, kdyby výpadek elektrické sítě trval třeba týden? Přesně pro tento případ jsme v ServerParku nainstalovali komplexní systém sestávající z UPS, tj. bateriový záložní zdroj, dieselových generátorů a nádrže na diesel.

2 ze 3 dieselových generátorů v datacentru ServerPark

2 ze 3 dieselových generátorů v datacentru ServerPark

Všechny tyto prvky u nás navíc provozujeme v takzvaném režimu nx2 a n+1. To v praxi znamená, že v ServerParku máme zapojené dvě naprosto nezávislé napájecí větve (režim nx2). Ka každé větvi je přiřazeno jedno dedikované a jedno „rezervní“ UPS (režim n+1) a každá větev disponuje vlastním diesel generátorem i rozvaděčem. Současně je zapojen i další diesel generátor, který se automaticky zapne, kdyby došlo k poruše některého z dedikovaných generátorů.

Každá napájecí větev také disponuje vlastní sadou baterií a každá sada baterií je složena ze 3 stringů. Je to z toho důvodu, že baterie jsou ve z technických důvodů stringu zapojeny v sérii, takže kdyby by došlo například ke špatnému kontaktu mezi dvěma bateriemi, může dojít k selhání celého stringu. Servery u nás také mají mít instalované 2 zdroje a jsou současně zapojeny do obou nezávislých větví: na nezávislé UPS, nezávislé rozvaděče a nezávislé generátory.

Co by se tedy dělo v případě výpadku? Datacentrum by se automaticky začalo napájet z bateriového systému, zatímco by startovaly dieselové generátory. Naše baterie datacentrum „utáhnou“ déle než 20 minut, což poskytuje velkou rezervu k plnému rozběhnutí generátorů. Poté už by vše běželo na elektřinu vyrobenou z dieselu. Na tu vydržíme jet z vlastních zdrojů více než dva týdny. Pro představu, to je násobně větší rezerva, než má většina nemocnic.

Apokalyptický scénář 3: Porucha chlazení serverového sálu

Blackout jsme tedy zvládli, jsou tu ale i další potenciální zdroje problémů. Takové datacentrum je koneckonců plné elektroniky – co když se nějaká porouchá? A co když to bude zrovna zásadní prvek datacentra, jako třeba chladicí systém?

Servery vyrábějí spoustu tepla, je tedy potřeba je intenzivně chladit, aby se nepřehřívaly. Když dosáhnou moc vysoké teploty, může dojít k jejich poškození, zničení nebo dokonce začít hořet. Proto máme v ServerParku nainstalovaný naddimenzovaný systém chlazení i profesionální hasicí systém na bázi plynu FM200. Na hašení by ale dojít nemělo – servery mají zároveň pojistky, které je při přehřátí vypnou. 

Hasicí systém FM200 v serverovém sálu ServerParku

Hasicí systém FM200 v serverovém sálu ServerParku

Náš systém chlazení je podobně naddimenzovaný jako napájení: klimatizačních jednotek i všech dalších prvků máme 2x více, než je potřeba, plus ještě jednu záložní. Mnoho datacenter má pouze tu jednu zálohu, my jsme se s ní však nespokojili. Selhání chlazení je u nás tedy asi tak pravděpodobné, jako že do vás uhodí blesk, zatímco na obloze nebude jediný mrak.

Jak vidíte, naše datacentrum ServerPark je připraveno na nejhorší: ať už jde o pokus o sabotáž, výpadek proudu nebo možnost poruchy, kvalitu našich služeb to neovlivní. Díky našemu nekompromisnímu zabezpečení (i mnoha dalším výhodám) nám svoje projekty svěřili i ty největší české a slovenské internetové firmy. Pokud se chcete dozvědět, jak navzdory pandemii koronaviru zachováváme 100% provoz, přečtěte si náš předchozí článek.


Damir Špoljarič

Za posledních 14 let jsme zažili spoustu těžkých období, technické problémy i jiné komplikace. Současná pandemie je v mnoha ohledech odlišná. Na tuto situaci nebylo možné se předem připravit a vytvořit pro ni detailní krizový postup. Samozřejmě to není nic proti firmám, které musely úplně „zavřít krám“.

V prvních dnech jsme udělali některé základní změny, o kterých jsme posléze informovali na sociálních sítích. K situaci jsme přistoupili možná až příliš paranoidně, ale naše intenzivní opatření mají dva cíle: oddálit (nebo ideálně úplně eliminovat) přítomnost nákazy ve firmě a zajistit provoz za všech okolností.

Bráníme nákaze

V první řadě jsme prakticky od počátku zavedli povinné nošení roušek všemi osobami v budově, a to ještě předtím, než to nařídil stát.

Dále jsme přistoupili k zákazu používání MHD a zavedli firemní spolujízdy s využitím kapacit firemních aut. Současně s tím jsme umožnili maximálnímu počtu lidí pracovat z domova, byť v našem případě to jde poměrně složitě a značně se nám tím snížily personální kapacity.

Ve snaze zabránit nákaze jsme také omezili všem cizím osobám vstup do budovy a klienty jsme požádali o to, aby do budovy vstupovali pouze v nejnutnějších případech. Toto opatření jsme posléze zpřísnili a zavedli úplný zákaz vstupu cizích osob i klientů a dodavatelů do budovy vyjma havarijních situací. Naše týmy adminů a techniků všechny ostatní případy řeší za klienty, aby návštěvy nebyly nutné, ale přitom vše fungovalo na 100 %.

Zároveň všem osobám, které do budovy vstupují, měříme teploty, denně dezinfikujeme pracovní místa, kliky, apod. 

Připravujeme se na vše

Hned v první vlně opatření jsme zajistili dodávku paliva do nádrží pro generátory „až po špunty“ (nakoupeny desítky tisíc litrů). Sice neočekáváme, že stát vypne firmám energii, ale chceme být připraveni na vše. Takto bez problému zvládneme i několikatýdenní blackout.

Mimo to jsme rozdělili management tak, abychom zabránili případnému nakažení všech jeho členů. Cílem je zachovat plnou provozuschopnost z pohledu řízení i v případě, že by navzdory našim přísným opatřením někdo z vedení onemocněl.

Paradoxem je, že během této krize objem naší práce zůstal stejný nebo vzrostl. Důvodem je, že většinu našich klientů tvoří e-shopy, které nyní zažívají období podobné tomu předvánočnímu. Nejde jen o potraviny, ale i elektroniku či třeba sportovní náčiní. Díky obětavým kolegům ale vše bez problému zvládáme.

Zvládneme i zákaz vycházení

Nyní jsme připraveni i na nouzový „ostrovní“ chod firmy pro případ, že stát přeci jen zavede zákaz vycházení a datová centra jakožto telekomunikační služba nebudou ve výčtu výjimek. Budova je tedy zásobena potravinami a dalšími nezbytnostmi, aby byl provoz firmy a datového centra zachován.

Velké díky všem kolegům, že všichni k situaci přistoupili odpovědně a obětavě. V těchto vypjatých situacích se vždy ukáže zdraví a síla týmu každé firmy. Zároveň bych naše klienty rád ujistil, že vshosting~ stále běží na 100 % a je připraven na všechny krizové varianty.

Damir Špoljarič
CEO



Damir Špoljarič

vshosting~ zažívá v první čtvrtletí 2019 růstový boom. Obchodní tým plní plán na více než 200 % a za první tři měsíce získal vshosting~ více nových klientů než loňský rok za celé první pololetí. Mezi novými klienty je například Japonský gigant, mj. i vlastník českého Prazdroje, firma Asahi nebo velké e-shopy jak Eyerim, Brasty, Průša Research a mnoho dalších. S tím se však objevila potřeba rozšířit kapacitu datacentra. Podívejte se, co se bude jak rozšiřovat, a na pár provozních zajímavostí k tomu.

Datacentrum ServerPark

Poslední rok jsme se snažili minimalizovat nárůst počtu fyzických serverů, mimojiné s ohledem na zvyšování ceny silové elektrické energie. Přesto díky mnoha novým klientům musíme navýšit i počet fyzických serverů. Současně realizujeme již třetí instanci cloudu pro cloud managed servery a další centrální CEPH uložiště o kapacitě až několik set TB v SSD v režimu N+2.

Datacentrum ServerPark bylo původně koncipováno na 150 racků s kapacitou až 8000 serverů. Tato kapacita je rozdělena do tří etap, přičemž první dvě etapy jsou již absolutně plné a třetí etapu budeme brzy realizovat. Drobnými inovacemi se nám podařilo plánovanou kapacitu rozšířit na cca 158 racků.

Z pohledu energetiky je ServerPark projektován na 1 MW (1000 kW) čisté spotřeby serverů. Na chlazení datacentra je plánováno až 12 x 100kW chladících jednotek v režimu N+2, tedy teoretických 1,2 MW čistého chladícího výkonu. Realita nicméně ukazuje, že díky rozdělení studené a teplé části datacentra (část, kde servery nasávají vzduch o garantované teplotě a vlhkosti a části, kde servery „vyfukují“ teplý vzduch) a velkému rozdílu těchto teplot (čím větší rozdíl takové teploty, tím efektivnější chlazení) je reálný výkon jednotek o cca 15-20 % větší, než udává výrobce. Zálohu napájení datacentra zajišťují modulární UPS o výkonu pro zálohování až 2 MW v režimu 2xN, generátory o celkovém výkonu 3 MVA v režimu 2xN a trafostanice.

Jdeme na třetí etapu

Budova je dispozičně koncipována pro všechny 3 etapy, a to včetně prvků jako je systém automatického hašení inertním plynem nebo zabezpečovací systém. Pro plné osazení všech technologických částí datacentra nás čeká instalace další části rozvodny, dalších modulárních UPS systémů a postupné osazování chladících jednotek podle toho, jak rychle se nová etapa bude plnit novými servery.

Největší oříšek bývá již tradičně instalace desítek silových 185mm2 měděných kabelů mezi místnostmi rozvoden, UPS, generátory a trafostanicemi a místností s bateriemi. „Chuťovkou“ je i instalace dalších rozvaděčů na vysoké napětí 22000 V a osazování traf a generátorů za pomocí jeřábů. Vše se provádí samozřejmě bezpečně a za provozu. Projektová dokumentace již počítá s plným osazením budovy a jde tedy o relativně snadný úkol. Tímto procesem jsme si již jednou prošli při osazování druhé etapy ServerParku.

Zajímavostí je, že oproti předpokladu a energetickým výpočtům při projektování datacentra je reálná spotřeba cca poloviční. Je to způsobeno zejména použitím moderních nových technologií a prakticky výhradně SSD disků. Jinými slovy – energetické i chladící možnosti datacentra jsou poměrně hodně naddimenzované.

Bezpečnost na prvním místě

Hlavní prioritou vshosting~ při provozu datacenter je provozní bezpečnost. Podřizujeme tomu naprosto vše. Všimněte si proto ne příliš standardní redundance 2xN (dvojnásobný počet aktivních prvků) či N+2 (dva záložní aktivní prvky). Znamená to pro nás výrazně větší investici, ale snažíme se tím minimalizovat riziko výpadku na naprosté minimum.

ServerPark je tak připraven i na celopražský blackout díky nadstandardní zásobě nafty. Kvůli zvýšení bezpečnosti se datacentrum nachází mimo hlavní silniční a železniční tahy a je umístěno v řízeném letovém prostoru armády ČR (MCTR Kbely).

Tímto zdaleka nekončíme

Další etapou ServerParku získáme čas pro stavbu našeho druhého datacentra, ServerPark DC2 :-). Tam bude důraz na provozní bezpečnost stejně velký, avšak datacentrum bude z pohledu kapacity cca 3x větší a bude využívat unikátní technologie (kompletně stejnosměrně napájení, vlastní konstrukce serverů, 3 typy kombinovaného freecoolingu bez běžného využívání tradičního chlazení).

Jaké další technologické novinky chystáme? Úspěšně jsme zprovoznili CDN lokality v Seville a Bukurešti a chystáme i další. Kromě evropských lokalit se bude brzy realizovat i první POP v Asii, konkrétně v Singapuru. Intenzivně rovněž pracujeme na realizaci dalšího 100Gbps propojení s dalším globálním operátorem.

Chcete se dozvědět víc o našem datacentru? Vše se dočtete v našem článku Technické zázemí.


Damir Špoljarič

Média jsou poslední měsíce plná informací o zdražování elektřiny pro domácnosti. Více než domácností se ovšem zdražování týká firem a velkých odběratelů, kteří jsou na elektřině závislí – jako například datacentra.

Vývoj cen elektřiny

V roce 2018 rostou ceny elektřiny výrazně rychleji než v minulých letech. Za elektřinu letos platíme nejvíce za posledních šest let. Mezi příčiny patří zdražování emisních povolenek, růst cen černého uhlí a zemního plynu a také silná poptávka po energiích na světových trzích. Ceny stoupají v celé Evropě a česká ekonomika nejvíce kopíruje tu německou, kde nákupní ceny meziročně vzrostly zhruba o třetinu. Na burze cena za jednu megawatthodinu (MWh) překročila 50 EUR s tím, že na začátku roku 2018 byla cena 30 EUR.

Jen pro porovnání – v září 2017 jste za megawatthodinu zaplatili 955,- Kč. Oproti tomu v září 2018 je to 1 469,- Kč. 

Graf vývoje ceny elektřiny za poslední rok (v CZK za 1 MWh, zdroj: kurzy.cz)

Datacentrum čerpá velké množství elektřiny

I přesto, že mají datacentra záložní zdroje energie, elektřina z veřejné sítě je hlavním zdrojem pro běžný provoz. Je totiž stále řádově levnější než vyrábění energie z diesel generátorů.

Zdražení je navíc umocněno takzvanou nonIT spotřebou datacentra (spojováno s PUE), což jsou náklady, které nejdou přímo na IT vybavení, ale na podpůrné systémy (chlazení, energetické ztráty na UPS a další).

Bohužel, experti předpovídají do budoucna další zdražování elektrické energie.


Damir Špoljarič

Tento článek přináší nahlédnutí do našeho interního strategického rozhodování, proč jsme se rozhodli jít složitou cestou vlastní infrastruktury včetně stavby vlastních datacenter či vývoje vlastního hardware. 

Jak to dělají v zahraničí?

Když se podíváme na různé zahraniční společnosti zabývající se poskytováním cloudových služeb, nalezneme různé koncepty. Někteří volí pronajatou infrastrukturu jako službu (např. Heroku v AWS), někteří šli cestou vlastní infrastruktury – OVH a další. U některých vidíme změnu konceptu – RackSpace přechází z vlastní infrastruktury do Amazonu, Dropbox naopak přešel z Amazonu na vlastní řešení.

U těchto firem jde často o rozhodnutí na základě nákladů, kdy se zkrátka od určité velikosti vyplatilo řešit si infrastrukturu vlastními silami. Druhým důvodem je outsourcovat “komoditní” část a soustředit se pouze na vývoj vlastních služeb s přidanou hodnotou, což je také platný argument.

Naše cesta k vlastní infrastruktuře

Před podobným rozhodnutím jsme stáli i my a došli jsme, po dlouhém uvažování a plánování, k závěru jít cestou vlastní infrastruktury. Je to cesta, která je z určitého pohledu rizikovější a zcela jistě investičně náročnější a při aktuální velikosti firmy to nemusí dávat příliš smysl ani z pohledu provozních nákladů.

Pro služby vshosting~ na trhu střední Evropy (a od příštího roku také pro Zerops.io) využíváme primárně lokality umístěné v České republice. Postavili jsme zde naše první datové centrum a druhé datové centrum momentálně plánujeme. Kromě datového centra řešíme vlastními silami i kompletní síťovou páteřní infrastrukturu a to včetně strategických částí optických tras.

Co nás k tomu vedlo? 

A) RIZIKOVOST

Prvním impulsem, proč se oprostit od pronajaté infrastruktury, je rizikovost. Zakládáme si na kvalitních službách a byť to zní jako klišé, tak toho jde docílit pouze tak, že jste schopni řídit riziko provozu ideálně až k dodávce energie na vysokém napětí. Koncept poskytování cloudových, kolokačních a podobných služeb je z pohledu SLA změť omezených záruk a realita je taková, že plnou výši způsobených problémů reálně nikdo negarantuje. Jako ukázku doporučuji prostudovat standardní SLA Amazonu – zejména část, že při výpadku 7 a více hodin v měsíci dostanete slevu 30 %.

Nikdy jako klient nevíte, zda dodavatel (ať už datacentra nebo cloudových služeb) řeší vše tak, aby eliminoval všechna možná rizika provozu. Nevíte, zda provádí revize všech zařízení datacentra jak má a vlastně do toho nemáte možnost nijak reálně nahlédnout. U vlastní infrastruktury si rovněž můžete dovolit zainvestovat do “zbytečné” redundance navíc i u věcí, u kterých víte, že jsou provozně rizikovější a tedy ohrožují i váš byznys. My jsme takto zainvestovali do redundance chlazení N+2. I když je riziko výpadku dvou chladících jednotek během několika hodin určitě malé, tak jsme se s tím v reálném provozu už potkali.

Stejné důvody panují i u provozování vlastní páteřní sítě, kdy jsme sice odkázáni jakožto operátor na další operátory v Internetu, se kterými jsme propojeni, ale na tomto principu je ostatně založen celý Internet a riziko se snižuje tak, že je propojení realizováno s více sítěmi v rámci dynamického routingu.

B) NÁKLADY

Výše jsem popisoval, že vlastní infrastruktura u firmy naší velikosti je provozně i investičně nákladnou záležitostí. S růstem firmy nicméně vlastní infrastruktura dává větší smysl, což je umocněno i tím, že infrastrukturu máme možnost plánovat a hledat optimální cesty. Z tohoto důvodu vznikl nápad na stavbu datacentra ServerPark DC2, které bude realizováno na principu stejnosměrného napájení. Kombinací nepřímého a přímého freecoolingu s adiabatikou (dochlazování odpařováním vodní mlhy na výměníku chlazení) a s konceptem vlastních serverů zajistíme zvýšení kapacity datacentra na řádově desítky tisíc serverů a výrazné provozní úspory na spotřebě elektrické energie. Vyjádřeno v číslech – úspora nákladů oproti využití infrastruktury třetí strany bude ve výši cca 40 – 45 %.

Lokality mimo střední Evropu

S plánovanou expanzí do zemí jako je například UK budeme řešit lokální infrastrukturu. Nemáme (zatím) ambice realizovat stavbu datového centra mimo Českou republiku, tudíž v zemích mimo střední Evropu počítáme s nutností využití datacentra třetí strany, zbytek infrastruktury budeme však nadále řešit vlastní cestou. Vyplývají z toho výše zmíněné nevýhody (nemožnost řízení provozu datového centra), nicméně u služeb typu Zerops.io toto budeme kompenzovat provozem ve více nezávislých lokalitách. Zjednodušení zajistí i fakt, že Zerops.io je technicky připraven na provoz na kompletně ploché infrastruktuře na jednotném hardware. 

Nevýhody vlastní infrastruktury?

Provoz vlastní infrastruktury klade obrovské personální a znalostní nároky. Je velmi jednoduché se spálit a způsobit technický problém jen vlivem menších zkušeností než by tomu bylo v případě pronajaté infrastruktury u zkušeného poskytovatele. Kromě vývoje vlastních služeb s přidanou hodnotou tak řešíme i provoz té “spodní” infrastruktury (datacentrum, síť), což přináší náklady a stres, ale víme, proč to děláme. Chceme být i nadále prémiovým poskytovatelem.

Damir Špoljarič
Co-Founder & CEO
vshosting~ / SnackHost / Zerops.io 


Damir Špoljarič

Ve vshosting~ provozujeme obrovské množství fyzických serverů ať už pro naši cloudovou infrastrukturu, tak pro vyhrazené klientské servery. Mezi nejpoužívanější značky v našem datacentru patří SuperMicro a DELL. Tento rok jsme však v souvislosti s přípravou projektu nového datacentra začali vyvíjet vlastní hardware. Tento krok před námi udělaly i jiné velké společnosti jako Google, Facebook, OVH a desítky dalších.

Jak přesně bude vlastní hardware vypadat?

Půjde o vyvinutí vlastního chassis speciálních rozměrů s vlastním zdrojem napájení z 48VDC na standardní ATX napájení. Paměti, základní desky a procesory použijeme pro maximální spolehlivost hotové.

1. Maximální přizpůsobení projektu nového datacentra

Nové datové centrum nepočítá ve většině plochy se standardními 19’’ stojany na servery, jako je to v jiných datacentrech. Pro datové sály budou vytvořeny speciální několikařadé police, přičemž na každé polici budou umístěny stovky kusů serverů, které budou uspořádány pro maximální efektivitu.

Každá police bude vzduchově oddělena a utěsněna a bude obsahovat vlastní redundantní ventilátory zajišťující chlazení jinak pasivně chlazených serverů. Police budou disponovat vždy dvěma centrálními zdroji (větev A a B) 48V stejnosměrně rozvodem ke každému serveru.

2. Úspora nákladů

Úspora pořizovacích nákladů je značná, jelikož se neplatí výrobci za „značkový server“. Úspora je i na straně stojanů a zdrojů serverů. Z pohledu efektivity provozu dojde i k obrovské úspoře provozních nákladů díky minimálním ztrátám na zdrojích a kombinaci nepřímého free-cooling a adabiatického přímého free-cooling chlazení, které zajistí provoz bez nutnosti méně ekonomického kompresorového chlazení.

Maximální provozní efektivitě bude uzpůsoben i výběr lokality datacentra s ideálním poměrem nejnižších letních teplot a současně nejnižší vlhkostí a rovněž konstrukce a orientace budovy.

3. Jednoduchý (= rychlý) servis

Vzdálené vypnutí vadného serveru a jeho vytažení z police bez nutnosti použití nářadí bude otázkou několika minut. Pohráváme si i s myšlenkou budoucího zapojení robotů pro automatické montáže a výměny vadných serverů pro možnost bezobslužného a plně automatizovaného provozu datacentra DC2.

4. Žádný vendor lock-in

Nebudeme omezeni žádným výrobcem, který by nám diktoval, do kdy je daný typ jeho serveru podporován, nemusíme se přizpůsobovat jeho servisním programům ani seznamu podporovaných doplňkových komponent. Vše si přizpůsobíme své potřebě.

Damir Špoljarič
CEO


Damir Špoljarič

Článek vyšel pro server Lupa.cz

V několika článcích se na Lupě budu věnovat tématu stavby vlastního datacentra na zelené louce. Hodlám se zabývat podrobnějším postupem, technickými souvislostmi, legislativním postupem a zajímavostmi, se kterými se lze při stavbě této technické nemovitosti setkat. My tímto procesem znovu procházíme a jsme na jeho začátku. Tentokrát jsme zvolili na české poměry unikátní koncept.

Když jsme začali ve vshosting~ před šesti lety vymýšlet datacentrum ServerPark DC1, neměli jsme zkušenosti se stavbou ničeho, ani rodinného domku. Zvolili jsme tehdy nejvíce konzervativní technologický postup, abychom se vyvarovali neúspěchu čistě z důvodu, že projekt nezvládneme technicky zkoordinovat.

Nyní nastal čas, kdy potřebujeme druhé datacentrum, a to jak z kapacitních, tak strategických důvodů. U nového projektu DC2 jdeme cestou opačnou než v případě datacentra prvního. Volíme postup, který nám zajistí provoz datacentra bez všech rizikových prvků, jež stojí za drtivou většinou výpadků datacenter v Česku, a také s obrovským snížením nákladů jak na straně investice, tak na straně následného provozu a údržby. V dnešním článku tedy popíšu podrobnější byznysové zadání celého projektu.

Jednoúčelová stavba

Většina nových datových center vzniká jako architektonicky „hezká“ budova. Rozumím tomu, že i technická budova může být krásná na pohled. Datové centrum však není stanice metra v centru města a neschází se v něm větší množství lidí. A pokud ano, jde o technické pracovníky.

Nové datové centrum jsme tak pojali technicky racionálně a půjde ze všech aspektů primárně o účel maximální spolehlivosti bez zbytečného vynaložení nákladů na estetickou část. Zohledňujeme i to, že půjde o plně automatizované datacentrum pouze pro interní servery (nikoliv tedy pro umístění serverů zákazníků) s minimálním počtem technických pracovníků na místě.

V praxi si lze nové datové centrum představit z vnějšku jako železobetonovou kostku, případně porostlou zelení, bude-li to nutné z legislativních důvodů pro splnění kvót poměru zastavitelnosti a zeleně. Využít lze prefabrikované díly (pravděpodobně preferovaná varianta z důvodu kvality betonu a ceny), nebo použít litý beton pro větší „monolitičnost“ se vstupem s pancéřovými dveřmi sloužícími současně jako nákladní vstup.

Díky účelu budovy odpadají další nákladné prvky jako většina oken, toalet a podobně. Absence většiny oken navíc přispívá k větší bezpečnosti před atmosférickou elektřinou a budovu lze pojmout jako „Faradayovu klec“. Další nespornou výhodou je jednoduchost celé konstrukce. Budova bude navíc vybavena několikanásobnou izolací střechy a přítomností vody jen v jednom bodě budovy bez ohrožení jakékoliv technologie při havárii.

Pro kompaktnost budovy a bezpečnostní hledisko (ale i cenu) jsme kalkulací došli k výpočtu, že je rovněž vhodnější umístit diesel generátory do budovy (odpadá vyhřívání generátorů v zimě a nutnost pořizovat kapotáž nebo kontejner) a stejně je efektivnější umístit trafostanice do budovy.

První stejnosměrné datacentrum v Česku

Jako první v Česku jsme se rozhodli pro plné stejnosměrné napájení. Nejde však o žádný převratný vynález, mnoho let tento koncept úspěšně provozují Google, Facebook a další. V konečném důsledku jsou servery napájeny stejnosměrně. Historicky byly v minulosti telekomunikační ústředny v datacentrech napájeny napětím 48 V DC. Toto napětí bývá v některých datacentrech k dispozici dodnes.

stejnosměrně napájené datacentrum
Schéma jedné z větví

Pokud se podíváme na aspekt spolehlivosti, je většina výpadků datacenter po světě způsobena manipulací v rozvodně (většinou lidský faktor, není ale výjimkou ani technologický faktor selhání automatiky řízení) nebo na UPS.

Střídavé napájení je z tohoto pohledu náročnější na přepínání zdrojů, aby se tyto zdroje nepotkaly „proti sobě“, případně na fázování napájení dieselů. V UPS dochází ke konverzi ze střídavého na stejnosměrné (baterie jsou stejnosměrné) a následně opět ke konverzi na střídavé napětí. Nespornou výhodou je tak spolehlivost, jelikož stejnosměrné napájení umožňuje paralelní řazení napájecích zdrojů včetně záložních baterií bez zbytečných složitostí a rizik.

V datovém centru DC2 tak bude za trafostanicemi a diesel generátory (ty budou mít klasický střídavý výstup 400 V třífázově) usměrňovač na 326 V DC do společného výstupu jedné napájecí větve do napájecího zdroje pro 250 serverů. Každý server bude napájen ze dvou takových větví. Z tohoto zdroje je již vedeno klasické ATX napájecí napětí (+3,3 V DC, +5 V DC, +5 V SB, –5 V DC, +12 V DC, –12 V DC).

Vyšší stejnosměrné napětí sníží příliš vysoké proudy, které by tekly při „tradičnějších“ 48 V DC, což by znamenalo větší investici do kabeláže a přípojnic (více mědi znamená více peněz). Souvisí s tím značná prostorová úspora vzhledem k menším nárokům na prostory rozvoden. Společnými zdroji se dosáhne rovněž nižší energetické ztráty a snížení investičních nákladů (doufáme, v řádu nižších desítek milionů korun).

Práce na vlastních serverech

Značnou nevýhodou stejnosměrného napájení je zejména absence běžných serverů a dalších zařízení, které by bylo možné tímto způsobem snadno přímo napájet. Neplánujeme používat servery tradičních značek od běžných výrobců. Souvisí s tím jednak zbytečný náklad a také prostorová neefektivita v případě, že potřebujete zajistit maximální penetraci reálného výkonu (nikoliv jen počtu serverů) v rámci prostoru.

vývoj vlastních serverů pro nové datacentrum

V této souvislosti jsme se rozhodli pustit se do přípravy vlastního konceptu serverů za použití běžných technologií (CPU, disky, RAM, základní desky). K novému datovému centru přistupujeme jako ke snaze vyrobit „kapacitu výkonu“ pro naše cloudové služby, tedy pro virtualizaci a kontejnerizaci, a pro managed služby.

Náš tým musí vyrobit vlastní řešení projektu rozvaděče (nepůjde tedy o klasické 19“ ani 21“ racky) pro 250 serverů, respektive osazených základních desek, které budou napájeny ze společných zdrojů. Půjde o velký „blade server“ s osmi tisíci jádry a téměř 13 TB RAM. Do datového sálu se těchto „bladů“ vejde 80 a budou osazovány postupně. Na bližší konstrukci a snad i první fotky „proof of concept“ vzorku se zaměřím v některém z dalších článků.

Chlazení a vyšší teploty

Chlazení se podílí nejvyšší měrou na efektivitě datacentra a je spolu s energetikou jedním ze dvou základních faktorů určující spolehlivost datacentra. Většina datacenter jde cestou chlazení přímým výparem. Známe to všichni – máme to v autech, v lednici, v domácí klimatizaci.

Větší datová centra volí složitější cestu chlazení pomocí směsi vody a ethylenglykolu, která má ale řadu rizik a nepatří mezi nejefektivnější varianty. Chlazení olejem jsme zavrhli jako z našeho pohledu příliš experimentální a logisticky omezující variantu, byť z pohledu efektivity půjde o jedno z nejefektivnějších řešení, o čemž nás přesvědčovali už kolegové ve Spojených státech i ve Vídni, kde jsme si systém chlazení olejem před pár lety prohlíželi.

DC2 se snažíme koncipovat jako efektivní. I díky vlastní konstrukci serverů předpokládáme možnost použití vyšších teplot (idea je 35+ °C). To nám umožní při použití freecoolingu minimalizovat počet hodin v nejteplejších letních dnech, ve kterých bude potřeba „přichlazování“ pomocí přímého výparu. Ideálně se tomu chceme vyhnout.

Na stole jsou varianty přímého a nepřímého vzduchového freecoolingu. Přímým freecoolingem dosáhneme výrazně lepší účinnosti (PUE), ovšem použití přímého freecoolingu v průmyslových oblastech, ve kterých bychom rádi DC2 postavili (výběrem lokality se budu zabývat v dalším článku), komplikuje použití přímého freecoolingu kvalita ovzduší (zanášení filtrů a podobně).

Varianta nepřímého freecoolingu je z tohoto pohledu lepší, ovšem za cenu horší účinnosti. Oproti přímému výparu bude ale stále účinnost takového chlazení výrazně zajímavá (nepřímým freecoolingem a přímým výparem bude v koeficientu efektivity PUE rozdíl cca 0,3). Účinnost nepřímého freecoolingu se vylepšuje adiabatickým předchlazením, ideálně za použití nashromážděné dešťové vody, která nevyžaduje úpravu tvrdosti.

Hašení pro nepravděpodobné situace

Byť považuji požár v datacentru za silně nepravděpodobný (minimum hořlavých materiálů), požár v datacentru České pošty ukazuje, že není nereálný. Naše DC2 bude disponovat hašením FM-200 (pro datový sál). Případně obdobným, dle legislativních možností, FM-200 pro nové instalace a technologické prostory rozvoden, generátorů a trafostanic. Ty budou zabezpečeny „hrubějším“ a efektivnějším hašením CO2.

Klíčové prvky 2 x N

Všechny klíčové prvky budou dvakrát N a zajistíme oddělitelnost jednotlivých prvků z pohledu vnějších vlivů (požár a podobně).

Jinak aktuálně procházíme verifikací našich myšlenek. A to jak s projektanty jednotlivých profesí, tak s provozovateli koncepčně podobných datacenter mimo Českou republiku. Chceme získat informace o provozních zkušenostech a pracujeme na „proof of concept“ vlastního hardwaru.

Paralelně s tím jednáme o vhodném pozemku, čemuž se budu věnovat v dalším článku. Následně nás čeká příprava projektové dokumentace pro první legislativní stupeň – tedy dokumentace pro vydání územního rozhodnutí.

Damir Špoljarič


Damir Špoljarič

Jaké jsou preference poskytovatelů internetového připojení? Špičková infrastruktura, globální konektivita a skvělá cena. Na těchto atributech jsme vystavěli a spustili zcela novou službu TRANSIT4ISP.

Je určená zejména pro malé a střední poskytovatele internetového připojení (ISP), kteří se díky ní budou moci propojit s nejvyspělejšími a nejspolehlivějšími sítěmi po celém světě. Umožňuje to zejména naše vlastní páteřní síť postavená na 100Gbps technologii, jejíž kapacita zdaleka není využitá, a proto jsme se rozhodli její možnosti ještě lépe zhodnotit.

Špičková konektivita

ServerPark infrastruktura

Jakýkoliv ISP se díky naší existující robustní infrastruktuře může propojit:

  • přes Tier 1 sítě (například Telia s přímým 100Gbps spojením)
  • přes Tier 2 sítě (například Cogent)
  • napřímo ve strategicky důležitých uzlech (například v DE-CIX ve Frankfurtu, největším peeringovém centru na světě)
  • napřímo v NIX.CZ (aktuální kapacita 40 Gbps s možností upgradu na 2 x 100 Gbps) nebo NIX.SK

Hardware pro fajnšmekry

Pro výstavbu infrastruktury jsme použili pouze prvotřídní hardware, který reprezentují především routery Juniper MX960 a switche Nexus 7k + 3k. Vysoká spolehlivost páteřní sítě je zajištěná nejen její perfektní redundancí (včetně našich vlastních optických vláken ve strategických částech trasy), ale také absencí souběhů. Vaše data se tak přenášejí přesně tak, jak mají – rychle, stabilně a spolehlivě.

Skvělá cena, bezplatné období a anti-DDoS

Ceny globální konektivity v TRANSIT4ISP začínají na 0,19 EUR za Megabit v závislosti na tom, jakou kapacitu zvolíte. Kromě toho nabízíme rozšíření základní služby o anti-DDoS řešení. Připojit se k datové infrastruktuře můžete na několika místech v Praze a Bratislavě a v rámci NIX.CZ a jiných peeringových center. Všechny výhody TRANSIT4ISP si navíc můžete vyzkoušet během 30denního bezplatného období – stačí nás kontaktovat.

Více informací včetně kontaktu najdete na www.TRANSIT4ISP.cz.


vshosting~

V těchto dnech jsme podepsali první smlouvu na 100Gbps globální propojení, konkrétně se společnosti Telia Carrier, která patří mezi TIER1 operátory. Jaké výhody z toho plynou pro naše klienty?

Technologie 100Gbps

100Gbps technologie stále patří mezi technologické novinky. Například první instalace 100Gbps Cisco zařízení proběhla teprve před 7 lety (duben 2011) u společností AT&T a Comcast. 100Gbps technologie se neustále rozvíjí a posledních pár let je dobře dostupná napříč výrobci síťových prvků.

10Gbps přestaly stačit i kvůli DDoS útokům

vshosting~ dlouhodobě provozoval všechny své páteřní propoje na 10Gbps, na který jsme přešli před mnoha lety. Jelikož 10Gbps brzy přestávaly kapacitně dostačovat, začaly se porty agregovat, což má ale také své kapacitní limity. Jedním z dalších důvodů, proč jsme začali uvažovat o 100Gbps propojení s okolním světem, byl nárůst a zvyšující se intenzita ddos útoků.

Základním, ne však jediným, předpokladem pro odolání ddos útoku je mít dostatečně nadimenzovanou páteřní síť a zvládnout datový přenos ve špičce při mimořádné události bez ovlivnění kvality propojení.

Jsme připraveni na datově náročné projekty a poskytujeme ještě vyšší bezpečnost

Nová technologie zajistí ještě robustnější síť, která zvládne větší datové špičky a dokáže obhospodařit i extrémně datově náročné projekty. Dalším velmi důležitým přínosem je vyšší provozní bezpečnost.

Aby měla nová technologie význam a vytěžili jsme z ní maximum, upgradovali jsme před rokem postupně všechny páteřní routery a switche na Juniper MX960 a Nexus 7k (https://vshosting.cz/upgrade-site-uspesne-za-nami-prectete-si-jak-vse-probihalo/ ).

V našem datacentru najdete i několik switchů Nexus 3232C s 32x 100Gbps porty ?

100Gbps konektivita
cisco hardware vshosting~

Jako první hosting budeme propojeni na 100Gbps technologii s okolním světem

Aby nezůstalo jen u vnitřního propojení a 100Gbps nesloužil jen pro marketingové účely, je nutné, aby bylo 100Gbps propojení realizováno i s okolním světem. vshosting~ se tak propojuje s historicky prvním 100Gbps operátorem a disponujeme tedy nejen 100Gbps propojeními v rámci vnitřní sítě (propustnost sítě je mimochodem přes 1Tbps ;-)), ale zejména 100Gbps propojením se světem.

Nabízela se možnost využít řadu „low cost“ 100Gbps řešení, nicméně globální operátor Telia, původem ze Švédska a jeden z mála TIER1 operátorů, se nám v posledních letech osvědčil, tudíž  s ním zůstaneme propojeni a pouze vyměníme technologii z 2x 10Gbps na 100Gbps. Následovat budou další 100Gbps propoje a jsme také připraveni v budoucnu na rychlý upgrade z 40Gbps (4x 10Gbps) na 200Gbps (2x 100Gbps v nezávislých lokalitách) do NIX.CZ

Podívejte se na novou topologii vshosting~ páteřní sítě, kterou se jiné české hostingové firmy pyšnit nemohou:

nová topologie páteřní sítě vshosting~

Damir Špoljarič

Procesory obsahují dvě bezpečnostní chyby s názvy Meltdown a Spectre. Ty potenciálně umožňují útočným programům dostat se k datům, která jsou v počítači aktuálně zpracovávána. Meltdown je schopen přerušit bariéru, která je mezi uživatelskými aplikacemi a operačním systémem, a získat tak přístup do paměti v rámci stejného cloudu. Spectre umožňuje aplikacím dostat se do různých míst paměti. Chyba se týká x86-64 procesorů, tedy procesorů používaných ve všech cloudech po celém světě.

Náš bezpečnostní tým a tým infrastruktury na nápravách usilovně pracují. Po vydání updatů pro operační systémy, budeme úpravy nasazovat na všechny managed a interní servery. V médiích se objevují tvrzení o snižování výkonu až o desítky procent, což není aktuáně potvrzeno a bude to záležet na konkrétních případech. U serverů, kde by mohly nastat provozní komplikace v důsledku nedostatku výkonu, budeme klientům doporučovat preventivní navýšení výkonu.

V případě dotazů nás kontaktujte emailem na podpora@vshosting.cz

Doporučení:

Webové aplikace udržujte vždy kompatibilní s aktuálními verzemi PHP a dalších komponent, aby bylo možné udržovat aktuální verzi operačního systému, která je podporovaná komunitou či výrobcem včetně bezpečnostních aktualizací.

Dlouhodobě upozorňujeme uživatele na zastaralost PHP verzí až do verze 5.3 včetně (od jara 2018 od verze 5.4 dále). Zastaralost přináší komplikace z pohledu nutnosti provozování zastaralých verzí souvisejících knihoven a operačních systémů z důvodu kompatibility. Nové verze PHP (7+) navíc disponují výrazně větším výkonem. Nejde samozřejmě jen o verzi PHP, nicméně staré verze PHP nejčastěji tvoří blocker, a vytváří tak zbytečné bezpečnostní riziko.


Během 17 let jsme provedli úspěšnou migrací stovky klientů. Pomůžeme i vám.

  1. Domluvte se na konzultaci

    Stačí nám zanechat kontakt. Obratem se vám ozveme.

  2. Bezplatný návrh řešení

    Nezávazně probereme, jak vám můžeme pomoct. Navrhneme řešení na míru.

  3. Profesionální realizace

    Připravíme vám prostředí pro bezproblémovou migraci dle společného návrhu.

Zanechte nám svůj e-mail nebo telefon




    Nebo nás kontaktujte napřímo

    +420 246 035 835 V provozu 24/7
    konzultace@vshosting.cz
    Zkopírovat
    Obratem se vám ozveme