fbpx
vshosting~

Peering je v internetovém pojetí propojení 2 internetových operátorů, kteří si vzájemně přes routovací protokol BGP vymění informace o svém autonomním systému, IP adresách a sítích svých klientů, které propagují do Internetu. Díky peeringu dvou operátorů je tedy zajištěno, že data tečou mezi těmito operátory napřímo a pro klienty obou operátorů to tak znamená, že je propojení rychlé.

Pokud někdo s někým nemá peering, data si hledají přes dynamické routování BGP, na kterém je založena funkčnost celého Internetu po celém světě, cestu přes jiné operátory a data tak tečou cestou delší, což zvyšuje datové latence.

Aby se usnadnilo propojování operátorů, vznikají po světe tzv. „peerigová centra“. V České republice to je NIX.CZ. Peeringové centrum si lze představit jako velký switch, který na L2 vrstvě zajišťuje, že jsou všichni propojeni se všemi. Reálná funkčnost peeringu je ale řešena až následně na úrovni routování, kdy oba operátoři navazující peering nastaví ve svém routeru příslušná nastavení protistrany, tedy druhého operátora. Peeringové centrum vše ulehčuje jen po fyzické stránce, aby nebylo nutné mít s každým operátorem vyhrazené propojení, což je nekoncepční. V takovém případě by museli mít všichni operátoři propojení se všemi a bylo by to velice nákladné.

Čím dál více se z peeringu stává předmět obchodního jednání mezi operátory, kdy operátoři vzájemně jednají o tom, pro kterou stranu je peering cennější, kdo by měl komu začít platit apod. Občas tato jednání bývají zdlouhavá a náročná. Však také mnohá jednání o peeringu spolu vedou vzájemní konkurenti. Peering je však nutná neutrální technologická spolupráce operátorů, bez které by Internet neexistoval. Obdobně existují restriktivní požadavky operátorů, kteří mohou pro navázání peeringu s protistranou žádat například propojení ve více peeringových centrech (tedy i v několika zemích), určitý poměr odchozího/příchozího trafficu apod. Pro určování peeringové politiky operátora se vžil pojem „peering policy“, kterým poskytovatel deklaruje, jaká je jeho peeringová politika. Politika VSHostingu a zatím ještě stále většiny operátorů je otevřená, tedy open peering policy. VSHosting tedy peeruje bezplatně s každým operátorem, který o to požádá. Věříme, že otevřená peeringová politika firmy přispívá k rychlejšímu rozvoji Internetu a vyšší kvalitě propojení.

VSHosting je od roku 2008 člen peeringového centra NIX.CZ a od roku 2009 dalších evropských peering center (např. SIX.SK na Slovensku).


Damir Špoljarič

Rád bych Vás tímto informoval o souhrnu důležitých aktualit z vshosting~, které se udály v několika posledních měsících a jaké prioritní inovace a projekty nás čekají.

Novinky v datacentru / datacentrech ?

Pomalu ale jistě se připravujeme v ServerPark DC1 na dostavbu třetí, tedy poslední technologické etapy. Aktuálně jsme alokovali poslední racky pro instalaci nových serverů. Jelikož jsme velice důkladní a jak mnozí konkurenti říkají, že až zbytečně paranoidní, provádíme každých půl roku důkladné testování záložního bateriového systému UPS, který zahrnuje i například měření každé jednotlivé baterie při vybíjení.

Po tuto dobu je celé datacentrum z preventivních důvodů napájeno ze záložních generátorů a vždy se provádí revize UPS pouze jedné napájecí větve (servery jsou napájeny ze dvou samostatných UPS). Proběhlo také rozšíření kapacity UPS pro instalaci dalších serverů o 120kW, tedy záložní bateriová kapacita pro dalších až 600 serverů.

Pokračují také přípravy na novém, v České republice přelomovém, datovém centru. O přípravě jsme začali psát odborné články na Lupa.cz. Nové datové centrum bude po vzoru Google, Facebook a desítek dalších postaveno kompletně stejnosměrně a navíc na vlastních serverech, jehož vývoj koordinujeme s největším českým internetovým projektem, který pracuje na podobném projektu.

Celé datacentrum bude chlazeno unikátním nepřímým freecoolingem s dochlazováním nasbíranou dešťovou vodou. Celý unikátní koncept je takto zvolen z důvodu maximální spolehlivosti (odpadají všechny poruchové prvky tradičních datacenter – rozvodny, silové přepínací prvky, tradiční UPS apod.) a maximální využitelnosti a provozní efektivity. Po desítkách let půjde v ČR o první opravdu netradiční a unikátní datové centrum v ČR, navíc ověřené několik let u největších internetových hráčů.

Expanze, pobočka, tým

Z důvodů razantního rozšíření týmu jsme otevřeli pár set metrů od vshosting~ centrály další pobočku určenou pro kolegy z obchodu a marketingu. Je to krok, který jsem se snažil dlouhodobě oddalovat. Trhat tým na více částí není dobré řešení, ale kanceláře ServerParku bohužel nejsou nafukovací.

vshosting~ v posledních měsících roste i z pohled počtu klientů rychleji než kdy dříve (aktuálně přesahujeme 150% našeho růstového plánu pro tento rok). Největší podíl na tom má segment e-commerce, pro který jsme s přehledem dominantním hráčem na českém i slovenském trhu. Již brzy zveřejníme řadu zajímavých nových referencí v tomto segmentu ;-).

Nová klientská zóna

Po 12 letech makáme na nové klientské zóně. Přinášíme malou ochutnávku. Děláme vše proto, aby nová klientská zóna byla hotová pro klienty ještě letos, respektive od začátku ledna. Nová klientská  zóna přinese výrazně vyšší komfort většiny uživatelských činností a zlepší přehlednost.

Spolu s klientskou zónou vyvíjíme interně celý nový informační systém, který nám pomůže při rychlém růstu a nahrazuje spoustu „ruční práce“ automatickými či poloautomatickými procesy. 

Nové služby

Před pár měsíci jsme zveřejnili novou službu Managed Platform for Kubernetes. Jako první ve střední Evropě nabízíme kompletní managed řešení cílené na aplikace provozované v Docker kontejnerech s Kubernetes vhodné i pro rozsáhlé aplikace.

Z důvodu upgradu páteřní konektivity disponujeme obrovskou nevyužitou kapacitou páteřní globální konektivity, zejména příchozí směr (jako hosting provozující datové toky primárně směrem ven – tedy od serveru k uživateli, máme příchozí směr využitý jen minimálně). Z tohoto důvodu jsme připravili službu pro poskytovatele internetového připojení s možností získat nejlepší možnou konektivitu za výhodné podmínky. Služba nese název Transit4ISP a byla spuštěna před pár týdny.

100Gbps

Jak jsme již uváděli v mnoha předchozích článcích, provedli jsme upgrade na 100Gbps infrastrukturu a jako první hosting máme rovněž i 100Gbps propojení se zbytkem světa, konkrétně ke špičkovému TIER1 operátorovi Telia Sonera. Upgrade proběhl ve dvou předem oznámených servisních oknech bez komplikací :-). Současně s tím jsme zřídili optické propojení s Google a sítě vshosting~ a Google jsou tak nyní propojeny napřímo. 

vshosting~ se také stal členem zabezpečené VLAN NIXu zvané FENIX, čímž prokázal úroveň zabezpečení své páteřní sítě a jako první v ČR jsme také členem organizace MANRS spolu s firmami jako jsou COMCAST, SWISSCOM a další. Kolegové z network oddělení se také účastnili národního kybernetického cvičení.

Zerops.io

Usilovně makáme na přelomové službě Zerops. Již brzy zprovozníme web www.zerops.io s podrobnostmi (nyní si alespoň můžete přečíst první články na blogu, který již v provozu je ?). Zerops bude první plně automatizovanou DevOps platformou, která vývojářům zajistí provoz infrastruktury s maximálním pohodlím a jednoduchostí.

Přeji hezké a klidné léto.

Damir Špoljarič

CEO


Damir Špoljarič

Docker v poslední době nabývá na popularitě. O Dockeru můžeme mluvit jako o kontejnerové virtualizaci, což je správně, ale určitě to plně nevystihuje jeho účel. Možná je přesnější hovořit o izolaci procesů. Ani to ale nevyjádří přesnou podstatu.

O Dockeru lze uvažovat i jako o virtualizaci, která nemá žádný overhead. Start kontejneru je okamžitý, kernel se sdílí s podkladovým OS a ani nedochází k žádnému zpomalení při vlastním běhu programu, resp. jde vlastně o fork systemd procesu. Nejlepší tedy bude mluvit o Dockeru jako o Dockeru.

Výhody používání Docker

Docker, stejně jako jiné kontejnerové virtualizace, odstraňuje jeden z velkých problémů samotné virtualizace – nároky na hardware. Některé virtualizace mohou spotřebovat až 1/5 výkonu. Klasická virtualizace, jak ji zná dnes asi už každý, pracuje s modelem hardware – hostitelský OS – hypervisor – klientský OS – aplikace.

U Dockeru je to jinak. Kontejnery totiž sdílí jednu linuxovou instanci, nad kterou se pak jednotlivé izolované procesy spouští. Pracuje tedy s modelem hardware – OS – docker engine – a pak už rovnou aplikace.

Technologie Docker není náhradou za LXC. „LXC“ se odkazuje na jádro Linuxu (jmenovitě jmenných prostorů a řídících skupin), které umožňuje navzájem vytvářet procesy mezi jednotlivými oblastmi a řídit přidělování prostředků. Na vrcholu této nízké úrovně funkcí jádra nabízí Docker nástroj na vysoké úrovni s mnoha výkonnými funkcemi.

Docker je (narozdíl od strojů) optimalizován pro nasazení aplikací. To se odráží v jeho rozhraní API, uživatelském rozhraní, filozofii návrhu a dokumentaci. Naproti tomu skripty LXC se zaměřují na kontejnery jako lehké stroje – v podstatě na servery, které se bootují rychleji a potřebují méně paměti.

Nejzajímavějši funkce Docker

Přenosné nasazení mezi stroji

Docker definuje formát pro zabalení aplikace a všech jejích závislostí do jednoho objektu nazvaného kontejner. Docker jako kontejner lze v přeneseném smyslu slova skutečně s kontejnerem srovnávat. Cokoliv, myšleno aplikace a její prostředí, do něj uzavřete, můžete snadno přenést kamkoliv. Kdekoliv ho použijete bude fungovat stále stejně.

Automatický build

Docker obsahuje nástroj pro vývojáře k automatickému sestavení kontejneru ze zdrojového kódu s plnou kontrolou závislostí aplikací, vytvářením nástrojů, balením, apod. Volně jsou k použití make, maven, chef, puppet, salt, balíčky Debian, RPM, zdroj tarballs nebo jakékoli kombinace výše uvedených, bez ohledu na konfiguraci strojů.

Verze

Docker obsahuje funkce typu git pro sledování následných verzí kontejneru, kontrolu rozdílu mezi verzemi, zavádění nových verzí, rollback atd. Historie také zahrnuje, jak byl kontejner sestaven a kým. Získáte tak sledovatelnost celé cesty z produkčního serveru až k vývojáři. Docker také provádí inkrementální nahrávání a stahování, podobně jako git pull, takže nové verze kontejneru mohou být přenášeny pouze odesláním diffs.

Klony

Každý kontejner může být použit jako “rodičovský obraz” pro vytvoření více specializovaných komponent. To lze provést ručně nebo jako součást automatizovaného buildu. 

I když ve způsobu používání Dockeru nikomu nic nebrání, měly by se v rámci udržitelnosti vytvářet pouze kontejnery obsahující jednu aplikaci. Pokud použijete aplikací více, vzniká riziko konfliktních závislostí, a to jde přímo proti filosofii Dockeru, kterou je snadná přenositelnost. Proto jsou od více-aplikačních kontejnerů vývojáři samotným Dockerem odrazováni.

Při definování docker image je především nutné dodržet alespoň tato pravidla:

  • mít explicitně deklarované a izolované závislosti
  • konfiguraci mít uloženou do prostředí
  • počítat s možností neomezeného škálování aplikace nahoru i dolů

Bezstavové vs. stavové aplikace

Obecně se pak dá říct, že je Docker nejsilnější v provozu bezstavových aplikací. U aplikací stavových, jako jsou typicky databázové servery, dává jeho použití smysl pouze v určitých případech. U jednoinstančních instalací Dockeru může být smysl v provozování stavových aplikací pouze pro účely nějakých development nebo testing verzí.

Pokud se ale budeme bavit o provozování Dockeru na nějaké větší platformě s množstvím fyzických serverů, tak mohou být škálovatelné stavové aplikace zajímavou možností, jak v závislosti na vytížení aplikace upravovat její výkon. Typicky Docker Mysql Cluster.

Na závěr lze říci, že se jedná o velmi sofistikovaný a výkonný nástroj pro development a testing aplikací. Pro jeho použití v produkčním prostředí je ale nutné projít trošku delší cestu.

Pokud hledáte prostředí pro větší projekty, které je postavené na Dockeru, mrkněte na naší službu Managed Platform for Kubernetes. Ta nabízí plně automatizovanou infrastrukturu pro Docker aplikace.


Damir Špoljarič

Článek vyšel pro server Lupa.cz

V několika článcích se na Lupě budu věnovat tématu stavby vlastního datacentra na zelené louce. Hodlám se zabývat podrobnějším postupem, technickými souvislostmi, legislativním postupem a zajímavostmi, se kterými se lze při stavbě této technické nemovitosti setkat. My tímto procesem znovu procházíme a jsme na jeho začátku. Tentokrát jsme zvolili na české poměry unikátní koncept.

Když jsme začali ve vshosting~ před šesti lety vymýšlet datacentrum ServerPark DC1, neměli jsme zkušenosti se stavbou ničeho, ani rodinného domku. Zvolili jsme tehdy nejvíce konzervativní technologický postup, abychom se vyvarovali neúspěchu čistě z důvodu, že projekt nezvládneme technicky zkoordinovat.

Nyní nastal čas, kdy potřebujeme druhé datacentrum, a to jak z kapacitních, tak strategických důvodů. U nového projektu DC2 jdeme cestou opačnou než v případě datacentra prvního. Volíme postup, který nám zajistí provoz datacentra bez všech rizikových prvků, jež stojí za drtivou většinou výpadků datacenter v Česku, a také s obrovským snížením nákladů jak na straně investice, tak na straně následného provozu a údržby. V dnešním článku tedy popíšu podrobnější byznysové zadání celého projektu.

Jednoúčelová stavba

Většina nových datových center vzniká jako architektonicky „hezká“ budova. Rozumím tomu, že i technická budova může být krásná na pohled. Datové centrum však není stanice metra v centru města a neschází se v něm větší množství lidí. A pokud ano, jde o technické pracovníky.

Nové datové centrum jsme tak pojali technicky racionálně a půjde ze všech aspektů primárně o účel maximální spolehlivosti bez zbytečného vynaložení nákladů na estetickou část. Zohledňujeme i to, že půjde o plně automatizované datacentrum pouze pro interní servery (nikoliv tedy pro umístění serverů zákazníků) s minimálním počtem technických pracovníků na místě.

V praxi si lze nové datové centrum představit z vnějšku jako železobetonovou kostku, případně porostlou zelení, bude-li to nutné z legislativních důvodů pro splnění kvót poměru zastavitelnosti a zeleně. Využít lze prefabrikované díly (pravděpodobně preferovaná varianta z důvodu kvality betonu a ceny), nebo použít litý beton pro větší „monolitičnost“ se vstupem s pancéřovými dveřmi sloužícími současně jako nákladní vstup.

Díky účelu budovy odpadají další nákladné prvky jako většina oken, toalet a podobně. Absence většiny oken navíc přispívá k větší bezpečnosti před atmosférickou elektřinou a budovu lze pojmout jako „Faradayovu klec“. Další nespornou výhodou je jednoduchost celé konstrukce. Budova bude navíc vybavena několikanásobnou izolací střechy a přítomností vody jen v jednom bodě budovy bez ohrožení jakékoliv technologie při havárii.

Pro kompaktnost budovy a bezpečnostní hledisko (ale i cenu) jsme kalkulací došli k výpočtu, že je rovněž vhodnější umístit diesel generátory do budovy (odpadá vyhřívání generátorů v zimě a nutnost pořizovat kapotáž nebo kontejner) a stejně je efektivnější umístit trafostanice do budovy.

První stejnosměrné datacentrum v Česku

Jako první v Česku jsme se rozhodli pro plné stejnosměrné napájení. Nejde však o žádný převratný vynález, mnoho let tento koncept úspěšně provozují Google, Facebook a další. V konečném důsledku jsou servery napájeny stejnosměrně. Historicky byly v minulosti telekomunikační ústředny v datacentrech napájeny napětím 48 V DC. Toto napětí bývá v některých datacentrech k dispozici dodnes.

stejnosměrně napájené datacentrum
Schéma jedné z větví

Pokud se podíváme na aspekt spolehlivosti, je většina výpadků datacenter po světě způsobena manipulací v rozvodně (většinou lidský faktor, není ale výjimkou ani technologický faktor selhání automatiky řízení) nebo na UPS.

Střídavé napájení je z tohoto pohledu náročnější na přepínání zdrojů, aby se tyto zdroje nepotkaly „proti sobě“, případně na fázování napájení dieselů. V UPS dochází ke konverzi ze střídavého na stejnosměrné (baterie jsou stejnosměrné) a následně opět ke konverzi na střídavé napětí. Nespornou výhodou je tak spolehlivost, jelikož stejnosměrné napájení umožňuje paralelní řazení napájecích zdrojů včetně záložních baterií bez zbytečných složitostí a rizik.

V datovém centru DC2 tak bude za trafostanicemi a diesel generátory (ty budou mít klasický střídavý výstup 400 V třífázově) usměrňovač na 326 V DC do společného výstupu jedné napájecí větve do napájecího zdroje pro 250 serverů. Každý server bude napájen ze dvou takových větví. Z tohoto zdroje je již vedeno klasické ATX napájecí napětí (+3,3 V DC, +5 V DC, +5 V SB, –5 V DC, +12 V DC, –12 V DC).

Vyšší stejnosměrné napětí sníží příliš vysoké proudy, které by tekly při „tradičnějších“ 48 V DC, což by znamenalo větší investici do kabeláže a přípojnic (více mědi znamená více peněz). Souvisí s tím značná prostorová úspora vzhledem k menším nárokům na prostory rozvoden. Společnými zdroji se dosáhne rovněž nižší energetické ztráty a snížení investičních nákladů (doufáme, v řádu nižších desítek milionů korun).

Práce na vlastních serverech

Značnou nevýhodou stejnosměrného napájení je zejména absence běžných serverů a dalších zařízení, které by bylo možné tímto způsobem snadno přímo napájet. Neplánujeme používat servery tradičních značek od běžných výrobců. Souvisí s tím jednak zbytečný náklad a také prostorová neefektivita v případě, že potřebujete zajistit maximální penetraci reálného výkonu (nikoliv jen počtu serverů) v rámci prostoru.

vývoj vlastních serverů pro nové datacentrum

V této souvislosti jsme se rozhodli pustit se do přípravy vlastního konceptu serverů za použití běžných technologií (CPU, disky, RAM, základní desky). K novému datovému centru přistupujeme jako ke snaze vyrobit „kapacitu výkonu“ pro naše cloudové služby, tedy pro virtualizaci a kontejnerizaci, a pro managed služby.

Náš tým musí vyrobit vlastní řešení projektu rozvaděče (nepůjde tedy o klasické 19“ ani 21“ racky) pro 250 serverů, respektive osazených základních desek, které budou napájeny ze společných zdrojů. Půjde o velký „blade server“ s osmi tisíci jádry a téměř 13 TB RAM. Do datového sálu se těchto „bladů“ vejde 80 a budou osazovány postupně. Na bližší konstrukci a snad i první fotky „proof of concept“ vzorku se zaměřím v některém z dalších článků.

Chlazení a vyšší teploty

Chlazení se podílí nejvyšší měrou na efektivitě datacentra a je spolu s energetikou jedním ze dvou základních faktorů určující spolehlivost datacentra. Většina datacenter jde cestou chlazení přímým výparem. Známe to všichni – máme to v autech, v lednici, v domácí klimatizaci.

Větší datová centra volí složitější cestu chlazení pomocí směsi vody a ethylenglykolu, která má ale řadu rizik a nepatří mezi nejefektivnější varianty. Chlazení olejem jsme zavrhli jako z našeho pohledu příliš experimentální a logisticky omezující variantu, byť z pohledu efektivity půjde o jedno z nejefektivnějších řešení, o čemž nás přesvědčovali už kolegové ve Spojených státech i ve Vídni, kde jsme si systém chlazení olejem před pár lety prohlíželi.

DC2 se snažíme koncipovat jako efektivní. I díky vlastní konstrukci serverů předpokládáme možnost použití vyšších teplot (idea je 35+ °C). To nám umožní při použití freecoolingu minimalizovat počet hodin v nejteplejších letních dnech, ve kterých bude potřeba „přichlazování“ pomocí přímého výparu. Ideálně se tomu chceme vyhnout.

Na stole jsou varianty přímého a nepřímého vzduchového freecoolingu. Přímým freecoolingem dosáhneme výrazně lepší účinnosti (PUE), ovšem použití přímého freecoolingu v průmyslových oblastech, ve kterých bychom rádi DC2 postavili (výběrem lokality se budu zabývat v dalším článku), komplikuje použití přímého freecoolingu kvalita ovzduší (zanášení filtrů a podobně).

Varianta nepřímého freecoolingu je z tohoto pohledu lepší, ovšem za cenu horší účinnosti. Oproti přímému výparu bude ale stále účinnost takového chlazení výrazně zajímavá (nepřímým freecoolingem a přímým výparem bude v koeficientu efektivity PUE rozdíl cca 0,3). Účinnost nepřímého freecoolingu se vylepšuje adiabatickým předchlazením, ideálně za použití nashromážděné dešťové vody, která nevyžaduje úpravu tvrdosti.

Hašení pro nepravděpodobné situace

Byť považuji požár v datacentru za silně nepravděpodobný (minimum hořlavých materiálů), požár v datacentru České pošty ukazuje, že není nereálný. Naše DC2 bude disponovat hašením FM-200 (pro datový sál). Případně obdobným, dle legislativních možností, FM-200 pro nové instalace a technologické prostory rozvoden, generátorů a trafostanic. Ty budou zabezpečeny „hrubějším“ a efektivnějším hašením CO2.

Klíčové prvky 2 x N

Všechny klíčové prvky budou dvakrát N a zajistíme oddělitelnost jednotlivých prvků z pohledu vnějších vlivů (požár a podobně).

Jinak aktuálně procházíme verifikací našich myšlenek. A to jak s projektanty jednotlivých profesí, tak s provozovateli koncepčně podobných datacenter mimo Českou republiku. Chceme získat informace o provozních zkušenostech a pracujeme na „proof of concept“ vlastního hardwaru.

Paralelně s tím jednáme o vhodném pozemku, čemuž se budu věnovat v dalším článku. Následně nás čeká příprava projektové dokumentace pro první legislativní stupeň – tedy dokumentace pro vydání územního rozhodnutí.

Damir Špoljarič


Damir Špoljarič

Jaké jsou preference poskytovatelů internetového připojení? Špičková infrastruktura, globální konektivita a skvělá cena. Na těchto atributech jsme vystavěli a spustili zcela novou službu TRANSIT4ISP.

Je určená zejména pro malé a střední poskytovatele internetového připojení (ISP), kteří se díky ní budou moci propojit s nejvyspělejšími a nejspolehlivějšími sítěmi po celém světě. Umožňuje to zejména naše vlastní páteřní síť postavená na 100Gbps technologii, jejíž kapacita zdaleka není využitá, a proto jsme se rozhodli její možnosti ještě lépe zhodnotit.

Špičková konektivita

ServerPark infrastruktura

Jakýkoliv ISP se díky naší existující robustní infrastruktuře může propojit:

  • přes Tier 1 sítě (například Telia s přímým 100Gbps spojením)
  • přes Tier 2 sítě (například Cogent)
  • napřímo ve strategicky důležitých uzlech (například v DE-CIX ve Frankfurtu, největším peeringovém centru na světě)
  • napřímo v NIX.CZ (aktuální kapacita 40 Gbps s možností upgradu na 2 x 100 Gbps) nebo NIX.SK

Hardware pro fajnšmekry

Pro výstavbu infrastruktury jsme použili pouze prvotřídní hardware, který reprezentují především routery Juniper MX960 a switche Nexus 7k + 3k. Vysoká spolehlivost páteřní sítě je zajištěná nejen její perfektní redundancí (včetně našich vlastních optických vláken ve strategických částech trasy), ale také absencí souběhů. Vaše data se tak přenášejí přesně tak, jak mají – rychle, stabilně a spolehlivě.

Skvělá cena, bezplatné období a anti-DDoS

Ceny globální konektivity v TRANSIT4ISP začínají na 0,19 EUR za Megabit v závislosti na tom, jakou kapacitu zvolíte. Kromě toho nabízíme rozšíření základní služby o anti-DDoS řešení. Připojit se k datové infrastruktuře můžete na několika místech v Praze a Bratislavě a v rámci NIX.CZ a jiných peeringových center. Všechny výhody TRANSIT4ISP si navíc můžete vyzkoušet během 30denního bezplatného období – stačí nás kontaktovat.

Více informací včetně kontaktu najdete na www.TRANSIT4ISP.cz.


Během 17 let jsme provedli úspěšnou migrací stovky klientů. Pomůžeme i vám.

  1. Domluvte se na konzultaci

    Stačí nám zanechat kontakt. Obratem se vám ozveme.

  2. Bezplatný návrh řešení

    Nezávazně probereme, jak vám můžeme pomoct. Navrhneme řešení na míru.

  3. Profesionální realizace

    Připravíme vám prostředí pro bezproblémovou migraci dle společného návrhu.

Zanechte nám svůj e-mail nebo telefon




    Nebo nás kontaktujte napřímo

    +420 246 035 835 V provozu 24/7
    konzultace@vshosting.cz
    Zkopírovat
    Obratem se vám ozveme