Новото поколение центрове за данни, които се стремят да предлагат евтини услуги, за да настигнат големите и утвърдени играчи на пазара, няма да успеят да издържат на технологичните промени, задаващи се в сектора. Те няма да имат финансовия ресурс да изградят ново поколение системи, отговарящи на изискванията за висока енергийна ефективност и гъвкавост, каквито клиентите ще очакват и изискват, прогнозира Здравко Николов, управляващ директор на Equinix България. Същевременно ръководената от него компания се подготвя за изграждането на ново разширение на своите центрове за данни в София.
Г-н Николов, готвите се да изградите разширение на Equinix SO2, кога ще започне строежът?
На финала сме с разширението SO2.2 Ако събитията в глобалната геополитическа обстановка позволяват, надяваме се в обозримо бъдеще да започнем нов, мащабен проект, за който имаме готовност. Тези събития обаче имат много сериозно отражение върху България и интереса към нашия пазар.
Възпрепятстват ли плановете ви?
Equinix има центрове в четири държави, граничещи с военния конфликт: Финландия, Полша, България и Турция. Това поставя пред нас много сериозни въпроси по отношение на надеждността и сигурността. Нормално е основните ни клиенти, които плануват експанзия в тази част на света, да забавят темпо, да замразят плановете си, докато видят накъде отива светът.
Но нима пандемията не ускори дигитализацията и не засили интереса към услугите на центровете за данни?
Ковид и възстановяването от него, което е крайно неравномерно, доведе до невиждано и нечувано сътресение в цялата верига на доставки за съоръжения за изчислителни центрове – като се започне от компютри, комуникационно оборудване, рутери, защитни стени и се стигне до най-базови неща – самата инфраструктура, дизел-генератори, UPS, батерии.
Дефицитът се отразява както на времето за построяване на нови центрове, така и на тяхната цена. Налице е драстично увеличение на базовите цени на всички видове техника. Болно време е. Всъщност някои цени се вдигат поради простата неспособност да бъдат произведени дадени стоки.
Сроковете също за болезнени. Материали и машини, които доскоро са били със срок на доставка 6-8 седмици, сега се доставят за 58 седмици. Това е повече от година! Става дума за доставка към голям клиент – най-големия оператор на изчислителни центрове в света. Разбирате ли – ако ние можем да изпреварим някого на този свят от гледна точка на времето за доставка, ние ще го направим! Но не е възможно. Най-големите производители на климатизация, на UPS, на дизел-генератори – на които ние сме най-големият клиент в световен мащаб – дори на нас казват, че ще доставят след повече от година. Значи има сериозен проблем.
За нас това е предизвикателство, защото ако нямаш дори само една от тези части, не можеш да пуснеш център за данни. Дори всичко останало да е налице, ако ти липсва, например, батерията, няма как съоръжението да заработи.
На фона на подобни трудности какво ви кара да стартирате разширението точно сега?
Клиентите растат като брой, като интерес. Има все повече компании, които искат да поставят при нас своите ИТ ресурси.
Преживяваме преходен период, който светът е видял много пъти в компютрите: от централните изчисления с мейнфрейми към напълно разпределен режим, където всеки има персонален компютър, а сега обратно към централизирана обработка. В дългосрочен план облакът ще надскочи драстично това, което е налице като собствени ИТ ресурси на фирмите, което имаме днес.
В резултат, традиционният бизнес на изчислителните центрове, каквито ги познаваме, като центрове за колокация, се трансформира. Ако някога центровете за данни се скалираха по площ, а после по изчислителна плътност и мощност, то сега все повече и по-често хората говорят за това как инсталираното оборудване на даден клиент е свързано към околния свят: колко крос-връзки има, какви мрежови услуги се предоставят, какви услуги за достъп до хиперскейлъри и облачни доставчици имат операторите.
Говори се и за това какви услуги са налице за виртуални рутери, виртуални защитни стени, виртуални лоуд-балансери – все услуги от страна на оператора на изчислителния център.
В това отношение ние имаме значително предимство. Имаме партньорство с най-добрите производители на оборудване за виртуализирана инфраструктура и можем да ги предлагаме. Искаш защитна стена в Хонгконг? – Просто отиваш с мишката в меню и избираш „защитна стена“. Интерфейсът те пита от кой производител искаш да е, кой модел. Показваш си лиценза и готово, имаш виртуална защитна стена. Няма нужда да носиш физическо оборудване, няма да го прекарваш през митница, няма да плащаш поддръжка. В момента, в който спре да ти трябва защитна стена – отиваш с мишката и я деактивираш. Край, готово. Същото е с рутери, лоуд-балансери, всичко.
Много голям наш фокус е предоставянето на т. нар. „metal” решения – изчислителна инфраструктура като услуга. Наемаш различните функции само с мишката, посочваш и ги ползваш.
Не е ли това тенденция, към която всички оператори на центрове за данни се ориентират?
Така наречените „предизвикатели“ – нови играчи, които привличат десетки милиарди долари чужди инвестиции и искат да построят изчислителни центрове, с които да репликират моделите на Equinix, DRT, CyrusOne, KDDI – техният бум приключи вече. Те строят дадени съоръжения, но съдбата им е все още неясна; не се справят така, както са обещали на инвеститорите си – за една година да настигнат водещите оператори в този бранш.
Какво не им стига?
Не им стига широтата на портфолиото на клиенти и на екосистемата, която е вътре в тях. Ако обещават привлекателни неща, надявайки се с по-ниски цени да преобърнат пазара, скоро разбират, че за да догонят необходимия обем, трябва да постигнат едни много големи сделки. Подобни големи сделки съществуват на пазара – и те стават все по-големи и все по-важни: те са водени от хипескейлърите, които прекрасно разбират своята покупателна сила, и я използват. Използват я срещу нас и срещу всички, които се опитват да играят на датацентър пазара.
Немалка част от тези фирми-„предизвикатели“ са водени от наши бивши колеги. Това са хора, които технологично знаят какво трябва да направят. Но репликирането на модела не се случва толкова лесно.
Пазарът се променя и се реорганизира, затова ние имаме голям апетит за предлагане на цифрови услуги – виртуални рутери, виртуални защитни стени, виртуални лоуд-балансери, въобще „metal” – инфраструктура като услуга. Друго огромно предимство на компанията ни е способността да свързва клиенти в 240+ локации по света. То се нарича Equinix Fabric, има го в България и се радва на засилен интерес.
Но за да се плува в такова бурно море, са необходими значителни инвестиции и навярно съществени иновации?
За да правиш подобни неща, трябва да изминеш дълъг трънлив път на огромни капиталови разходи и оперативни разходи в нови пазари, където пък направените инвестиции имат по-голям срок на възвръщаемост.
Що се касае до иновациите, технологично „слонът в стаята“ е постоянно нарастващата плътност на изчислителните ресурси. Мнозина навярно ще си спомнят един IBM4381 в БАН, който беше 27 KW, в края на 80-те години. Тогава това изглеждаше като чудовище. В началото на 90-те машините започнаха да се поставят в шкафове. Тогава за голяма плътност се считаше, ако един шкаф побере 1 kW. Самата технология за охлаждане беше със стъклени врати отпред, решетъчен под и решетъчен таван. Разчитахме на естествена конвекция. После преминахме на принудителна конвекция с вентилатори. Сетне плътностите нараснаха толкова, че с обдухване от пода към тавана вече имахме проблем: машините най-отгоре се „опичат“. Спасението беше най-отгоре да се поставя техника и кабели, които не са чувствителни към високата температура, например пач-панели.
След това индустрията промени схемата. Започнахме да слагаме перфорирани врати, за да вземаме въздух отпред и да го пращаме отзад. Но от един момент нататък и това се оказа недостатъчно.
Сега в момента оборудването се охлажда отпред-назад. Но и на този подход краят му се вижда. Работи, но се движим „по ръба“. Скоро ще има машини, които са с големината на кутия за обувки и мощност 6+ kW.
Ето тук се появява слонът в стаята! Европейските власти са недоволни, че ЦоД индустрията консумира ресурси непропорционално. Черпим твърде много ток! В същото време не сме големи работодатели – в един център за данни работят шепа хора. Ние сме започнали с 5 души екип през 2008 г. и сега сме 21 човека – за 15 години. А консумираните мегавати са нараснали главоломно. И продължаваме да харчим все повече енергия.
Сега индустрията се е насочила към свободно охлаждане (Free Cooling). Това става, когато е студено навън: вместо да работят компресори, само циркулираме охлаждащата течност навън, в студения въздух, извършваме топлообмен. Пести се ток. Но инвестицията за такава инфраструктура е с 30-40% по-голяма.
3DC, който построихме през 2009 г., беше първият център у нас, който използва свободно охлаждане. Тогава всички колеги ни се смяха. Без изключение ни казваха, че сме откачени. Сега това е огромно техническо предимство за нас.
Говори се много за водно охлаждане, за потопяеми сървъри – нима това не е по-ефективно?
Има цяла генерация нови фирми и продукти, които предлагат подобни иновации. Потопяемо охлаждане? Да, хващаме сървъра и го потапяме в течност. Има и проточно охлаждане, тоест върху най-горещите компоненти залепяме пелтиета, тръби и радиатори – и циркулираме през тях течност, защото тя е много по-топлопроводима от въздуха. Има и други решения в тази посока.
Проблемът е, че нито едно от тях не е индустриален стандарт. Доставчиците имат патентовани решения, прототипи, доказателства за концепция, но нищо, което да е индустриален стандарт. Предлагат ни да дупчим дупки по сървърите и да прекарваме тръби и маркучи, да слагаме компоненти, да махаме вентилаторите. Гледаме и се чудим. На нас ни трябва надежден сървър, ние плащаме луда сума за поддръжката му, за да се уважава гаранцията му – не можем просто да го „подобряваме“ Няма значение каква икономия на енергия ни обещават – техниката, която сме купили, трябва да подлежи на поддръжка официално, по индустриален стандарт.
Далеч сме все още от това. Но светът на дата-центровете върви натам – към охлаждането с течност.
През 2019 г построихме SO2 – изчислителен център с охлаждане с чиста вода. Още тогава, през 2019 г., знаехме, че се върви натам. Инвестирахме десетки милиони, защото всичко, което компанията прави, стъпва на идеята, че ще дойде този момент на промяна. А операторите с тънки маржове няма да имат възможността да инвестират за преминаване към течно охлаждане. Единственото, което ще им остане, е да обслужват нископлътностни инсталации на ниска температура, което означава високи разходи за тях.
Значи се получава все по-силно разслояване между играчите?
Ще стигнем дотам, че хиперскейлърите до такава степен ще „прегънат клечката“, че ще им стане жизненоважно да започнат да строят своя собствена инфраструктура, което по принцип не правят, защото възвръщаемостта не е толкова голяма. Точно затова те предпочитат да ползват изчислителния център като външна услуга. Ала са толкова агресивни, че принуждават пазара към свиване.
Аз съм скептик какво ще излезе от това. Не вярвам, че утре всичко ще се оправи. По-скоро си мисля, че така, както продължават да се продават и инсталират мейнфрейми като през 70-те години като бройка, така и локалните инсталации ще продължат да съществуват. Банки, застрахователи, ютилити – в огромна част от случаите те ще започнат, услуга по услуга, да изваждат някои операции навън, към облака, но основните процеси ще държат при себе си. Няма да ги изнесат в облака за един ден.
Вижте банките – много от тях вече не се занимават само с традиционни финансови дейности, най-развитите от тях по същество са вече софтуерни компании. Разработват приложения, интегрират ги, инвестират в насърчаване на финтех компании.
Разширявате постоянно центровете за данни в София, но изглежда нещо не ни стига. Microsoft реши да прави ЦоД в Гърция, не у нас.
Това е интересна тема – ако искаме тук да дойде голяма глобална ИТ фирма да изгради свой център за данни, какво трябва да сторим?
Ако погледнем региона по-отвисоко, ще видим, че през България в момента текат повече от 16 петабита трафик! Огромна част от него минава през София. Става дума за трафик, който идва от Европа, минава през столицата, голяма част отива за Турция и Близкия Изток, немалка част тръгва към Балчик и оттам по кабел към Грузия, Азербайджан, Катар. Съществена част от този трафик минава през нас – през SO1, първия ни център за данни.
И този обем е потресаващо повече от онзи, който има който и да е от нашите съседи! Всяка от страните около България е силна в дадена индустрия, но по отношение на дата-трафика ние сме 15 пъти по-големи от Гърция, от Румъния и от останалите на Балканите.
Как се стигна до това преимущество?
Ключово беше построената преди години оптична мрежа DON. Процесът започна още през 1994 г. В два „кръга“ бяха обхванати всички големи градове в страната. Държавното предприятие се разпадна, но строежът се пое от малки частни фирми, които градиха различни участъци при много тежки условия. Част от тази инфраструктура бе купена от един от големите телеком играчи, който пък на свой ред още в началото обяви, че продава десетгодишни неотменими права за използване (IRU) на всеки – срещу скромна сума. Така стана възможно за неголеми играчи с относително малка инвестиция да се сдобият с тъмно влакно през цялата държава – готово, построено, узаконено, готово за ползване.
Започнаха да се строят много трансгранични връзки. Дойдоха големи телекоми от много страни. Започна да тече огромно количество трафик.
Държавата през това време беше твърде заета с други неща, а тъмните сили не усетиха какво изпускат, и това ни класира в най-добрата група по отношение на интернета. Разбира се, за да стане всичко това възможно, местоположението на България и нейната относителна стабилност и мир изиграха ключова роля.
Но в последните години изглежда, че телеком-пазарът върви назад?
Всички телекоми са десетилетия след апогея си. Сега са в процес на оптимизиране на разходи и разделяне на търговска дейност. Инфраструктурната част се обособява в отделни компании с цел споделяне на разходи с конкурентите и оптимизиране на разходите. Телекомите са по-скоро в период, когато следват пазара, а не го създават.
Показателно е и, че някога подводните кабели се правеха от телекоми, после от консорциуми от телекоми, които си поделяха разходите, а сега новите капацитети се строят от CSP – от собствениците на съдържание, от Google най-вече, но и от компании като Microsoft, TikTok, Alibaba..
Ако има участие на телекоми, то е, за да може те да осигуряват локален достъп в градовете и селата, на местно ниво. Те участват със своя местен опит. Но големият трафик се носи от собствениците на съдържанието. Това е бъдещето.
В момента целият свят се е заловил да строи кабел около Африка. Технологията с динамично пускане на трафика на всяко място го позволява. Целта е да се обиколят бреговете на Африка. Обиколната започва от Генуа или от Марсилия или Лисабон – там има две кабелни станции, които са собственост на Equinix – после се минава през Гибралтар, Нигерия, Южна Африка та до Индия. Става дума за 40-50 хил. км. трасе.
Африка е мястото, където ще се очаква голям ръст на базираните на Интернет услуги. Нигерия е най-голямата като БВП държава в Африка и ще надмине по население САЩ в близките години. Етиопия е страна със 110 млн. души население! Затова в момента голямото глобално усилие е този континент да се обиколи и навсякъде да се остави нечувано количество капацитет, на всяка стъпка. На всички други места по света пазарите са вече наситени, ръстът на Интернет бизнеса забавя ход. Африка обещава голям растеж с куп трудности и неясноти.