Süllyedő szerverek – adatközpontok víz alatt
A felhőszolgáltatások terjedésével egyre több adatközpont épül a világon, általában olyan területeken, ahol működésük nem jelent akadályt. Lehet, hogy a következő ilyen helyszín az óceánok mélye lesz?

 

Napjaink techgigászai, az Amazon, a Google, a Microsoft, a Facebook és még sokan mások – elképesztő méretű és folyamatosan terjeszkedő adatközpont-hálózattal rendelkeznek szerte a bolygón. Hatalmas szervererődítmények szolgálják ki a világ gyorsan növekvő számítási és adattárolási igényeit. Megépítésük és üzemeltetésük azonban sok időt és energiát emészt fel, nem véletlenül dolgoznak a mérnökök újabb és újabb lehetőségeken, figyelembe véve a fenntarthatóság követelményeit is.

Világ adatközpontjai, egyesüljetek!

A datacenterek folyamatosan fejlődnek, mert kihasználtságuk és ez által terheltségük állandó növekedésben van. Miközben költséghatékony megoldásokat nyújtanak azoknak a cégeknek is, akik a saját infrastruktúrát nem tudják, vagy nem akarják fenntartani, a legnagyobb partnerek számára is meg kell felelniük.

Sőt, ki gondolná, hogy a felhők számítási kapacitását vesszük igénybe akkor is, amikor videókat nézünk a youtube-on vagy éppen zenét hallgatunk kedvenc stream szolgáltatónk kínálatából. Lehet az egy méretes webáruházba befutó milliónyi rendelés óránként, vagy másodpercenként sokszáz órányi megtekintett videótartalom betöltése, vagy szimpla e-mail forgalom kiszolgálása, mindegyik katedrális méretű szervercentrumokon megy keresztül.

 

 

Méretük és elképesztő energiaéhségük miatt adatközpontot építeni nem éppen villámgyors vállalkozás. A számos engedély beszerzése, az infrastruktúra kiépítése nem egyszerű és nem is olcsó mulatság, legyen szó akár egy sűrűn lakott európai országról, vagy egy minden lakott helytől távoli területről.

A helyszín kiválasztása pedig több okból is életbevágó fontossággal bír. Nem mindegy például, hogy a nagy mennyiségű hőt termelő szerverek hűtése lehetséges-e a környezeti levegő keringtetésével, vagy még azt is külön kell megoldani, ezáltal még több energiát elégetve, növelve a fenntartási költségeket. Fontos szempont a felhasználóktól való fizikai távolság is, hiszen a szerverek válaszideje annál gyorsabb, minél rövidebb utat kell az adatnak megtennie a kiszolgáló és a kliens között.

Felhő a víz alatt

Érdekes koncepcióval állt elő a közelmúltban a Microsoft: mivel az emberek közel fele a nagyméretű vízfelületekhez viszonylag közel lakik, a távolság pedig, ahogy már említettük, kulcskérdés a felhőmegoldások működésében, megvizsgálták az óceánokba telepített adatközpontok lehetőségét.

Elsőre ugyan furcsa lehet a víz és az elektromosság találkozásáról beszélni, de valójában a technika egy része már adott: hiszen tengerekben futó elektromos és adatkábelek most is léteznek, sőt, nem is olyan újkeletűek. Ráadásul az óceánok folyamatos mozgásban vannak, így állandó hűtést biztosíthatnak egy egyébként hőt termelő szerverparknak. Ám nem csak hűtést, de megfelelő megoldások alkalmazásával még akár az áramigény egy jelentős részét is a tengerből nyerheti egy efféle konstrukció.

 

 

Az ötlet még 2013-ban, egy korábban tengeralattjárón szolgált Microsoft alkalmazott fejében született. Elképzelése megtetszett az amerikai informatikai óriás vezetőinek és 2014-ben megszületett a Project Natick. Norman A. Withaker, a Microsoft Speciális kutatásért felelős részlegének igazgatója hívta életre azt a csapatot, amely feladatául kapta egy víz alatt működő adatközpont megtervezését és megépítését.

Az indulás után alig egy évvel elkészült a kapszula, amely egy Xbox játék, a Halo világának egyik karaktere után a Leona Philpot nevet kapta. Hengeres testébe elhelyeztek egy működő racket és megoldották az áramellátását, valamint a hálózati kapcsolatot is. A fémhengert 2015 augusztusában engedték le az USA nyugati partján a Csendes-óceánba, és hagyták működni, majd decemberben, egy a sikeresség miatt kicsivel kitolt tesztidőszak után kiemelték és visszaszállították Redmondba.

 

 

Ezt követően viszonylag keveset tudni a projekt további sorsáról, egyelőre annyit árultak el a szakemberek, hogy az eredmények ígéretesek. Ebben a kezdeti stádiumban azonban a legfontosabb az adatok pontos kiértékelése és a tanulságok levonása után egy következő, hosszabb teszt megtervezése lehet.

Milyen sekély a mély?

Az előzetes tervek alapján egy-egy konténer élettartamát húsz évben határozták meg, a tartalmuk, vagyis a hardver ötévente kerülne cserére. Ekkor ellenőriznék a konténer külső héját is. Elsőre jól hangzik egy ilyen koncepció, hiszen egy efféle szervercentrum viszonylag jól mobilizálható, könnyen és gyorsan telepíthető, valamint a sorozatban gyártott burkolat ára is olcsóbb lesz, mint amennyibe az első prototípus kifejlesztése került.

 

 

Az sem véletlen azonban, hogy eddig nem ez volt az adatközpont építések fő iránya, ugyanis van néhány nagyobb bökkenő. Az egyik ilyen, cikkünk elején már említett hűtéssel kapcsolatos probléma, hogy az efféle szerverek bizony nem kevés hőt termelnek. A körülöttük állandó mozgásban lévő vízzel ugyan a hűtésre fordított energia nagyrésze megspórolható, de azt se felejtsük el, hogy a leadott energia megemelheti a szerverhenger körülötti vízhőmérsékletet, valamint a hengernek a környezetnél magasabb általános felszíni hőmérséklete olyan mikroklíma kialakulását eredményezi, amely az adott vízrétegben nem honos fajok megjelenéséhez vezethet. Arról nem beszélve, hogy a tengervíz erősen korrozív hatású, így ki tudja, milyen gyakorisággal fordulnak majd elő különféle meghibásodások, és a magas sótartalomnak vajon tényleg képesek lesznek-e húsz évig ellenállni a tartályok?

Szárazföldi adatközpontok esetében viszonylag könnyű tervezni a költségekkel, hiszen adottak a körülmények. A tengeri változatnál azonban már az árammal való ellátás és a hálózatra kapcsoltság is állandó biztonsági kockázatokat hordoz magában. Aki látott már gigantikus szárazföldi szerverparkot akár csak képen, az körülbelül képet alkothat arról, hogy ezek olyan erődök, amelyekbe a fizikai bejutás sem egyszerű. Egy tengerfenéken pihenő henger a belőle kilógó kábelekkel és csövekkel pedig közel sem tűnik támadhatatlannak, hacsak a Microsoft nem tervez idomított delfineket járőröztetni újdonsült adatközpontjai körül.

Mindazonáltal a koncepció gondolatébresztő lehet más techóriások számára is. Ki tudja, talán nincs is olyan messze az idő, amikor a felhő visszatér természetes közegéhez a vízhez, a felhőszolgáltatók pedig ezt, vagy hasonlóan innovatív formáját választják majd a mobil szerverrendszerek kiépítésének. 

7 ezer milliárdot hozhat a mesterséges intelligencia
Elkészült a Kormány Mesterséges Intelligencia (MI) Stratégiája, amely a MI térhódításával jelentkező technikai és a humán-tudomány területére tartozó kérdésekre keres választ.
Megjelent az Eplan Platform legújabb verziója
Február közepétől elérhető az Eplan Platform legújabb, 2.9-es verziója számos új funkciókkal, melyek az alkalmazók munkáját még hatékonyabban támogatják.
Gyártás egyre okosabban
Mind többet költenek a gyártó vállalatok működésük digitális átalakítására – már közel 70 százalékuknál fut valamilyen okosgyár-kezdeményezés, az iparág európai szereplői pedig élenjárnak a mesterséges intelligencia alkalmazásában, tárta fel a Capgemini.
Épül a világ legnagyobb cobotközpontja
32 ezer négyzetméteren épül az a robotikai központ, amely a Mobile Industrial Robots és az Universal Robots 36 millió dolláros befektetésének eredményeként a jövőben a cobotok fejlesztésének és gyártásának központja lesz.
Nem segíti a műszaki szakképzést az új Nemzeti alaptanterv
Az Együtt a Jövő Mérnökeiért Szövetség megítélése szerint az új Nemzeti Alaptanterv ezúttal is figyelmen kívül hagyta a szakmai szervezetek és a gazdasági szereplők véleményét és továbbra sem hagy elegendő időt és teret a gyakorlati kompetenciák, készségek és képességek fejlesztésére.