Spotřeba obřích datacenter roste a dále poroste. To ale není tak špatná zpráva. Výpočetní centra by mělo být možné poměrně jednoduše a levně využít k vyrovnávání poptávky a nabídky po elektřině.
S tím, jak se náš svět digitalizuje, je stále těžší si uvědomit, jaký vliv má náš život ve fyzickém světě. Je například velmi snadné zapomenout, že internet se neskládá z jedniček a nul poletujících někde „v povětří“. Jeho základy tvoří opravdu rozsáhlá a velmi bytelná infrastruktura.
Kostrou, po které cestuje většina dat na světě, je více něž milion kilometrů podmořských kabelů (které zhruba ze dvou třetin patří velkým technologickým společnostem). Cloud nejsou, jak by se mohlo zdát z názvu, éterický „mrak“, dlouhé řady serverů v datových centrech po celém světě. A celá tato analogová infrastruktura má hmatatelný dopad na životní prostředí.
Datová centra spotřebovávají podle dnešních analýz zhruba 10 až 50krát více energie na jednotku podlahové plochy než běžné komerční kancelářské budovy (řadě společností jako Google podrobnosti tají, takže tento údaj je do jisté míry nepřesný). Podle amerických federálních úřadů představují datová centra dohromady asi 2 % spotřeby energie celých Spojených států. To je zhruba přibližně 70 (terawatthodin) TWh, což je téměř přesně roční spotřeba celého Česka. V roce 2021 totiž celková spotřeba elektřiny v České republice činila zhruba 71 TWh (a to je spotřeba brutto, tedy včetně například ztrát ve vedení. Čistá spotřeba České republika činila v roce 2021 zhruba 60 TWh).
S tím, jak roste využívání informačních technologií, poroste téměř určitě i spotřeba energie datových center a serverů, uvádí americká vládní agentura ve svém přehledu stavu odvětví. Růst našich výpočetních požadavků je rychlejší než (jakkoliv značný) pokrok v oblasti snižování spotřeby datových center. První generace velkých datacenter spotřebovávala i 40 % energie na chlazení počítačového vybavení – to znamená, že chlazení vlastně spotřebovávalo téměř stejně energie jako provoz samotných počítačů. Všechny velké společnosti ovšem postupně začaly zavádět různá opatření, která měla spotřebu snížit.
Fyzika je neúprosná, a tak se šlo i do zdánlivých detailů. Google změnil svůj dress-code a dovolil technikům chodit do práce v krátkých rukávech a šortkách – a i díky tomu si mohl dovolit zvýšit teplotu v centrech o několik stupňů, a ušetřit několik procent na elektřině. Důležitější byly ovšem technologické změny.
Začalo se například používat tzv. volné chlazení (i v češtině se často používá anglický výraz free-air cooling), při kterém se k chlazení využívá nižší teploty vnějšího vzduchu. Energetická úspora je daná tím, že se v takovém systému nepoužívají kompresory, ale vzduch volně proudí přes výměník s od počítačů ohřátou chladicí kapalinou a odvádí přebytečné teplo pryč. Tento postup samozřejmě je podstatně úspornější. Podle zkušeností společnosti Microsoft umožňuje snížit náklady na chlazení na 10 až 30 procent z celkových provozních nákladů – rozptyl je daný z velké části tím, v jakém podnebí provoz stojí.
Počítání za levno
Ale ani to nestačí, a tak se hledají stále další způsoby, jak ji snížit. Jedním přístupem je i „informační baterie“. Tento chytlavý název podle všeho byl poprvé použit v odborné práci dvou informačních vědců z Kalifornské univerzity v jejich práci (dostupné zde v PDF). Na první pohled může koncept znít složitě – jak ale uvidíme, tak složité to není.
Tak nejprve tedy vysvětlení autorů: „Informační baterie jsou navrženy tak, aby fungovaly se stávajícími datovými centry,“ píší Jennifer Switzerová a Barath Raghavan ve svém článku. „Určitý velmi omezený výpočetní výkon je vyhrazen pro správce IB [informační baterie], který řídí plánování výpočetních úloh v reálném čase i předvýpočtů. Pro předběžné výpočty je určen klastr serverů nebo virtuálních počítačů. Mezipaměť IB, která uchovává výsledky těchto předem provedených výpočtů, je uchovávána lokálně pro rychlé načtení. Není potřeba žádná další infrastruktura.“
Z původního popisu to tak možná nevypadá, ovšem myšlenka je v podstatě velmi jednoduchá: jde o rozložení spotřeby do doby nižší spotřeby. „Informační baterie“ by prováděly určité výpočty předem, když je energie levná – například když svítí slunce nebo fouká vítr – a výsledky by ukládaly na později.
Každou úlohu takto na později odložit nelze. Ovšem v řadě případů naopak buď lez budoucí zátěž předvídat s přiměřenou přesností, nebo prostě na čase nezáleží. Například streamovací společnosti jako Netflix mohou potřebují převádět velké objemy videa do různých formátů pro, aby ho optimalizovaly pro různá zařízení. To není nutné dělat na vyžádání zákazníka. Při trénování algoritmů strojového učení také nezáleží na konkrétní hodině: autoři mohou zařadit tréninková data do fronty a nechat správce datacentra rozhodnout, kdy se trénink spustí.
Není to těžké
Přitažlivost tohoto konceptu spočívá v jeho praktické jednoduchosti. Nevyžaduje žádnou další infrastrukturu ani specializovaný hardware. Podle simulace autorů by a umožnil datovým centrům nahradit až 10-30 % jejich současné spotřeby energie přebytky z obnovitelných zdrojů, které by dnes nejspíše přišly nazmar (v budoucnosti by se snad mohly případně ukládat do velkých síťových úložišť, pokud jejich cena bude opravdu klesat tak, jak slibují předpovědi).
Jde tedy v podstatě o jednoduchý systém časového řízení spotřeby elektřiny, podobně jako u nás tak populární dálkové spínání spotřebičů v nízkém tarifu. Ostatně společnost Google řídí do jisté míry spotřebu svých datacentrech podle výše výroby z obnovitelných zdrojů (společnost se zavázala snižovat svou uhlíkovou stopu).
Podrobností je k dispozici minimum, ale je celkem jasné, že takový systém není až tak těžké zavést a používat. V podstatě jde pouze o další příklad řízení spotřeby – a tenhle by mohl být úspěšný, protože neomezuje přímo koncové zákazníky. Autoři termínu „informační baterie“ tedy do určité míry objevují Ameriku. To na druhou stranu to znamená, že tenhle marketingově chytlavý termín lze snadno uvést do praxe.
Jeho výhodou je i to, že neomezuje přímo konečné odběratele, ale společnosti se značným technologickým know-how. Pro ně bude zvládnutí problémů spojených s přechodem k novému systému podstatně jednodušší než pro domácnosti či malé podnikatele.
Krok by navíc mohl být pro uživatele výhodný. Skladování energie spoléhá primárně na fyzickou infrastrukturu: lithium-iontové, průtokové či třeba gravitační baterie. „Informační baterie“ ale mají tu výhodu, že mohou zaujmout Silicon Valley a technologicky zaměřené andělské investory.
Levnější pod vodou
Problém spotřeby datacenter řeší všechny velké technologické firmy. Přišly postupně s řadou inovací; ta nejpřekvapivější pochází asi od výzkumníků z Microsoftu. V této firmě totiž vznikl „Projekt Natick“ (o kterém jsme podrobněji psali zde). Jeho základem je systém standardizovaných hermetických buněk uložených na dno moře. Měly by obsahovat v podstatě standardní servery, ale měly by se chladit v podstatě téměř výhradně pasivně díky okolní vodě.
Nápad má hned několik pozitiv. Za prvé mohou být velmi blízko spotřebitelům, protože necelá polovina světové populace žije méně než sto kilometrů od pobřeží některého z moří nebo oceánů. Samozřejmě, pro Čechy to není to nejlepší řešení, ale polovina světa, to už je zajímavý trh.
Navíc teplota vody je od určité hloubky velmi podobná, ať jste kdekoliv na světě. Mluvíme samozřejmě o hloubkách řádově stovek metrů, ne těsně pod hladinou. Prakticky všechna voda pod tisíc metrů (a tedy 90 procent veškeré mořské vody) má teplotu mezi 0–3 °Celsia. Dataservery mají být blíže hladině, ovšem i v tropických oceánech už nějakých 200 metrů pod povrchem mají vody teploty kolem 15 °C.
Zjednodušené je i stavební řízení. Například v Evropě, může být problematické (nebo prostě příliš drahé) sehnat vhodné místo a také vyřídit úřední proces před zahájením stavby. Microsoft také tvrdí, že různé požadavky a předpisy vedou k tomu, že v podstatě identický hardware pracuje na různých místech světa s různou mírou spolehlivosti. Podmořské „serverovny“ by ovšem měly být úplně identické, a tak by se daly vyrábět levněji a mít velmi předvídatelné provozní vlastnosti.
Zjednodušené „stavební řízení“ by spolu s výhodami masové výroby mělo společnosti umožnit, aby dokázala dodat nutné výpočetní kapacity na dané místo během šesti měsíců – takový je alespoň plán. Asi je zbytečné dodávat, že je to podstatně rychlejší než běžná stavba.
Podmořské prostředí se může zdát pro počítače dokonale nevhodné, ve skutečnosti by mělo být podle konstruktérů možné v ochranném obalu připravit elektronice snad lepší podmínky než na povrchu. Na místě nemusí být žádná obsluha, a tak nemusí atmosféra jednotlivých „buněk“ obsahovat kyslík – což znamená, že se minimalizují problémy s oxidací, tedy i korozí. Stejně tak se dá z umělé atmosféry odstranit prakticky veškerý prach a vodní pára.
Nápad už byl také prakticky vyzkoušen. Vývojáři z Microsoftu v roce 2015 potopili jednu pokusnou jednotku na 105 dní zhruba deset metrů pod hladinu Pacifiku. V roce 2018 společnost potopil na mořské dno u Orknejí speciální kontejner. Ukrýval 864 serverů a podpůrné vybavení, hlavně napájení, datové síťové prvky a chlazení.
Na povrch se podíval v září 2020. Ukázalo se, že toto prostředí serverům a dalším IT technologiím velmi vyhovuje. Zařízení uchovávané v inertní dusíkové atmodféře pracovalo s výrazně nižší poruchovostí, než bývá obvyklá u datacenter na souši.
Samotný nápad umístit servery pod vodu ovšem Microsoft patentovaný mít nemůže, a tak není divu, že po něm sáhnou právě i v Číně, která chce mít vlastní výpočetní a datové kapacity. V principu je ovšem čínské zařízení podobné jako to od Microsoftu. Vzduchotěsná tlaková nádoba bude obsahovat stojany se servery, napájena bude kompozitním kabelem z pobřeží, který ji zároveň připojí k internetu.
V příštích letech má údajně v Číně řada projektů podmořských datových center v pobřežních vodách, včetně přístavu volného obchodu Hainan, oblasti Velkého zálivu, ve kterém leží mimo jiné Hongkong a Macao, či oblasti delty řeky Jang-c’-ťiang.