A A+ A++

Rosnące obciążenia centrów danych, zaostrzane przepisy dotyczące zrównoważonego rozwoju i presja związana z kosztami inwestycji to największe problemy dla operatorów, które wymuszają kompromisy między planami ekspansji a biznesową opłacalnością tworzonej infrastruktury.


Zrównoważony rozwój w centrach danych

Do najważniejszych trendów można zaliczyć zaostrzanie przepisów dotyczących wymagań na zrównoważony rozwój biznesu, rosnący wpływ sztucznej inteligencji na rozwiązania infrastrukturalne oraz wzrost wykorzystania różnego rodzaju systemów chłodzenia serwerów za pomocą cieczy. Trendy te pobudzają innowacyjność, ale niestety zwiększają też złożoność i koszty budowy infrastruktury. Dlatego operatorzy budujący centra danych będą musieli szukać równowagi pozwalającej uzyskać niezawodność i wydajność systemu, a jednocześnie decydować, jakie najnowsze technologie wykorzystać, by zapewnić zgodność z regulacjami, dostępnymi finansami i celami biznesowymi.

Trzeba zauważyć, że wyzwania stojące obecnie przed branżą centrów danych są wynikiem jej sukcesu i trwającego od wielu lat wzrostu popytu na usługi przetwarzania danych. Na razie nie widać oznak, by wzrost ten miał ulec zahamowaniu.

Globalny problem ze zużyciem energii

Zaostrzenie regulacji prawnych zmierzających do zapewnienia zrównoważonego rozwoju przemysłu dotyka również firmy inwestujące w budowę centrów danych. Według analityków Uptime Institute w najbliższym czasie sektor centrów danych będzie zużywał coraz więcej energii i emitował więcej dwutlenku węgla. A publicznie deklarowane cele ograniczenia zużycia energii będą coraz trudniejsze i droższe w realizacji.

W najnowszym raporcie IEA Electricity 2024 (International Energy Agency) przedstawiono analizę polityk i zmian rynkowych w zakresie energii elektrycznej oraz prognozy popytu na energię elektryczną, jej podaży i emisji dwutlenku węgla do 2026 r. Analitycy tej organizacji alarmują, że szybki rozwój nowych technologii, takich jak przede wszystkim sztuczna inteligencja i kryptowaluty, spowoduje istotny wzrost zużycia energii elektrycznej przez centra danych. Według prognoz może on podwoić się na świecie do 2026 r., osiągając poziom ponad 1000 TWh (terawatogodzin) rocznie. Dla porównania, w 2022 r. zużycie to szacowano na 460 TWh, a całkowite roczne zapotrzebowanie na energię elektryczną w Polsce to ok. 170 TWh. Analitycy IEA szacują, że w samych Stanach Zjednoczonych zużycie energii przez centra danych w 2026 r. może osiągnąć poziom ponad jednej trzeciej całego zapotrzebowania w tym kraju.

Z kolei Uptime Institute, twórca powszechnie uznawanych standardów dotyczących centrów danych, opublikował ostatnio raport prezentujący kluczowe trendy w rozwoju infrastruktury, które będą w najbliższym czasie miały ważny wpływ na decyzje podejmowane przez firmy planujące inwestycje w centra danych. Analitycy tej organizacji przewidują szybki rozwój technologii, które pozwolą na automatyzację zarządzania infrastrukturą, tworzenie znormalizowanych projektów ułatwiających zarządzanie, powielanie i skalowanie infrastruktury oraz uzyskiwanie korzyści z efektu skali. Według prognoz Uptime, aby sprostać rosnącemu zapotrzebowaniu na moc obliczeniową, pojawią się nowe, ogromne kampusy kolokacyjne o powierzchni nawet milionów metrów kwadratowych i mocy zasilania liczonej w gigawatach.

Wpływ regulacji prawnych na biznes

W Unii Europejskiej wprowadzono dyrektywę dotyczącą efektywności energetycznej, która będzie wymagać od firm raportowania zużycia energii i wody, wielkości emisji dwutlenku węgla i innych parametrów. Podobne regulacje są wprowadzane również w innych krajach na świecie. Dlatego też w planach budowy lub modernizacji centrów danych pojawił się dodatkowy czynnik – zapewnienie zgodności z regulacjami. Ma on istotny wpływ na biznes i plany dotyczące lokalizacji ośrodków, koncepcji ich zasilania oraz chłodzenia.

„W efekcie najbliższe pięć lat będzie trudnym okresem dla sektora centrów danych” – uważa Andy Lawrence, dyrektor Uptime Institute. Deklarowane cele związane ze zrównoważonym rozwojem były dotąd dobrowolne ustalane przez firmy, ale jeśli były publikowane wraz z raportami finansowymi, mogą być prawnie wiążące. „Dlatego sądzę, że wiele firm może wycofać się z niektórych swoich zobowiązań. Miejmy jednak nadzieję, że kwestie efektywności będą traktowane z należytą uwagą i wpłyną na zwiększenie odpowiednich inwestycji, a także na pojawienie się wielu nowych, innowacyjnych rozwiązań” – mówi Andy Lawrence.

KOMENTARZ EKSPERTA

Platforma pierwszego wyboru

Ogrom generowanych i przetwarzanych danych to znak naszych czasów. Biznesy, czy wręcz całe branże oparte na modelu data driven, potrzebują nowoczesnych rozwiązań, które sprostają aktualnym wyzwaniom. Zmienia się kontekst biznesowy i technologiczny.

Firmowe aplikacje zostały „uwolnione” z własnych centrów danych, pojawiły się inne wyzwania i zagrożenia związane z danymi. Obecnie liczy się nie tylko skuteczność i wydajność computingu, choć nadal jest to kluczowy czynnik dla prowadzenia biznesu. Równie ważnym jest umiejętność przetworzenia danych z rozproszonych źródeł przy optymalnej efektywności energetycznej. Istotne dla biznesu informacje pojawiają się w środowisku znacznie rozproszonym, dane płyną z chmur publicznych i prywatnych, z infrastruktury tradycyjnej, z brzegu sieci. Hybrydowość współczesnej infrastruktury rodzi poważne wyzwania co do widoczności danych czy ich bezpieczeństwa. Dodatkowym czynnikiem zmuszającym organizacje do przemodelowania dotychczasowych strategii przetwarzania danych są rosnące koszty energii elektrycznej oraz wymóg zapewnienia zgodności efektywności energetycznej z nowymi regulacjami. Poza zmianami na poziomie compliance i strategii organizacji, ogromnego znaczenia nabiera technologia, pozwalająca przedsiębiorstwom niezakłócenie przetwarzać istotne dla biznesu dane, bezpiecznie i efektywnie. Firmy potrzebują niezawodnych rozwiązań, zdolnych wspierać ich biznes. Niezawodnych i jednocześnie prostych, by infrastruktura nie przytłoczyła tego, co w biznesie najistotniejsze.

Platforma IBM FlashSystem jest odpowiedzią na obecne wyzwania i trendy w data computingu i może stać się pierwszym wyborem dla organizacji. Uniwersalny – bo takiego określenia trzeba tu użyć – system pamięci masowej doskonale radzi sobie z obsługą rozproszonych pamięci chmurowych, ze środowiskami hybrydowymi, zapewniając przy tym najwyższy poziom bezpieczeństwa przetwarzanych danych, jak również ciągłość operacyjną. Sprawne działanie firmowych aplikacji odpornych na ataki cybernetyczne czy zauważalnie niższe koszty przechowywania danych to argumenty, które organizacje muszą brać pod uwagę, myśląc o technologicznych inwestycjach. IBM FlashSystem jest rozwiązaniem podnoszącym efektywność pracy z rozproszonymi danymi niezależnie od wielkości przedsiębiorstwa.

Krzysztof Kowalski,

Storage & Backup Solutions Expert, Cloudware Polska

AI i centra danych

Według IDC, wydatki przedsiębiorstw na usługi, oprogramowanie i infrastrukturę związane z generatywną sztuczną inteligencją wzrosną z ponad 19 mld dol. w 2023 r. do 150 mld dol. w roku 2027.

„Widzimy ogromną zmianę. Mimo niestabilnej sytuacji geopolitycznej, inwestycje w technologie cyfrowe będą rosły w 2024 r. aż siedem razy szybciej niż cała gospodarka. Kluczową rolę będzie odgrywała oczywiście sztuczna inteligencja, która będzie wdrażana w niemal każdym obszarze działalności przedsiębiorstw. Jeśli w samym tylko regionie EMEA budżet na AI wzrośnie w przyszłym roku o 40%, oznacza to dodatkowe 30 mld dol. wydatków na technologie. To najlepiej pokazuje skalę i tempo zmian” – zauważa Ewa Zborowska, Research Director z IDC Polska.

Chociaż sztuczna inteligencja przynosi wiele korzyści, pomagając w optymalizacji redukcji emisji, modelowaniu zmian klimatycznych i ma wiele innych użytecznych aplikacji, to jej wykorzystanie stwarza fundamentalny problem dotyczący ogromnego zapotrzebowania na moc przetwarzania, a w efekcie bardzo duże zużycie energii. Trzeba pamiętać, że centra danych przeznaczone do uruchamiania aplikacji wykorzystujących sztuczną inteligencję wymagają innych niż standardowe projektów infrastruktury.

Zdaniem analityków rynku najbardziej wymagające modele AI będą hostowane głównie w hiperskalowych ośrodkach przetwarzania danych, które będą w stanie sprostać niekontrolowanym wzrostom zapotrzebowania na moc i chłodzenie związanym z uruchamianiem aplikacji AI. Obecnie już zaczynają powstawać centra danych przeznaczone do uruchamiania aplikacji sztucznej inteligencji. Jednym z przykładów jest ośrodek firmy Meta (spółka macierzysta Facebooka), którego uruchomienie jest zapowiadane na 2026 r. w Jeffersonville, w stanie Indiana (USA). Obiekt będzie wyposażony w system bezpośredniego chłodzenia serwerów cieczą. Ma to być rozwiązanie bardziej opłacalne niż chłodzenie immersyjne lub wykorzystujące powietrze. Wartość inwestycji to ok. 800 mln dol.

Problemy z dużym zużyciem energii to jedna strona medalu. Z drugiej strony, sztuczna inteligencja może pomóc w zwiększeniu efektywności centrów danych i ograniczeniu zużycia energii.

Pojawiły się już narzędzia do zarządzania infrastrukturą centrów danych wykorzystujące uczenie maszynowe. Mogą one zoptymalizować wydajność, serwisowanie, chłodzenie i efektywne wykorzystanie dostępnej energii.

Sztuczna inteligencja może być wykorzystywana do przewidywania potrzeb w zakresie chłodzenia i dostosowywania wydajności chłodzenia, a algorytmy są w stanie dynamicznie, w czasie rzeczywistym dostosowywać systemy chłodzenia, aby zapewnić optymalną wydajność. AI potrafi również dostarczać zalecenia dotyczące modernizacji sprzętu lub zmian w konfiguracji w celu poprawy wydajności chłodzenia.

Innym obszarem, w którym technologia może pomóc, jest analiza wydajności. Sztuczna inteligencja zapewnia wgląd w wydajność systemów chłodzenia, pomaga identyfikować obszary wymagające poprawy, gwarantując, że systemy działają wydajnie. Optymalizując systemy chłodzenia, AI może zmniejszyć zużycie energii, dając istotne oszczędności i zmniejszenie śladu węglowego centrum danych.

Ale wykorzystanie sztucznej inteligencji do chłodzenia centrów danych jest obecnie w początkowej fazie rozwoju. Niektóre firmy zaczynają testować wykorzystanie technologii AI i uczenia maszynowego w systemie sterowania centrum danych, jednak większość operatorów centrów danych nie spieszy się z wdrażaniem nowych technologii

W centrach danych wykorzystuje się obecnie głównie oprogramowanie do śledzenia cech fizycznych sprzętu, jego lokalizacji oraz stanu operacyjnego. Widać jednak, że następują stopniowe zmiany. W szczególności uczenie maszynowe zaczyna być wykorzystywane do przewidywania stanu systemu, zarządzania usługami i formułowania zaleceń dotyczących jego optymalizacji pod kątem zużycia energii i chłodzenia. Przybliża się jednak czas pojawienia się autonomicznych centrów danych, w których do automatycznego zarządzania operacjami wykorzystywane będą systemy sztucznej inteligencji.

Efektywne technologie chłodzenia centrów danych

W systemach chłodzenia powietrzem maksymalna moc wydzielana przez sprzęt w szafie serwerowej wynosi ok. 35 kW. W systemach hybrydowych AALC (Air-Assisted Liquid Cooling), gdzie temperatura powietrza jest obniżana przez chłodnice wypełnione cieczą przymocowane z tyłu szaf, gęstość mocy może sięgać 70 kW na szafę. Zaletą takiego rozwiązania jest możliwość wykorzystania standardowej architektury szaf i sprzętu przy wprowadzeniu niewielkich modyfikacji.

Natomiast bezpośrednie chłodzenie cieczą jest rozwiązaniem najbardziej energooszczędnym i efektywnym. Pozwala na schłodzenie szaf generujących ponad 100 kW mocy. Wiąże się jednak z większą złożonością systemu oraz wyższymi kosztami wdrażania i obsługi systemu, a także stosowania zgodnych z nim serwerów. Ta ostatnia technologia zaczyna ostatnio zyskiwać na popularności, choć oczywiście nie rozwiązuje wszystkich problemów z chłodzeniem centrów danych.

Warto zauważyć, że niedawno pojawiła się nowa koncepcja technologii tzw. chłodzenia geotermalnego. Wykorzystuje ona fakt względnie stałej temperatury ziemi pod jej powierzchnią. Ciepło ze sprzętu jest przekazywane do płynu, który następnie krąży w podziemnych wymiennikach ciepła, gdzie się schładza, a następnie wraca do centrum danych i znów może służyć do chłodzenia serwerów.

Skuteczność większości systemów chłodzenia zależy od warunków klimatycznych środowiska. Chłodzenie geotermalne eliminuje ten problem i jest rozwiązaniem uniwersalnym, które może znaleźć zastosowania niezależne od zewnętrznych warunków środowiskowych i znacznie zmniejszyć zużycie energii oraz wody, a także zwiększyć niezawodność działania sprzętu instalowanego w centrum danych.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułUtrudnienia w ruchu przez Międzynarodowy Wyścig Kolarski “Solidarności” i Olimpijczyków
Następny artykułKalisz. Wakacyjne zajęcia w Książnicy Pedagogicznej