Google leci w kosmos. Takiej serwerowni jeszcze nie było
Google buduje centrum trenowania algorytmów AI w kosmosie. Cel? Efektywne wykorzystanie energii słonecznej.
Jednym z największych wyzwań stojących przed dostawcami usług AI jest astronomiczne i nieustannie rosnące zapotrzebowanie na moc obliczeniową, a tym samym na energię elektryczną. Szacuje się, że sztuczna inteligencja już teraz odpowiada nawet za 1-2 proc. światowego zużycia energii, a w ciągu kilku najbliższych lat pojedyncze firmy będą miały większe zapotrzebowanie energetyczne niż całe kraje.
Najwydajniejszym źródłem energii, do którego człowiek ma dostęp, jest Słońce, ale nie jesteśmy w stanie wykorzystać jej w pełni efektywnie. Przede wszystkim raptem połowa energii jest w ogóle w stanie przedrzeć się przez atmosferę, a wynik ten może być dodatkowo osłabiony przez zachmurzenia, zanieczyszczenia czy dużą wilgotność. Poza tym panele fotowoltaiczne postawione w jednej lokalizacji z oczywistych względów nie mogą pracować w nocy, co w skrajnych sytuacjach pozwala na przechwytywanie promieni słonecznych przez jedynie kilka godzin w ciągu doby.
Wszystkie te ograniczenia da się “łatwo” obejść. Wystarczy opuścić naszą planetę.
Projekt Suncatcher. Google buduje serwerownię AI w kosmosie
Celem projektu Suncatcher (ang. łapacz Słońca) jest umieszczenie na niskiej orbicie okołoziemskiej konstelacji satelitów wyposażonych w jednostki TPU, odpowiedzialne za wykonywanie obliczeń uczenia maszynowego. Te miałyby być nastawione na stałe światło słoneczne, zapewniające ciągłą pracę, bez konieczności gromadzenia energii w ciężkich i stratnych akumulatorach.
Google tłumaczy jednak, że przedsięwzięcie będzie ekstremalnie trudne w realizacji, a przed inżynierami postawiono sporo problemów do rozwiązania. Aby zapewnić wydajność porównywalną do naziemnych centrów danych, satelity musiałby komunikować się ze sobą bezprzewodowo z przepustowością liczoną w dziesiątkach terabitów na sekundę. Możliwość osiągnięcia takich transferów na razie potwierdzono jedynie teoretycznie, bo uzyskany przez Google’a rekord w testach laboratoryjnych to 1,6 Tb/s.
A to rodzi kolejny problem, bo prawa fizyki są nieubłagane. Osiągnięcie wymaganych prędkości przekłada się na konieczność zbudowania i kontrolowania rekordowo ciasnej konstelacji satelitów. Google precyzuje, że poszczególne jednostki musiałyby być oddalone o kilometr lub mniej, więc mowa o formacji “znacznie bardziej zwartej niż jakikolwiek obecny system”.
Do tego dochodzi ekspozycja jednostek TPU na promieniowanie kosmiczne, choć Google twierdzi, że wyniki testów laboratoryjnych przeprowadzonych z wykorzystaniem akceleratorów cząstek są obiecujące.
No i względy ekonomiczne. Opłacalność całego przedsięwzięcia póki co opera się na prognozach, że koszty wystrzelenia i eksploatacji satelitów w najbliższych latach drastycznie spadną.
Aktualne plany zakładają wystrzelenie dwóch prototypowych satelitów w 2027 roku.
Zgłoś naruszenie/Błąd
Oryginalne źródło ZOBACZ
Pozytywnie
Neutralnie
Negatywnie
Lubię to!
Super
Ekscytujący
Ciekawy
Smieszny
Smutny
Wściekły
Przerażony
Szokujący
Wzruszający
Rozczarowany
Zaskoczony
Prawda
Manipulacja
Fake news

Dodaj kanał RSS
Musisz być zalogowanym aby zaproponować nowy kanal RSS