A A+ A++

Google leci w kosmos. Takiej serwerowni jeszcze nie było

Google buduje centrum trenowania algorytmów AI w kosmosie. Cel? Efektywne wykorzystanie energii słonecznej.

Google buduje serwerownię w kosmosie
Źródło zdjęć: © Licencjodawca
Miron Nurski
oprac.  Miron Nurski

Jednym z największych wyzwań stojących przed dostawcami usług AI jest astronomiczne i nieustannie rosnące zapotrzebowanie na moc obliczeniową, a tym samym na energię elektryczną. Szacuje się, że sztuczna inteligencja już teraz odpowiada nawet za 1-2 proc. światowego zużycia energii, a w ciągu kilku najbliższych lat pojedyncze firmy będą miały większe zapotrzebowanie energetyczne niż całe kraje.

Najwydajniejszym źródłem energii, do którego człowiek ma dostęp, jest Słońce, ale nie jesteśmy w stanie wykorzystać jej w pełni efektywnie. Przede wszystkim raptem połowa energii jest w ogóle w stanie przedrzeć się przez atmosferę, a wynik ten może być dodatkowo osłabiony przez zachmurzenia, zanieczyszczenia czy dużą wilgotność. Poza tym panele fotowoltaiczne postawione w jednej lokalizacji z oczywistych względów nie mogą pracować w nocy, co w skrajnych sytuacjach pozwala na przechwytywanie promieni słonecznych przez jedynie kilka godzin w ciągu doby.

Wszystkie te ograniczenia da się “łatwo” obejść. Wystarczy opuścić naszą planetę.

Projekt Suncatcher. Google buduje serwerownię AI w kosmosie

Celem projektu Suncatcher (ang. łapacz Słońca) jest umieszczenie na niskiej orbicie okołoziemskiej konstelacji satelitów wyposażonych w jednostki TPU, odpowiedzialne za wykonywanie obliczeń uczenia maszynowego. Te miałyby być nastawione na stałe światło słoneczne, zapewniające ciągłą pracę, bez konieczności gromadzenia energii w ciężkich i stratnych akumulatorach.

Google tłumaczy jednak, że przedsięwzięcie będzie ekstremalnie trudne w realizacji, a przed inżynierami postawiono sporo problemów do rozwiązania. Aby zapewnić wydajność porównywalną do naziemnych centrów danych, satelity musiałby komunikować się ze sobą bezprzewodowo z przepustowością liczoną w dziesiątkach terabitów na sekundę. Możliwość osiągnięcia takich transferów na razie potwierdzono jedynie teoretycznie, bo uzyskany przez Google’a rekord w testach laboratoryjnych to 1,6 Tb/s.

A to rodzi kolejny problem, bo prawa fizyki są nieubłagane. Osiągnięcie wymaganych prędkości przekłada się na konieczność zbudowania i kontrolowania rekordowo ciasnej konstelacji satelitów. Google precyzuje, że poszczególne jednostki musiałyby być oddalone o kilometr lub mniej, więc mowa o formacji “znacznie bardziej zwartej niż jakikolwiek obecny system”.

Do tego dochodzi ekspozycja jednostek TPU na promieniowanie kosmiczne, choć Google twierdzi, że wyniki testów laboratoryjnych przeprowadzonych z wykorzystaniem akceleratorów cząstek są obiecujące.

No i względy ekonomiczne. Opłacalność całego przedsięwzięcia póki co opera się na prognozach, że koszty wystrzelenia i eksploatacji satelitów w najbliższych latach drastycznie spadną.

Aktualne plany zakładają wystrzelenie dwóch prototypowych satelitów w 2027 roku.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułDyrektor aresztu odwołana po brawurowej próbie ucieczki dwóch osadzonych
Następny artykułМинистр обороны РФ нафантазировал, что США “отрабатывают ядерный удар” по России