A A+ A++

Rozwój AI ma być nawet do 1000 razy bardziej energooszczędny.


Data center mają zużyć mniej prądu dzięki CRAM / Fot. Morozov Alexey, Shutterstock.com

Data center mają zużyć mniej prądu dzięki CRAM / Fot. Morozov Alexey, Shutterstock.com

Globalne zapotrzebowanie na moc obliczeniową AI sprawia, że centra danych zużywają energię elektryczną w ogromnym tempie i ilościach. Naukowcy z University of Minnesota starają się rozwiązać ten problem i zdaje się, że znaleźli rozwiązanie.

Naukowcy zaprojektowali nowy prototypowy układ “obliczeniowej pamięci o dostępie swobodnym” (CRAM), który mógłby zmniejszyć zapotrzebowanie na energię dla aplikacji AI o nawet — uwaga — 1000 razy (lub więcej) w porównaniu z obecnymi metodami. W jednej symulacji technologia CRAM wykazała niesamowitą oszczędność energii w wysokości nawet 2500 razy.

Zobacz również:

Tradycyjne obliczenia polegają na trwającym już dziesięciolecia modelu von Neumanna z oddzielnymi jednostkami procesora i pamięci. Wymaga to ciągłego przesyłania danych tam i z powrotem w dość energochłonnym procesie. Zespół z Minnesoty całkowicie przebudował ten model, wykonując obliczenia bezpośrednio w samej pamięci i wykorzystując “spintroniczne urządzenia” zwane “magnetycznymi złączami tuneli” (ang. MTJ — magnetic tunnel junctions).

Zamiast polegać na ładunkach elektrycznych do przechowywania danych, urządzenia spintroniczne wykorzystują spin elektronów, oferując bardziej efektywny substytut dla tradycyjnych układów tranzystorowych.

Nowa metoda działa. CRAM może sporo namieszać

“Jako wyjątkowo energooszczędna cyfrowa podstawa obliczeniowa w pamięci, CRAM jest bardzo elastyczna, ponieważ obliczenia mogą być przeprowadzane w dowolnym miejscu w tablicy pamięci. Dzięki temu możemy konfigurować CRAM tak, aby najlepiej odpowiadała potrzebom wydajności różnych algorytmów AI” — powiedział Ulya Karpuzcu, współautor publikacji w Nature. Dodał, że jest CRAM bardziej energooszczędna niż tradycyjne bloki konstrukcyjne dla dzisiejszych systemów AI.


Eliminując energochłonne transfery danych między logiką a pamięcią, technologie CRAM, takie jak ten prototyp, mogą być niezbędne dla znacznego zwiększenia efektywności energetycznej AI w czasach, gdy jej zapotrzebowanie na energię gwałtownie rośnie.

Międzynarodowa Agencja Energii prognozowała w marcu br., że globalne zużycie energii elektrycznej na szkolenia modeli LLM i aplikacje AI może więcej niż podwoić się z 460 terawatogodzin w 2022 r. do ponad 1000 terawatogodzin w 2026 r. To prawie tyle, ile zużywa cała Japonia.

Naukowcy stwierdzili w komunikacie prasowym, że podstawy przełomu o nazwie CRAM były tworzone przez ponad 20 lat, sięgając pionierskich prac profesora inżynierii Jian-Pinga Wanga nad wykorzystaniem nanourządzeń MTJ do obliczeń.

Wang przyznał, że początkowe propozycje odrzucenia modelu von Neumanna były uważane za “szalone” dwie dekady temu. Ale zespół z Minnesoty wytrwał, opierając się na opatentowanych badaniach Wanga nad MRAM, które teraz znajdują już zastosowanie w smartwatchach i innych systemach wbudowanych.

Oczywiście, jak to bywa w przypadku każdego takiego przełomu, naukowcy muszą jeszcze pokonać wyzwania związane ze skalowalnością, produkcją i integracją z istniejącym krzemem. Już planują współprace demonstracyjne z liderami przemysłu półprzewodnikowego, aby pomóc uczynić CRAM komercyjną rzeczywistością.

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułBartosz Bichalski: Łączę chirurgię z ratownictwem górniczym
Następny artykułTe 6 pomysłów sprawi, że Twoje dziecko nie będzie nudzić się tego lata!