A A+ A++

Na wydarzeniu Samsung AI Forum 2024 przedsiębiorstwo przedstawiło swoją strategię dotyczącą rozwoju w obszarze sztucznej inteligencji, skierowaną zarówno do globalnych ekspertów, jak i akcjonariuszy. Samsung zapowiedział, że dział odpowiedzialny za pamięci operacyjne przeznaczone do akceleratorów AI intensywnie pracuje nad rozwojem technologi PIM (Processing in Memory). Celem tej innowacji jest stworzenie konkurencyjnego rozwiązania dla szybkiej pamięci HBM.

Samsung intensywnie pracuje nad rozwojem technologi PIM (Processing in Memory). Celem tej innowacji jest stworzenie konkurencyjnego rozwiązania dla szybkiej pamięci HBM, co ma na celu przełamanie dominacji SK Hynix.

Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencji [1]

Samsung został skrytykowany przez pracowników za nieefektywne zarządzanie i skupienie się na krótkoterminowych celach

Samsung po raz pierwszy przedstawił pamięci PIM (Processing in Memory) w 2021 roku, lecz technologia ta nie zyskała wtedy dużego zainteresowania wśród największych producentów akceleratorów AI, takich jak NVIDIA. Pomimo to Samsung kontynuuje rozwój tej innowacji, dążąc do stworzenia konkurencyjnej alternatywy dla szeroko stosowanej pamięci HBM. Pamięć PIM wyróżnia się wbudowaną jednostką logiczną, która umożliwia wykonywanie prostych operacji matematycznych bezpośrednio w pamięci. Dzięki temu moduły PIM mogą osiągać imponującą wydajność, oferując nawet dwukrotnie szybsze przetwarzanie w porównaniu do HBM przy jednoczesnym zmniejszeniu zużycia energii średnio o 50%, wynikającym z mniejszej liczby transferów danych między chipem GPU a pamięcią operacyjną. Samsung stawia na pamięć operacyjną typu PIM, aby wyprzedzić rywali w wyścigu o rynek układów do sztucznej inteligencji [2]

Samsung prezentuje pierwsze pamięci GDDR7 o pojemności 24 Gb. Produkcja masowa ma wystartować w 2025 roku

Podczas Samsung AI Forum 2024 firma podkreśliła bliską współpracę z AMD, któremu według nieoficjalnych doniesień dostarcza moduły HBM piątej generacji, czyli HBM3E. Partnerstwo to może sugerować, że AMD rozważa wykorzystanie pamięci PIM w nowych projektach akceleratorów AI, co mogłoby rozwiązać część problemów energetycznych tego typu układów. CEO AMD, Lisa Su, wspominała w maju 2024 roku o wyzwaniach związanych z poborem mocy chipów AI, spowodowanych przez intensywne transfery danych między jednostkami logiki a pamięcią operacyjną. PIM, dzięki możliwości przetwarzania danych bezpośrednio w pamięci, mogłoby znacząco obniżyć zużycie energii. Jeśli technologia PIM zyska akceptację wśród liderów branży sztucznej inteligencji, takich jak AMD, może na stałe znaleźć swoje miejsce w zaawansowanych akceleratorach AI, na co Samsung mocno liczy.

Źródło: Samsung, The Chosun

Oryginalne źródło: ZOBACZ
0
Udostępnij na fb
Udostępnij na twitter
Udostępnij na WhatsApp

Oryginalne źródło ZOBACZ

Subskrybuj
Powiadom o

Dodaj kanał RSS

Musisz być zalogowanym aby zaproponować nowy kanal RSS

Dodaj kanał RSS
0 komentarzy
Informacje zwrotne w treści
Wyświetl wszystkie komentarze
Poprzedni artykułPozytywni | G. Wolszczak, O. Bołądź, J. Chabior, Ł. Simlat
Następny artykułGłosuj na Muzeum Jana Pawła II w plebiscycie Radia Kraków i wspieraj lokalne inwestycje!