Technologie pamięci dla centrów danych AI

Według prognozy firmy TrendForce, dostawy serwerów przeznaczonych do obsługi sztucznej inteligencji będą stale rosnąć o średnio 10,8 proc. rocznie do 2026 roku[1]. Ten znaczący wzrost jest wynikiem zwiększonego zapotrzebowania na infrastrukturę danych oraz ciągłego postępu technologicznego. Nowoczesne serwery wykorzystują zaawansowane jednostki przetwarzania graficznego (GPU) i specjalne układy ASIC, które znacznie przyspieszają obliczenia związane z AI[2]. Ponadto, przetwarzanie na krawędzi (edge computing) czy chmura obliczeniowa, stają się coraz bardziej nieodłącznymi elementami infrastruktury sztucznej inteligencji, co prowadzi do zwiększenia dostaw serwerów i zapotrzebowania na odpowiednie rozwiązania pamięciowe.

Komentarz Macieja Kamińskiego, Dyrektora Samsung Memory w Polsce i regionie CEE

Samsung stawia na rozwijanie produktów o coraz wyższej wartości dodanej i unowocześnianie procesów. Wynika to z konieczności sprostania rosnącemu zapotrzebowaniu np. na hiperskalową sztuczną inteligencję – czyli takie modele AI, które mogą ewoluować do ludzkiego poziomu myślenia poprzez przetwarzanie ogromnych ilości danych. Nasza strategia koncentruje się na zwiększaniu wydajności zaawansowanych procesów w zakresie technologii pamięci, w celu odpowiedzi na popyt rynku, szczególnie w sektorze centrów danych obsługujących AI.

Stworzenie technologii pamięci na kształt ludzkiego mózgu

Współpraca z naukowcami z Uniwersytetu Harvarda nad technologią naśladującą ludzki mózg jest nie tylko fascynującym eksperymentem, ale również obiecuje rewolucję w zakresie sztucznej inteligencji i przetwarzania danych[3]. Być może najważniejszym aspektem tego przedsięwzięcia jest przeniesienie neuronalnej struktury do chipów pamięci, co pozwoli na tworzenie inteligentnych systemów i maszyn o zdolnościach zbliżonych do ludzkiego mózgu[4]. Rozwiązanie to będzie ogromnym krokiem w kierunku rozwoju autonomicznych pojazdów, systemów medycznych, analizy big data i wielu innych zastosowań AI.

DDR5 DRAM 32 Gb

Wysokiej klasy procesory do usług AI wymagają ponad stu rdzeni, którym musi towarzyszyć wystarczająca ilość pamięci. Jednocześnie fizycznie ograniczona pojemność wymaga zmniejszenia rozmiaru pojedynczego chipa. Aby odpowiedzieć na to dyktowane rozwojem sztucznej inteligencji wyzwanie, Samsung w 2023 roku zaprezentował nową, 32-gigabitową pamięć DRAM DDR5. Uzyskaliśmy to dzięki rozwiniętej technologii projektowania, która zapewnia efektywne rozmieszczenie komponentów w obudowie.

Ulepszenia architektoniczne umożliwiły wytwarzanie modułów 128 GB bez użycia TSV (through-silicon via). Pozwala to na bardziej opłacalną produkcję, zwiększoną produktywność i redukcję zużycia energii o 10 proc.[5] Odpowiednimi zastosowaniami nowej pamięci DRAM DDR5 będą centra danych wymagające dużej pojemności, a także przyszłe rozwiązania pamięci, takie jak MRDIMM i moduł pamięci CXL.

Jednocześnie pamięć DRAM klasy 12 nanometrów firmy Samsung — najbardziej zaawansowana w branży — zwiększa produktywność o około 20 proc. w porównaniu z poprzednią generacją DRAM klasy 14 nanometrów. Ta zróżnicowana technologia zapewnia wyjątkową wydajność i efektywność energetyczną, jednocześnie obsługując maksymalną prędkość roboczą 7,2 Gb/s. DRAM DDR5 klasy 12 nm zaspokoi różnorodne potrzeby, włączając centra danych obsługujące sztuczną inteligencję[6].

Wysokowydajna HBM3E i HBM4: kluczowy element ery AI

Pamięć o dużej przepustowości (HBM) idealnie nadaje się do zastosowań w centrach danych sztucznej inteligencji[7]. HBM wykorzystuje stosy pionowo połączonych układów DRAM i wdraża technologię TSV, w której połączenia między matrycami realizowane są poprzez tysiące wypełnionych miedzią otworów, działających jak przewody z naprzemiennymi warstwami zewnętrznych mikrobumpów.

Obecnie prowadzimy masową produkcję HBM3, poczyniwszy jednocześnie znaczne postępy w pracach nad produktem nowej generacji – zaprezentowanym w październiku HBM3E o przepustowości 9,8 Gb/s na pin i maksymalnej przepustowości 1,225 TB/s na stos. Jest to obecnie najszybsza pamięć na rynku, a co więcej – jej maksymalną pojemność zwiększyliśmy do 36 GB[8]. Dlatego też jest ona idealna dla zastosowań przy dużych modelach obliczeniowych.

Zastosowanie technologii PIM

Wąskie gardło pamięci, wynikające z architektury von Neumanna, jest kluczową przeszkodą w przypadku aplikacji AI obsługujących duże ilości danych. Aby temu zaradzić, w 2018 roku firma Samsung opracowała pierwsze w branży rozwiązanie HBM-PIM (przetwarzanie w pamięci[9]). Dzięki technologii PIM procesor jest instalowany bezpośrednio w pamięci HBM DRAM, co skutkuje przeniesieniem części zadań związanych z obliczaniem danych z procesora na samą pamięć, ograniczając w ten sposób przenoszenie ich oraz poprawiając efektywność energetyczną i wykorzystanie danych przez sztuczną inteligencję[10]. Oprócz skalowalności AI badamy, jak skonfigurować architektury PIM w pamięci DRAM przy użyciu interfejsów CXL.

Nośniki pamięci dla centrów danych

Samsung wprowadza również inteligentne dyski SSD (SmartSSD) z procesorem w pamięci masowej, co pozwala na jeszcze efektywniejsze przetwarzanie danych w bezpośrednim sąsiedztwie przechowywanych informacji. Tym samym znacząco przyspiesza działanie aplikacji intensywnie wykorzystujących dane, szczególnie tych opartych na hiperskalowej sztucznej inteligencji.

Ta technologia stanowi przełom w dziedzinie nośników pamięci i przetwarzania danych, pozwalając na bardziej efektywne zarządzanie ogromnymi ilościami informacji oraz obsługę coraz bardziej zaawansowanych systemów AI.

Premiera dysku Samsung PM1743 opartego na protokole PCIe piątej generacji w 2023 roku jest znaczącym krokiem w kierunku dostarczania rozwiązań dostosowanych do potrzeb aplikacji opartych na sztucznej inteligencji. Ten wysokowydajny dysk pomaga szybciej przetwarzać ogromne ilości danych, podczas gdy rosnąca popularność usług AI zwiększa zapotrzebowanie rynku na serwery o wysokiej wydajności.

Równie istotnym krokiem w ewolucji nośników pamięci dla centrów danych jest stworzenie zaprezentowanego niedawno dysku QLC NAND SSD o pojemności 256 TB. Jest on rozwiązaniem, które stawia czoła wyzwaniu przetwarzania ogromnych ilości danych, a jednocześnie zapewnia większą energooszczędność i zajmuje mniej przestrzeni w centrach danych[11].

Wkrótce wprowadzimy również petabajtowy dysk SSD (PBSSD), którego pojemność może zmieniać się w zależności od aplikacji i który obsługuje skalowalność na poziomie petabajtów[12].

Źródło: Samsung

[1] Shipments of AI Servers Will Climb at CAGR of 10.8% from 2022 to 2026, Says TrendForce. https://www.trendforce.com Dostęp: 02.11.2023 r.

[2] In The Era Of Artificial Intelligence, GPUs Are The New CPUs. https://www.forbes.com Dostęp: 02.11.2023 r.

[3] Samsung Electronics Puts Forward a Vision To ‘Copy and Paste’ the Brain on Neuromorphic Chips – Samsung Global Newsroom, dostęp na: 02.11.2023 r.

[4] Samsung Electronics Puts Forward a Vision To ‘Copy and Paste’ the Brain on Neuromorphic Chips – Samsung Global Newsroom, dostęp na: 02.11.2023 r.

[5] Samsung Electronics Unveils Industry’s Highest-Capacity 12nm-Class 32Gb DDR5 DRAM, Ideal for the AI Era https://news.samsung.com/ Dostęp: 05.12.2023

[6] Samsung Electronics Unveils Industry’s Highest-Capacity 12nm-Class 32Gb DDR5 DRAM, Ideal for the AI Era. https://news.samsung.com/ Dostęp: 02.11.2023 r.

[7] Insights Tag: HBM. https://www.counterpointresearch.com/ Dostęp: 02.11.2023 r.

[8] Samsung zaprezentował nowe, superszybkie pamięci Shinebolt HBM3e. https://itreseller.com.pl/ Dostęp: 02.11.2023 r.

[9] Samsung Develops Industry’s First High Bandwidth Memory with AI Processing Power https://news.samsung.com/global/ Dostęp: 05.12.2023

[10] Samsung Develops Industry’s First High Bandwidth Memory with AI Processing Power https://news.samsung.com/global/ Dostęp: 05.12.2023

[11] Samsung Announces 256TB SSDs and Unveils Peta-Byte Scale PBSSDs https://www.tomshardware.com/news/ Dostęp: 05.12.2023 r.

[12] Samsung Electronics Holds Memory Tech Day 2023 Unveiling New Innovations To Lead the Hyperscale AI Era https://news.samsung.com/global Dostęp: 02.11.2023 r.