blank

_blog

blank
19.12.2023
blank
blank

Boom na sztuczną inteligencję wymusza zmiany w centrach danych, zarówno jeśli chodzi o architekturę, jak i sprzęt. Nasi specjaliści podkreślają, że wyraźnie zwiększy się zapotrzebowanie na dyski półprzewodnikowe.  

Generatywna sztuczna inteligencja stanowi wyzwanie dla dostawców korporacyjnych pamięci masowych.  Projektanci systemów muszą zapewnić wysoką przepustowość dla coraz większych strumieni danych. Wielu specjalistów stara się oszacować jaki będzie wpływ AI, analityki czy przetwarzania brzegowego na rozwój dysków półprzewodnikowych, a także samych systemów all-flash. Opracowywanie modeli sztucznej inteligencji wymaga ogromniej ilości danych. Dyski półprzewodnikowe pozwalają znacznie  przyspieszyć procesy obliczeniowe, ale pozostaje jeszcze kwestia przetwarzania i przechowywania zasobów cyfrowych.

Przez długie lata w branży pamięci masowych obowiązywał kompromis pomiędzy wydajnością, a pojemnością. Jednak na przestrzeni ostatnich kilku lat sytuacja się zmieniła – na rynek trafiają produkty gwarantujące wysoką wydajność i pojemność liczoną w petabajtach (PB). Nie jest to marketingowy chwyt, lecz odpowiedź na potrzeby firm oraz instytucji. Również dostawcy systemów all-flash muszą uwzględniać pracę z coraz większymi zbiorami danych. Pojazdy autonomiczne oraz duże modele językowe wykorzystują do nauczania zasoby liczone w PB. Jedną z rekordzistek jest Tesla. Producent szacuje, że tzw. gorąca pamięć podręczna wynosi 200 PB danych. Według Averbit jest to ekstremalny przypadek, bowiem większość klientów wykorzystuje do projektów związanych z rozwojem sztucznej inteligencji znacznie mniejsze zasoby, nie przekraczające 100 TB.

Osobną kwestią pozostaje wydajność. Rosnące wymagania użytkowników wobec macierzy, przyczyniają się z jednej strony do wzrostu popytu na modele all-flash, zaś z drugiej –  napędzają zmiany w ich architekturze, czego przykładem jest postępująca adaptacja protokołu NVMe.  Jego zastosowanie pozwala uzyskać niskie opóźnienia (rzędu 50 mikrosekund), a tym samym wyeliminować tzw. wąskie gardła występujące w warstwie pamięci masowej.

Produkty z rodziny IBM FlashSystem, oferowane przez Averbit, są przystosowane do pracy z dużymi obciążeniami związanymi ze sztuczną inteligencją. Wybór odpowiedniego modelu zależy od konkretnych potrzeb. Niemniej szczególnie imponujące są parametry modelu IBM FlashSystem 9500. System posiada cztery procesory 2.4GHz Intel Ice Lake z 24 rdzeniami z możliwością obsługi do 3 TB pamięci cache. IBM FlashSystem 9500 obsługuje aż do 48 modułów FlashCore Modules (FCM), bazująceych na protokole NVMe. W obudowie 4U system może obsługiwać efektywne 4,5 PB danych. Powyższe parametry sprostają firmom przeprowadzającym najbardziej złożone analizy w czasie rzeczywistym bądź obciążeniom AI.

Warto dodać, że IBM pod koniec października zaprezentował nowy produkt IBM Storage Scale System 6000. Jest to zdefiniowany programowo system pamięci masowej oferujący równoległy system plików o wysokiej wydajności, który może obsłużyć obciążenia AI wymagające dużej ilości danych. Zapewnia do 7 milionów IOP (operacji wejścia/wyjścia na sekundę) i przepustowość do 256 GB/s w przypadku obciążeń tylko do odczytu.

Do naszego portfolio IBM Storage Scale System 6000 dołączy już wkrótce. Jeżeli jesteście zainteresowani tym rozwiązaniem, skontaktujcie się z nami!

blank
blank

Czytaj także

_współpraca

blank

Jeżeli poszukujesz rzetelnej firmy z zakresu integracji systemów informatycznych, dobrze trafiłeś. Skontaktuj się z nami jeszcze dziś, a my dobierzemy dla Ciebie najbardziej korzystne rozwiązanie.

blankwyślij formularz blank(22) 400 10 90