Biała księga

Zaawansowana architektura pamięci masowej wspierająca sztuczną inteligencję w centrach danych.

seagate-supermicro-osnexus

Zbudowane z myślą o przyszłości sztucznej inteligencji wspólne rozwiązanie Supermicro, Seagate i OSNexus zostało zaprojektowane dla wspierania wydajności i skalowalność AI.

min na przeczytanie

seagate-supermicro-osnexus

Spis treści:

    Podsumowanie.

    Rozwój sztucznej inteligencji (AI) wywołał bezprecedensowe zapotrzebowanie na skalowalne, wydajne i niedrogie rozwiązania pamięci masowej do centrum danych. Niniejsza dokumentacja techniczna prezentuje kompleksowe rozwiązanie łączące sprzęt Supermicro, dyski twarde Seagate Exos z rozwiązaniem Mozaic 3+™ opartym na technologii HAMR firmy Seagate oraz oprogramowanie OSNexus QuantaStor. To połączone rozwiązanie stanowi odpowiedź na gwałtowny wzrost potrzeb w zakresie pamięci masowej danych opartych na sztucznej inteligencji, zapewniając niezawodną architekturę, która obsługuje zarówno konfiguracje skalowalne w górę, jak i w poziomie. Kluczowe korzyści to lepsza skalowalność umożliwiająca radzenie sobie z rosnącymi obciążeniami AI, wyjątkowa wydajność, wysoka przepustowość i niskie opóźnienia, zoptymalizowana efektywność kosztowa dzięki zmniejszonej liczbie dysków fizycznych i oszczędności energii, ujednolicona platforma zarządzania, która upraszcza operacje, zaawansowane funkcje bezpieczeństwa zapewniające zgodność z przepisami i ograniczony wpływ na środowisko dzięki energooszczędnemu rozwiązaniu pamięci masowej.

    Wprowadzenie.

    Gwałtowny rozwój technologii sztucznej inteligencji i uczenia maszynowego (ML) zasadniczo zmienił krajobraz pamięci masowej danych. Postępy w zakresie mocy obliczeniowej, powszechny dostęp dla programistów oraz szybsze narzędzia programistyczne doprowadziły do eksplozji innowacji opartych na sztucznej inteligencji. W miarę jak modele AI stają się coraz bardziej zaawansowane, zapotrzebowanie na skalowalne i wydajne rozwiązania pamięci masowej nigdy nie było większe. Dane stanowią podstawę sztucznej inteligencji, a możliwość skutecznego przechowywania, zarządzania i uzyskiwania dostępu do dużych ilości danych ma kluczowe znaczenie w trenowaniu modeli i wdrażaniu aplikacji AI. Tradycyjne rozwiązania pamięci masowej często nie są w stanie sprostać tym wymaganiom, co wymusza rozwój nowych architektur dostosowanych do obciążeń roboczych wykorzystujących sztuczną inteligencję.

    Ewolucja obciążeń roboczych związanych ze sztuczną inteligencją wymaga stale zmieniających się rozwiązań pamięci masowej.

    Obciążenia robocze wykorzystujące sztuczną inteligencję stanowią unikatowe wyzwania, którym tradycyjne rozwiązania pamięci masowej starają się sprostać. Modele AI wymagają do trenowania dużych ilości danych, często osiągających petabajtową skalę. Dane te muszą być łatwo dostępne, ponieważ wydajność procesu uczenia w dużym stopniu zależy od ich szybkiego pozyskiwania. Co więcej, zastosowania sztucznej inteligencji często wiążą się z zadaniami związanymi z przetwarzaniem danych na dużą skalę, które wymagają wysokiej przepustowość i niskich opóźnień w celu zapewniania informacji w czasie rzeczywistym.

    Intensywność obliczeniowa obciążeń roboczych wykorzystujących sztuczną inteligencję generuje również znaczne ilości metadanych, którymi należy zarządzać w wydajny sposób, aby zapobiegać powstawaniu „wąskich gardeł”. Tradycyjne rozwiązania pamięci masowej, ze względu na ograniczoną skalowalność i wydajność, nie są odpowiednie dla tych wymagań. Często brakuje im elastyczności umożliwiającej obsługę dynamicznych obciążeń roboczych, co prowadzi do braku wydajności i zwiększenia kosztów operacyjnych.

    Innowacje wspierane przez sztuczną inteligencję wymagają rozwiązań pamięci masowej, które mogą szybko zmieniać skalę, obsługiwać duże woluminy nieustrukturyzowanych danych i zapewniać bezproblemowy dostęp do tych danych. Na przykład trenowanie złożonego modelu AI obejmuje iteracyjne przetwarzanie ogromnych zestawów danych w celu udoskonalenia algorytmów i zwiększenia dokładności. Ilość danych wymaganych w takich iteracjach może przytłoczyć tradycyjne systemy pamięci masowej, powodując opóźnienia i zmniejszając ogólną wydajność operacji opartych na sztucznej inteligencji.

    Co więcej, aplikacje AI są coraz częściej wdrażane w środowiskach czasu rzeczywistego, w których natychmiastowe przetwarzanie danych ma kluczowe znaczenie. Obejmuje to zastosowania takie jak autonomiczne pojazdy, konserwacja predykcyjna i spersonalizowana opieka zdrowotna. Takie zastosowania wymagają rozwiązań pamięci masowej, które nie tylko oferują dużą pojemność, lecz również wyjątkową wydajność, umożliwiając natychmiastową analizę danych i podejmowanie decyzji.

    Obsługa konfiguracji skalowalnych w górę i w poziomie.

    Wspólne rozwiązanie Supermicro, Seagate i OSNexus łączy najnowocześniejszy sprzęt i oprogramowanie, zapewniając solidną, skalowalną i wydajną pod względem kosztów infrastrukturę pamięci masowej do obciążeń roboczych związanych z AI. Podstawowe komponenty tego rozwiązania obejmują serwery Supermicro i JBOD, dyski twarde Seagate Mozaic 3+, dyski SSD Seagate Nytro NVMe oraz oprogramowanie OSNexus QuantaStor.

    Architektura połączonego rozwiązania obsługuje zarówno konfiguracje skalowalne w górę, jak i w poziomie, zaspokajając różne potrzeby wdrożeniowe. 

    Zmiana skali w górę (lub pionowe) obejmuje zwiększenie pojemności pojedynczego systemu pamięci masowej lub serwera poprzez dodanie większej liczby zasobów, takich jak procesory, pamięć i/lub dyski pamięci masowej. Takie podejście maksymalizuje wydajność indywidualnych jednostek, lecz wiąże się z ograniczeniami w zakresie skalowalności. 

    Z drugiej strony skalowanie w poziomie (lub horyzontalne) obejmuje dodawanie do systemu większej liczby węzłów pamięci masowej lub serwerów, co powoduje rozłożenie obciążenia na wiele jednostek. Takie podejście pozwala na praktycznie nieograniczoną skalowalność, umożliwiając systemom obsługę większych, bardziej złożonych obciążeń roboczych AI poprzez płynną rozbudowę architektury w miarę wzrostu zapotrzebowania.

    Konfiguracje skalowalne w górę idealnie nadają się do mniejszych, ekonomicznych zastosowań, oferując przepustowość na poziomie 5–10 GB/sekundę. W przeciwieństwie do tego konfiguracje skalowalne w poziomie są przeznaczone do większych wdrożeń i charakteryzują się liniowym skalowaniem wydajności wraz z dołączaniem kolejnych węzłów. Skalowalność tego rozwiązania pozwala osiągać przepustowość rzędu setek gigabajtów na sekundę, co pozwala sprostać wymaganiom intensywnych obciążeń roboczych związanych ze sztuczną inteligencją.

    Bezproblemowa integracja serwerów Supermicro, dysków Seagate oraz oprogramowania QuantaStor tworzy spójne i wydajne rozwiązanie pamięci masowej. Architektura ta obsługuje zarówno plikową, jak i obiektową pamięć masową, zapewniając organizacjom elastyczność wyboru konfiguracji najbardziej odpowiedniej dla ich konkretnych potrzeb. Ujednolicone zarządzanie zapewniane przez QuantaStor gwarantuje harmonijną pracę wszystkich komponentów, dostarczając optymalną wydajność i niezawodność. Możliwość zarządzania konfiguracjami skalowalnymi w górę i w poziomie w ramach jednej platformy upraszcza operacje i zmniejsza złożoność związaną z utrzymywaniem wielu systemów pamięci masowej. 

    Przegląd architektury.

    Architektura składa się z serwerów Supermicro, dysków twardych Seagate Exos Mozaic 3+ oraz dysków SSD Seagate Nytro NVMe, a wszystko to zarządzane przez oprogramowanie OSNexus QuantaStor. Takie połączenie zaspokaja intensywne potrzeby związane z obciążeniami roboczymi wynikającymi ze sztucznej inteligencji / uczenia maszynowego, które wymagają wysokiej przepustowości, niskich opóźnień i możliwości wydajnej obsługi ogromnych zbiorów danych.

    Rozważania na temat infrastruktury wdrażania.

    • Szczegóły dotyczące sieci i minimalnej infrastruktury wymaganej do odniesienia sukcesu wykraczają poza zakres tego dokumentu, ale mają kluczowe znaczenie przy podejmowaniu decyzji dotyczących architektury.
    • Kluczowe kryteria:
      • Szybkość sieci (określa optymalny rozmiar nośnika i węzła)
      • Dane techniczne szafy (głębokość szafy i przestrzeń U)
      • Budżet na energię i chłodzenie

     

    Architektury skalowalne w górę i w poziomie.

     

    • Architektura skalowalna w górę
      • Taka architektura jest idealna dla środowisk, które wymagają oszczędnej pamięci masowej o dużej gęstości. Wykorzystuje ona dwuportowe dyski NVMe w obudowie Supermicro liczącej 24 kieszenie, co zapewnia wysoką dostępność i wydajność poprzez umożliwienie współdzielonego dostępu do dysków. Architektura ta umożliwia rozbudowę za pośrednictwem JBOD, co pozwala na podłączenie do czterech JBOD do kontrolerów skalowalnych w górę, a tym samym obsługuje konfiguracje dysponujące nawet siedmioma petabajtami pamięci masowej z dyskami twardymi Mozaic 3+ klasy korporacyjnej.
      • W skalowalnych w górę konfiguracjach QuantaStor korzysta z OpenZFS – wydajnego systemu plików klasy korporacyjnej, znanego z zaawansowanej ochrony danych, skalowalności i efektywności, szczególnie w środowiskach pamięci masowej o dużej skali – pozwalając na skuteczne sprawdzanie integralności danych i optymalizację pamięci masowej. Architektura ta jest szczególnie dobrze dopasowana do mniejszych obciążeń związanych ze sztuczną inteligencją / uczeniem maszynowym oraz środowisk, w których minimalizacja kosztów i maksymalizacja gęstości są priorytetami.
    Zdjęcie produktu z objaśnieniami funkcji.

    Powiększ

     

    • Architektura skalowalna w poziomie
      • Architektura skalowalna w poziomie zapewnia liniową skalowalność wydajności poprzez dodawanie większej liczby węzłów. Wykorzystuje ona kodowanie z wymazywaniem i techniki replikacji w węzłach w celu zapewniania wysokiej dostępności i nadmiarowości danych. Architektura ta jest szczególnie przydatna w przypadku dużych obciążeń roboczych związanych ze sztuczną inteligencją i uczeniem maszynowym, gdy potrzeby w zakresie wydajności i pojemności stale rosną. Na przykład trenowanie dużych modeli językowych (LLM), takich jak GPT (Wstępnie przeszkolony transformator generatywny) lub BERT (Dwukierunkowa reprezentacja kodera z transformatorów), wymaga ogromnej mocy obliczeniowej i pamięci masowej danych, co sprawia, że architektura skalowalna jest niezbędna do zarządzania rosnącą złożonością i ilością danych. Ponadto badania genomiczne wykorzystujące sztuczną inteligencję, w przypadku których wielkoskalowe przetwarzanie danych genomicznych jest wymagane do realizacji takich zadań, jak analiza wariantów i badania nad ekspresją genów, również korzystają ze skalowalności i wysokiej dostępności, które zapewnia skalowalna architektura.
      • Taka architektura może łączyć węzły hybrydowe (połączenie NVMe i dysków twardych) z węzłami all-flash, zapewniając elastyczność w konfigurowaniu klastrów na podstawie określonych wymagań w zakresie wydajności i pojemności. W skalowalnych konfiguracjach QuantaStor wykorzystuje swoją integrację z technologią Ceph, która przoduje w zapewnianiu rozproszonej pamięci masowej w dużej liczbie węzłów.

    Kluczowe czynniki i opcje projektowe.

    W zależności od konkretnych wymagań w zakresie wydajności i pojemności danych w zadaniach wykorzystujących sztuczną inteligencję / uczenie maszynowe różne konfiguracje mogą być konieczne do osiągnięcia optymalnych wyników. Czynniki takie jak ilość przetwarzanych danych oraz szybkość, z jaką należy uzyskać do nich dostęp, decydują o tym, czy to konfiguracja hybrydowa lub all-flash będzie najlepszym rozwiązaniem dla tego scenariusza. Dodatkowo na decyzje projektowe dotyczące architektury będą wpływać względy budżetowe i wymagania dotyczące skalowalności. 

    • Konfiguracje hybrydowe.  
      • W konfiguracjach hybrydowych stosuje się połączenie dysków NVMe SSD i dysków twardych o dużej pojemności w celu zrównoważenia wydajności i kosztów. Architektura ta obsługuje do 60 lub 90 dysków w grupach JBOD, dzięki czemu nadaje się do realizacji zadań związanych ze sztuczną inteligencją / uczeniem maszynowym, które wymagają zarówno wysokiej wydajności, jak i dużej pojemności w zakresie PB, np. w medycynie i badaniach fizycznych. 
      • Typowa skalowalna pula hybrydowa może korzystać z trzech dysków NVMe na pulę do obsługi metadanych i przenoszenia małych plików w połączeniu z dyskami twardymi o dużej pojemności do przechowywania większych zestawów danych. Skalowalne konfiguracje hybrydowe będą mieć trzy lub więcej dysków NVMe na węzeł.
    • Konfiguracje all-flash 
      • Konfiguracje all-flash są zalecane w przypadku obciążeń roboczych związanych ze sztuczną inteligencją / uczeniem maszynowym, które wymagają ekstremalnie wysokiej wydajności, takich jak analityka w czasie rzeczywistym lub zadania wymagające intensywnego przetwarzania danych. 
      • Takie skalowalne konfiguracje mogą zapewnić przepustowość do 1 TB/s dzięki wykorzystaniu setek dysków NVMe w skalowalnych klastrach. 
    • Rozważania dotyczące pojemności i wydajności 
      • Istotne jest zrównoważenie wymagań dotyczących pojemność pamięci masowej i wydajności. Na przykład w skalowalnym w poziomie klastrze hybrydowym z połączeniem pamięci flash i dysków twardych około 3% całkowitej pamięci masowej może stanowić pamięć flash w celu optymalizacji wydajności, podczas gdy w skalowalnym w górę klastrze hybrydowym pamięć flash może stanowić około 1%. Ponieważ dyski twarde oferują wyraźną przewagę pod względem kosztu na terabajt i całkowitego kosztu posiadania – dyski SSD klasy korporacyjnej wiążą się z ceną premium na poziomie 6 do 1 – to właśnie dyski twarde pozostają preferowanym wyborem dla dużych pojemności w centrach danych. 
      • Architektura pozwala na rozpoczęcie od mniejszych klastrów i ich rozbudowę w miarę potrzeb poprzez dodanie większej liczby węzłów lub JBOD, sprawiając, że infrastruktura pamięci masowej może rosnąć wraz ze wzrostem obciążeń związanych ze sztuczną inteligencją / uczeniem maszynowym. 

    Zarządzanie i optymalizacja.

    Skuteczne zarządzanie i optymalizacja mają kluczowe znaczenie dla zapewniania najlepszej obsługi obciążeń związanych ze sztuczną inteligencją / uczeniem maszynowym w ramach architektury pamięci masowej. Zaawansowane funkcje zarządzania w QuantaStor usprawniają operacje, zapewniając kompleksową kontrolę i nadzór w różnych konfiguracjach.

    • Ujednolicone zarządzanie QuantaStor
      • QuantaStor zapewnia ujednoliconą płaszczyznę sterowania, która upraszcza zarządzanie architekturą skalowalną w górę i w poziomie. Obsługuje zaawansowane funkcje, takie jak automatyczne warstwowanie, szyfrowanie typu end-to-end oraz zgodność ze standardami branżowymi, zapewniając bezpieczeństwo i optymalizację infrastruktury pamięci masowej pod kątem obciążeń związanych ze sztuczną inteligencją / uczeniem maszynowym. 
      • Technologia siatki oprogramowania pozwala na bezproblemowe skalowanie pamięci masowej w wielu lokalizacjach, eliminując złożoność zarządzania rozproszonymi systemami.

    Przykłady użycia i scenariusze.

    Różne obciążenia robocze związane ze sztuczną inteligencją / uczeniem maszynowym wymagają dostosowanych rozwiązania pamięci masowej, aby osiągnąć optymalną wydajność i efektywność kosztową. W zależności od skali i złożoności obciążeń można wdrażać konfiguracje skalowalne w górę, w poziomie lub mieszane, w celu spełnienia specyficznych wymagań różnych branż i zastosowań.

    • Przypadki użycia konfiguracji skalowanych w górę
      • Konfiguracje skalowalne w górę idealnie nadają się do środowisk o mniejszych obciążeniach roboczych związanych ze sztuczną inteligencją i uczeniem maszynowym lub takich, w których priorytetem jest efektywność kosztowa. Nadają się do takich zastosowań, jak pamięć masowa do obsługi multimediów i rozrywki, wirtualizacja serwera i archiwizacja danych. 
    • Zastosowania skalowalne w poziomie 
      • Konfiguracje skalowalne w poziomie są przeznaczone do zastosowań obliczeniowych wymagających wysokiej wydajności, data lake oraz środowisk sztucznej inteligencji / uczenia maszynowego, w których możliwość skalowania zarówno wydajności, jak i pojemności ma kluczowe znaczenie. Te konfiguracje są również idealne dla wielkoskalowej obiektowej pamięci masowej i analityki w czasie rzeczywistym. 
    • Mieszane zastosowania
      • Organizacje mogą wdrażać zarówno konfiguracje skalowalne w górę, jak i w poziomie w tym samym środowisku, korzystając z ujednoliconego zarządzania QuantaStor w celu utrzymania spójności i optymalizacji wydajności przy różnych obciążeniach roboczych.

    whitepaper-joint-ai-supermicro-figure-4

    Powiększ

    Postępy technologiczne.

    Postępy technologiczne w tym rozwiązaniu mają kluczowe znaczenie dla jego skuteczności. Dyski twarde Seagate Exos Mozaic 3+ stanowią znaczący krok naprzód w zakresie technologii pamięci masowej. Dzięki wykorzystaniu technologii HAMR dyski te osiągają niespotykaną gęstość powierzchniową, co pozwala na uzyskanie większej pojemność pamięci masowej w tej samej przestrzeni fizycznej. Ten postęp nie tylko odpowiada na potrzebę przechowywania danych w dużej skali, lecz także poprawia wydajność energetyczną, ponieważ do przechowywania tej samej ilości danych potrzeba mniej dysków.

    Zalety dysków twardych Mozaic 3+ w zakresie całkowitego kosztu posiadania są znaczące, zapewniają m.in. 3 razy większą pojemność pamięci masowej przy takiej samej przestrzeni zajmowanej przez centrum danych i przy o 25% niższych kosztach w przeliczeniu na TB, o 60% niższym zużyciu energii na TB oraz o 70% obniżonym poziomie emisji dwutlenku węgla na TB (w porównaniu z dyskami PMR o pojemności 10 TB, co stanowi wielkość często wymagają modernizacji w dzisiejszych centrach danych). Niższe zużycie energii przez dyski przekłada się na zmniejszenie kosztów energii, natomiast wyższa gęstość zmniejsza zapotrzebowanie na przestrzeń fizyczną, prowadząc do oszczędności w zakresie infrastruktury centrum danych. Ponadto niższa zawartość dwutlenku węgla w dyskach sprawia, że są one opcją bardziej przyjazną dla środowiska, spełniającą cele związane ze zrównoważonym rozwojem, które stają się coraz ważniejsze dla nowoczesnych przedsiębiorstw.

    Integracja dysków SSD Seagate Nytro NVMe zapewnia kolejny poziom poprawy wydajności. Te szybkie dyski są niezbędne do zarządzania intensywnymi operacjami odczytu i zapisu, typowymi dla obciążeń roboczych związanych z AI. Niski poziom opóźnień pozwala na dostęp do danych i ich przetwarzanie w czasie rzeczywistym, co ma kluczowe znaczenie dla trenowania modeli AI i wdrażania aplikacji AI. Konstrukcja dysków SSD z podwójnym portem zwiększa niezawodność, ponieważ pozwala na nieprzerwaną pracę nawet w przypadku awarii jednego portu.

    Oprogramowanie OSNexus QuantaStor jeszcze bardziej usprawnia rozwiązanie, zapewniając inteligentne zarządzanie danymi i zaawansowane funkcje bezpieczeństwa. Funkcje automatycznego warstwowania oprogramowania zapewniają przechowywanie danych w najbardziej odpowiedniej warstwie, optymalizując zarówno wydajność, jak i koszty. Pełne szyfrowanie i zgodność ze standardami branżowymi pomagają chronić dane, zapewniając bezpieczeństwo i prywatność, które mają zasadnicze znaczenie w zastosowaniach AI, szczególnie w takich branżach, jak opieka zdrowotna i finanse, gdzie często przetwarzane są wrażliwe dane.

    whitepaper-joint-ai-supermicro-figure-6

    Powiększ

     

    Korzyści płynące z rozwiązania.

    Wspólne rozwiązanie Supermicro, Seagate i OSNexus oferuje kilka kluczowych korzyści, które odpowiadają specyficznym potrzebom sztucznej inteligencji / uczenia maszynowego. Korzyści te obejmują:

    • Skalowalność: Zdolność rozwiązania do skalowania zarówno w górę, jak i w poziomie sprawia, że może ono rozwijać się wraz ze wzrostem wymagań związanych z obciążeniami roboczymi wykorzystującymi sztuczną inteligencję. Niezależnie od tego, czy organizacja ma do czynienia z kilkoma terabajtami, czy też kilkoma petabajtami danych, rozwiązanie może zaspokoić ich potrzeby bez konieczności gruntownej przebudowy infrastruktury pamięci masowej.
    • Wydajność: Wykorzystanie dysków SSD Seagate Nytro NVMe oraz Mozaic 3+ w połączeniu z możliwościami zarządzania QuantaStor zapewnia wyjątkową wydajność. Jest to szczególnie ważne w przypadku obciążeń roboczych związanych ze sztuczną inteligencją / uczeniem maszynowym, które wymagają wysokiej przepustowości i małych opóźnień, aby działać skutecznie.
    • Efektywność kosztowa: Architektura rozwiązania została zaprojektowana z myślą o optymalizacji zarówno nakładów inwestycyjnych, jak i operacyjnych. Dzięki zmniejszeniu liczby potrzebnych fizycznych dysków, obniżeniu zużycia energii i zaoferowaniu elastycznej, ujednoliconej platformy zarządzania, rozwiązanie znacząco obniża całkowity koszt posiadania (TCO).
    • Ujednolicone zarządzanie: Zdolność QuantaStor do zarządzania architekturą skalowalną zarówno w górę, jak i w poziomie za pomocą pojedynczego interfejsu upraszcza operacje i zmniejsza złożoność związaną z rozwiązaniami pamięci masowej od różnych producentów. Takie ujednolicone podejście nie tylko oszczędza czas, lecz także zmniejsza ryzyko błędów i zwiększa ogólną wydajność.
    • Bezpieczeństwo i zgodność z przepisami: Rozwiązanie obejmuje zaawansowane funkcje bezpieczeństwa, które chronią dane przed nieautoryzowanym dostępem i zapewniają zgodność ze standardami branżowymi. Jest to szczególnie ważne w przypadku zastosowań AI w regulowanych branżach, gdzie naruszenie danych może skutkować znacznymi karami prawnymi i finansowymi.
    • Wpływ na środowisko: Zastosowanie dysków Seagate zbudowanych na platformie Mozaic 3+ zmniejsza wpływ centrów danych na środowisko poprzez zmniejszenie zużycia energii i fizycznej przestrzeni wymaganej do przechowywania. Wiąże się to z rosnącym naciskiem na zrównoważony rozwój w sektorze technologicznym.

    Przykłady użycia i zastosowania.

    Rozwiązanie jest wystarczająco uniwersalne, aby obsługiwać szeroką gamę zastosowań w różnych branżach. Oto kilka przykładów: 

    • Opieka zdrowotna: Obciążenia związane ze sztuczną inteligencją i uczeniem maszynowym w opiece zdrowotnej, takie jak analityka predykcyjna i spersonalizowana medycyna, wymagają możliwości szybkiego i bezpiecznego przetwarzania dużych ilości danych. Połączone rozwiązanie oferuje skalowalność, wydajność i bezpieczeństwo potrzebne do obsługi tych zastosowań.
    • Finanse: W finansach sztuczna inteligencja jest wykorzystywana do takich zadań jak wykrywanie oszustw, handel algorytmiczny i zarządzanie ryzykiem. Te zastosowania wymagają szybkiego przetwarzania danych i analityki w czasie rzeczywistym, które są wspierane przez architekturę pamięci o wysokiej wydajności.
    • Media i rozrywka: Branża mediów i rozrywki generuje ogromne ilości danych, zwłaszcza w związku z rosnącym wykorzystaniem wideo o wysokiej rozdzielczości. Zdolność rozwiązania do obsługi pamięci masowej danych w dużej skali i zapewniania szybkiego dostępu do plików sprawia, że idealnie nadaje się do takich zadań, jak edycja wideo, renderowanie i archiwizacja. 
    • Produkcja: Sztuczna inteligencja / uczenie maszynowe są wykorzystywane w produkcji do predykcyjnej konserwacji, kontroli jakości i optymalizacji łańcucha dostaw. Te zastosowania generują duże ilości danych, które muszą być efektywnie przechowywane i analizowane. Wspólne rozwiązanie zapewnia skalowalność i wydajność niezbędną do obsługi tych zastosowań. 
    • Badania i rozwój: Prowadzone na podstawie sztucznej inteligencji badania w takich dziedzinach jak farmacja, genomika, materiałoznawstwo i modelowanie klimatu wymagają zdolności do przechowywania i przetwarzania dużych zbiorów danych. Wysoka przepustowość i niskie opóźnienia sprawiają, że rozwiązanie to dobrze nadaje się do tych wymagających zastosowań. 

    Podsumowanie.

    Wspólne rozwiązanie AI opracowane przez Supermicro, Seagate i OSNexus oferuje wszechstronną, skalowalną i wydajną pod względem kosztów architekturę pamięci masowej, dostosowaną do unikatowych wymagań obciążeń roboczych związanych ze sztuczną inteligencją / uczeniem maszynowym. Dzięki połączeniu zaawansowanego sprzętu i oprogramowania, rozwiązanie zapewnia wyjątkową wydajność, niezawodność i skuteczność, dzięki czemu jest idealnym wyborem dla organizacji chcących wykorzystać AI do zyskania przewagi konkurencyjnej. Niezależnie od tego, czy jest wdrażane w opiece zdrowotnej, finansach, branży mediów, produkcji czy badaniach naukowych, rozwiązanie to zapewnia solidną infrastrukturę potrzebną do obsługi następnej generacji aplikacji AI i toruje drogę do przyszłych innowacji opartych na sztucznej inteligencji w różnych branżach. 

    Tabela rozwiązań.

    Topologia Produkt Model odporności Czysta pojemność Pojemność użytkowa Szczegółowa specyfikacja
    Skalowanie w górę Hybrydowy SBB; Potrójna parzystość 2039 TB (raw) 1512 TB (do wykorzystania) link
    Skalowanie w górę All-flash SBB Podwójna parzystość (4d+2p) 737 TB (raw) 553 TB (do wykorzystania) link
    Skalowanie w poziomie Hyper All-flash EC2k+2m/REP3 1106 TB (raw) 533 TB (do wykorzystania) link
    Skalowanie w poziomie 4U/36 EC4K+2m/REP3 3974 TB (raw) 2513 TB (do wykorzystania) link
    Skalowanie w poziomie 4U/36 EC8K+3m/REP3 8342 TB (raw) 5786 TB (do wykorzystania) link
    Skalowanie w poziomie Podwójne węzły, ładowanie od góry EC8K+3m/REP3 11 981 TB (raw) 8406 TB (do wykorzystania) link


    Skróty i informacje dodatkowe.

    SBB: Storage Bridge Bay.
    EC: Kodowanie z wymazywaniem.
    „Podwójna parzystość” i „potrójna parzystość” odnoszą się do liczby bloków parzystości wykorzystywanych do zapewniania nadmiarowość danych i tolerancji na błędy.
    Ciągi liczbowe odnoszą się do modelu odporności.