[Ekskluzywne] Samsung dostarczy wysokowydajną pamięć HBM4 dla Nvidii jako pierwszy w przyszłym miesiącu Samsung Electronics oficjalnie dostarczy pamięć o wysokiej przepustowości nowej generacji (HBM), HBM4 (6. generacja), do głównych graczy na rynku akceleratorów sztucznej inteligencji (AI), takich jak amerykański Nvidia i AMD, począwszy od przyszłego miesiąca, co stanowi pierwszy taki przypadek w branży. To następuje po uzyskaniu pozytywnych wyników w końcowych testach jakości przeprowadzonych przez te dwie firmy, co prowadzi do zamówień na produkty masowo produkowane, a nie próbki. Po pozytywnym przejściu testu Nvidii dla HBM3E (5. generacja) 12-warstwowego w czwartym kwartale ubiegłego roku i rozszerzeniu dostaw do Google, rozpoczęcie wysyłek HBM4 jako pierwsze doprowadziło do ocen, że "technologia pamięci Samsunga uległa normalizacji." Według branży półprzewodników z dnia 25, Samsung Electronics niedawno przeszedł końcowe testy jakości związane z HBM4 przeprowadzone przez Nvidię, AMD i innych, i wszedł w fazę przygotowań do pełnoskalowych wysyłek w przyszłym miesiącu. HBM4 Samsunga osiąga prędkość "11,7 Gb (gigabitów) na sekundę", co jest znacznie wyższe niż wymagana prędkość operacyjna (10 Gb na sekundę) przez Nvidię i AMD. Jest oceniane jako najwyższy poziom na świecie. Produkt ten ma być wbudowany w najnowsze akceleratory AI, które pojawią się w drugiej połowie tego roku, takie jak "Rubin" Nvidii i "MI450" AMD. Samsung Electronics, który pozostawał w tyle za SK Hynix i amerykańskim Micron w rywalizacji o dostawy obecnie mainstreamowego produktu HBM3E, zastosował zwycięski ruch "osiągnięcia najwyższej wydajności", aby odwrócić sytuację na rynku HBM4. Podstawowy materiał HBM, DRAM, jest produkowany w technologii 10-nanometrowej (nm · 1 nm = 1/1,000,000,000 m) 6. generacji (1c), o jedną generację wyprzedzającej konkurencję, a die logiczne, które działa jako mózg, również stosuje zaawansowany proces produkcji 4nm (produkcja kontraktowa półprzewodników), kilka generacji wyprzedzający rywali. Gdy główni klienci, tacy jak Nvidia, poprosili o zwiększenie prędkości operacyjnej HBM4 w celu poprawy wydajności akceleratora AI w czwartym kwartale ubiegłego roku, Samsung, który zaprojektował dla najwyższej wydajności, przeszedł weryfikację natychmiast bez potrzeby redesignu. Samsung Electronics planuje utrzymać przywództwo w produktach nowej generacji, takich jak HBM4E (7. generacja) i dostosowane HBM, wykorzystując siłę obsługi całego procesu HBM, od projektowania die logicznego po pakowanie.