Jumătate din cipurile SOCAMM2 pentru Nvidia vor fi de la Samsung

257
DRAM SOCAMM2 Nvidia
Sursă foto: Nvidia/Youtube via Tom’sHardware

Anul trecut afacerea Samsung cu cipuri de memorie AI nu a fost la nivelul scontat de companie. Dar, Samsung a depus eforturi mari pentru a-și îmbunătăți cipurile de memorie high-end și eficiența producției în acest an. Recent, a trimis mostrele de cipuri de memorie de lățime de bandă mare (HBM4) de a șasea generație către Nvidia pentru aprobare finală. Acum, Samsung este gata să furnizeze un alt tip de modul de memorie, DRAM SOCAMM2 companiei Nvidia, necesar serverelor AI.

Am aflat acum că Samsung va furniza jumătate dintre cipurile DRAM SOCAMM2 – Small Outline Compression Attached Memory Module, de care are nevoie compania americană Nvidia în 2026. Site-ul HankyungInsight a dezvăluit că Samsung intenționează să furnizeze mai mult de 50% din modulele SOCAMM2 de care Nvidia are nevoie anul viitor.

Se pare că Samsung și-a confirmat planurile de furnizare pentru publicație din Coreea de Sud. SOCAMM este în general denumit HBM de gradul doi și este utilizat în centrele de date AI, potrivit SamMobile. Samsung a dezvoltat un modul SOCAMM2 de a doua generație pe care Nvidia intenționează să îl utilizeze anul viitor.

Micron Technology a fost primul producător de cipuri de memorie din lume care a început să furnizeze module SOCAMM. De asemnea, Micron a fost și cel mai mare furnizor de memorii SOCAMM în acest an. Cu toate acestea, companiile Samsung și SK Hynix și-au îmbunătățit mult producția modulelor lor SOCAMM. Potrivit informațiilor, Samsung a asigurat randamente și performanțe stabile pentru cipurile DRAM (1c) de a cincea generație, componenta principală a modulelor SOCAMM2.

Mai multe module SOCAMM2 sunt plasate lângă procesorul Vera de la Nvidia, în placa de bază Vera Rubin a companiei. Procesorul Vera controlează GPU-ul Rubin, care face toată munca grea în procesarea avansată AI. Anterior, se foloseau cipuri LPDDR DRAM în locul modulelor SOCAMM. SOCAMM combină patru module LPDDR DRAM într-un singur substrat. De asemenea, SOCAMM facilitează actualizarea mai bună a memoriei.

Vera Rubin, al Nvidia, combină procesorul Vera personalizat, GPU-ul Rubin de generație următoare și acceleratorul specializat Rubin CPX (Context Processing eXtension), conceput special pentru sarcini de lucru AI de milioane de token-uri.

Compania Nvidia vrea cipuri de memorie de până la 20 de miliarde GB de module SOCAMM. Acum contractul este în curs de desfășurare, iar Samsung va furniza jumătate (10 miliarde GB) din modulele necesare. Aproximativ 830 de milioane de cipuri DRAM LPDDR5X de 24GB sunt necesare pentru a produce 10 miliarde de GB de module SOCAMM2. Așadar, se estimează că este nevoie de 30.000 până la 40.000 de astfel de cipuri pe lună. Cifra reprezintă 5% din producția totală lunară de memorii DRAM a companiei Samsung.

Întrucât Samsung se pregătește să furnizeze cipuri HBM4 și SOCAMM2 către Nvidia și alți producători de cipuri de inteligență artificială, va obține profituri de miliarde în următorii câțiva ani. Se pare că Micron și SK Hynix vor furniza diferența de modulele rămase către compania Nvidia.