Dirbtinio intelekto lenktynėse atmintis tapo didžiausiu butelio kakliuku. Kol NVIDIA su savo „Vera Rubin“ platforma jau naudoja SOCAMM modulius, dabar prie šio naujo standarto jungiasi ir konkurentai: Qualcomm ir AMD planuoja integruoti SOCAMM2 į savo AI greitintuvus ir serverius. Tai reiškia modulinius, keičiamus LPDDR5X atminties blokus, kurie leis lengvai didinti RAM iki šimtų gigabaitų ar net terabaitų – be brangių PCB perprojektavimų ir litavimo.
Pagal naujausius pranešimus (remiantis Hankyung, TechPowerUp ir Wccftech), Qualcomm svarsto pakeisti lituotus LPDDR5 lustus savo būsimuose AI200 ir AI250 greitintuvuose SOCAMM2 moduliais. AMD tuo tarpu žiūri į Instinct MI serijos greitintuvus ir EPYC procesorius – galbūt sukurs naują platformą, kur SOCAMM papildys tradicinę HBM atmintį.
Kodėl SOCAMM2 toks svarbus AI pasauliui?
- Modulinis dizainas – skirtingai nuo lituotos HBM ar LPDDR, SOCAMM leidžia gamintojams ir klientams keisti atminties kiekį pridėdami ar pašalindami modulius. Tai ypač patogu AI serveriams, kur modeliai vis didėja ir reikalauja daugiau atminties.
- Didelis pralaidumas ir talpa – NVIDIA „Vera“ procesoriuje SOCAMM su LPDDR5X suteikia iki 1,2 TB/s pralaidumo ir 1,5 TB talpos. SOCAMM2 (JEDEC standartizuota versija) žada dar geresnius rodiklius – iki 9,6 Gb/s per kaištį ir mažesnį energijos suvartojimą.
- Papildymas HBM – SOCAMM skirtas „šalia“ HBM – modelius galima laikyti pigesnėje, bet greitoje LPDDR atmintyje, sumažinant lėtus SSD prieigos ciklus. Tai ypač aktualu agentiniams AI modeliams ir inference užduotims.
- Energijos efektyvumas – LPDDR pagrindu veikiantys moduliai sunaudoja ženkliai mažiau energijos nei DDR5 ar HBM, o tai kritiška dideliuose AI duomenų centruose.
NVIDIA buvo pirmoji – jie jau planuoja SOCAMM2 diegti su Vera Rubin AI klasteriais 2026 m. Dabar, kai prie to jungiasi AMD ir Qualcomm, rinka greitai keičiasi: Samsung ir SK hynix jau tiekia SOCAMM2 pavyzdžius, o Micron pirmauja gamyboje. Prognozuojama, kad iki 2027 m. SOCAMM gali sudaryti 25–30 % AI inference atminties rinkos.
Ką tai reiškia Lietuvai ir Europai?
Lietuvos IT įmonės, startuoliai ir mokslininkai, dirbantys su AI (pvz., per „Supercloud“ ar universitetų klasterius), greitai gaus prieigą prie pigesnių, lankstesnių AI sistemų. Modulinė atmintis sumažins kainas ir leis lengviau mastelinti – nuo edge AI iki didelių duomenų centrų. Tačiau tai taip pat reiškia, kad LPDDR DRAM paklausa šoks į viršų, o kainos gali kilti trumpuoju laikotarpiu.
Trumpai: SOCAMM2 – tai „antrasis HBM“, bet pigesnis, lankstesnis ir energiją taupantis. Jei NVIDIA pradėjo revoliuciją, Qualcomm ir AMD dabar ją pagreitina. AI ateitis – modulinė, greita ir nebereikalaujanti lituoto „vienkartinio“ dizaino. Stebėsime, kaip greitai šie moduliai pasirodys realiose sistemose 2026 m. antrąjį ketvirtį!
