Dit gaat het nieuwe LPDDR-geheugen anders doen dan voorheen
Nieuwe mobiele geheugenchips (ook wel bekend als LPDDR-geheugen) zetten in op meer snelheid en minder verbruik. Met technieken als Low Power Wide I/O en Mobile HBM verschuift de lat opnieuw, vooral voor toepassingen in smartphones en AI. De beloften zijn groot, maar de praktijk zal moeten uitwijzen hoeveel daarvan standhoudt.
Lees verder na de advertentie

Op de hoogte blijven omtrent alles over werkgeheugen?
Schrijf je in voor de gratis nieuwsbrief:
Wat is Low Power Wide I/O?
Geheugenchips met een groot aantal datalijnen, bekend als “Low Power Wide I/O”, zijn ontworpen om hoge gegevensoverdrachtsnelheden te leveren bij een zo laag mogelijk energieverbruik. Die efficiëntie is essentieel voor mobiele apparaten, waar elke milliwatt telt en prestaties niet mogen inboeten op accuduur.
LPDDR-geheugen geïnspireerd op HBM-technologie
Grote namen als Samsung en waarschijnlijk ook SK Hynix werken aan opvolgers van LPDDR-geheugen die verder gaan dan LPDDR5X en de aankomende LPDDR6.
De nieuwe modules krijgen meer datalijnen en halen hogere snelheden. Geïnspireerd door HBM-technologie uit AI-versnellers van Nvidia en AMD, zou deze variant voor mobiele toepassingen wel eens als “Mobile HBM” op de markt kunnen komen.
Alternatieve benamingen en bestaande standaarden
Naast “Mobile HBM” circuleren ook namen als Low Power Wide I/O (LPW) en Low Latency Wide I/O (LLW). Die laatste werd zelfs genoemd tijdens de Samsung Memory Summit 2023.
Helemaal nieuw is het idee niet: JEDEC publiceerde ruim tien jaar geleden al specificaties voor Wide I/O en Wide I/O2, met tot 512 datalijnen. Een vroege toepassing was te vinden in de PlayStation Vita, die Wide I/O-DRAM gebruikte.
Verwachte introductie vanaf 2027
Volgens geruchten zou Mobile HBM of LPW-geheugen vanaf 2027 opduiken in high-end smartphones zoals de iPhone, vermoedelijk in combinatie met krachtigere AI-cores.
Tegen die tijd is ook LPDDR6 op de markt, wat directe vergelijkingen lastig maakt. Toch wijst alles erop dat LPW-geheugen een flinke stap vooruit betekent in geheugenbandbreedte.
Vergelijking van gegevenssnelheden
Ter vergelijking: een LPDDR5X-8500-chip met 16 datalijnen haalt zo’n 17 GB/s. Stapel je die tot een LPW-configuratie met 256 of 512 lijnen, dan kom je op 272 tot 544 GB/s.
Dat is vergelijkbaar met een Apple M4 Pro (273 GB/s) en zelfs in de buurt van een GeForce RTX 5060 Ti met GDDR7 (448 GB/s). De absolute top onder de grafische kaarten tikt inmiddels meer dan 1 TB/s aan.
Toekomstige snelheden met LPDDR6
LPDDR5X ondersteunt snelheden tot 9,6 GT/s. In een LPW-opstelling kan dat oplopen tot ruim 600 GB/s. Samsung mikt zelfs op 12,7 GT/s met “LPDDR5 Ultra Pro”.
De opvolger, LPDDR6, begint bij 10,667 GT/s. Met 512 datalijnen levert dat theoretisch 682 GB/s. Omdat LPDDR6 bredere kanalen krijgt — 24 bits per kanaal in plaats van 16 — zou een LPW-variant met 576 lijnen nog hogere snelheden kunnen halen.
Geavanceerde chipstapeling en verbindingstechnieken
Mobiele LPDDR-chips bestaan vaak uit meerdere gestapelde dies die vooraf extreem dun worden geslepen – tot zo’n 0,05 mm. Voor de verbinding tussen die lagen zijn verschillende technieken in omloop.
Klassiek gebeurt dat met bondingdraden, maar voor meer snelheid en aansluitingen zijn Through Silicon Vias (TSV’s) beter geschikt. Die kunnen in hoge dichtheid in het silicium worden geïntegreerd.
Een alternatief zijn zijdelingse contacten: de dies worden iets verspringend gestapeld en via een Redistribution Layer (RDL) verbonden met het onderste die. SK Hynix noemt deze aanpak Vertical Fan-Out (VFO).
Fysieke integratie in apparaten
In laptops zitten LPDDR-chips meestal direct op het moederbord naast de processor gesoldeerd. Voor meer modulariteit zijn er ook stekkervarianten zoals LPCAMM en LPCAMM2.
Mobile HBM zal vermoedelijk wél op de processor gestapeld moeten worden om de verbindingslengtes kort te houden — cruciaal bij hoge snelheden om signaalfouten te voorkomen. Een alternatief is een silicium-interposer die de processor en geheugen naast elkaar koppelt met korte verbindingen.
HBM in AI-systemen: een vergelijking
In high-end AI-servers is High Bandwidth Memory (HBM) al langer de norm. GPU’s en HBM-stacks worden daar samen op een silicium-interposer geplaatst. Elke stack telt 1024 datalijnen, en met meerdere tegelijk loopt de totale bandbreedte op tot wel 8 TB/s — zoals bij HBM3e.
Toekomstvisie: geheugen met rekenkracht
Zowel Samsung als SK Hynix werken aan een nieuwe benadering waarbij rekenfuncties direct in de geheugenchips worden geïntegreerd. Deze zogeheten Processing-in-Memory (PIM) zou het geheugen in staat stellen om niet alleen data op te slaan, maar ook eenvoudige berekeningen of zoekopdrachten uit te voeren.
Dit kan grote voordelen opleveren op het gebied van energieverbruik en snelheid, omdat de hoeveelheid te verzenden ruwe data afneemt.
Tot slot
Al met al staat de geheugenwereld aan de vooravond van een fundamentele herziening, waarin grenzen tussen opslag, rekenkracht en snelheid verder vervagen. Of Mobile HBM straks echt de nieuwe standaard wordt, zal afhangen van meer dan alleen specificaties — maar de richting is in ieder geval duidelijk.
Op de hoogte blijven omtrent alles over werkgeheugen?
Schrijf je in voor de gratis nieuwsbrief:
Tip!
Ontworpen voor creators en professionals: configureer jouw eigen ASUS ProArt P16 nu.
- Op de hoogte blijven omtrent alles over werkgeheugen?
- Wat is Low Power Wide I/O?
- LPDDR-geheugen geïnspireerd op HBM-technologie
- Alternatieve benamingen en bestaande standaarden
- Verwachte introductie vanaf 2027
- Vergelijking van gegevenssnelheden
- Toekomstige snelheden met LPDDR6
- Geavanceerde chipstapeling en verbindingstechnieken
- Fysieke integratie in apparaten
- HBM in AI-systemen: een vergelijking
- Toekomstvisie: geheugen met rekenkracht
- Tot slot
- Op de hoogte blijven omtrent alles over werkgeheugen?


Praat mee