AMD Epyc 7003 Milan en Intel Xeon-SP Gen 3 Ice Lake voor servers

Redactie
0

Inhoudsopgave

    Inleiding

    We hebben Intels eerste Xeon-serverprocessors met 10nm-technologie vergeleken met de derde generatie Epyc-processors van AMD. Lukt het Intel om AMD weer voorbij te streven?

    Hoewel de eerste AMD Epyc meer dan drie jaar geleden verscheen en aan zijn derde generatie (Milan) toe is, blijven de Xeons van Intel de markt voor serverprocessors domineren. De Xeon Scalable Processors (Xeon-SP) kregen echter een reality-check: de prijzen en de verkoop daalden in de tussentijd aanzienlijk. De Xeon-SP-generatie Ice Lake met 10-nanometer technologie (die eigenlijk al jaren eerder gepland was) zou de grote achterstand op de 64-core Epyc nu moeten inlopen.

    De nieuwe Xeons hebben tot 40 in plaats van slechts 28 cpu-cores en komen op gelijke hoogte met de Epycs op het gebied van de PCI Express-standaard (met PCIe 4.0 in plaats van 3.0) en RAM (met acht in plaats van zes geheugenkanalen). AMD heeft de derde generatie Epyc verbeterd met Zen 3-microarchitectuur. Aangezien serverfabrikanten zoals Gigabyte veelal beide platforms in hun assortiment hebben, bekijken wij de rivalen op hun bijzondere eigenschappen.

    Merkbare optimalisaties

    Bij Epyc is de stap van Zen 2 (7002, Rome) naar Zen 3 niet erg groot, maar wel significant. Epyc 7003-cpu’s draaien in dezelfde servers en moederborden als hun voorgangers, mits de betreffende fabrikant een BIOS- update levert. Daardoor blijven de versie SP3 (zie de tabel verderop) en acht geheugenkanalen en 128 PCIe 4.0- lanes per cpu bestaan, waarvan de helft wordt gebruikt om de tweede processor aan te sluiten in een dual-socket (2S) systeem. Het aantal cores en de cache-capaciteit zijn ook hetzelfde gebleven.

     

    AMD Epyc 7003 Milan

    Een Epyc combineert tot negen afzonderlijke siliciumchips (dies) in één pakket: acht Core Complex Dies (CCD’s) met elk acht Zen 3-cores (met hun eigen L1- en L2-cache), en 32 MB gedeelde L3-cache. Elke CCD is verbonden met de I/O-die, die geheugencontrollers bevat voor in totaal acht DDR4-kanalen, plus acht PCIe 4.0 x16-controllers. Van de 128 lanes zijn er 80 omschakelbaar: 16 lanes in SATA-modus, 64 andere lanes in GMI-modus om een tweede Epyc aan te sluiten. Er zijn ook controllers voor USB, SPI, I²C en LPC: een Epyc kan zonder chipset.

    AMD heeft echter de rekenkernen en de structuur van de zogenaamde Core Complexes (CCX) slim geoptimaliseerd, net als bij de Ryzen 5000, die al in de herfst van 2020 geïntroduceerd werd. In vergelijking met de voorganger heeft AMD vooral de latentie verminderd, onder meer door een betere aansluiting van de Level 3-cache (L3), die nog steeds 32 MB groot is en waarvan de volledige capaciteit nu ook rechtstreeks door een enkele core kan worden aangesproken. De jump-prediction en geheugendoorvoer zijn ook verbeterd. Afhankelijk van de code verwerkt een Zen 3-core ongeveer 10 tot 20 procent meer instructies per cyclus (IPC) dan de cores in de Zen 2. AMD komt ook met meer Epyc-versies met 240 en 280 watt Thermal Design Power (TDP). Die klokken gemiddeld hoger dan hun 225-watt voorgangers, mits het betreffende servermoederbord voldoende power levert en de koeling meewerkt. AMD biedt ook enkele Epyc F-versies met minder cores, maar met een bijzonder hoge turbokloksnelheid en maximale cache-uitbreiding. Die zijn zeer geschikt voor software waarbij je licenties betaalt per cpu-core, en voor toepassingen waarbij de laagste latency belangrijk is.

    AMD blijft vertrouwen op een chiplet-ontwerp, waarbij verschillende silicium-dies in één processor worden gecombineerd. Het blijft bij acht CCX-dies (CCD’s) met elk acht cpu-cores, die de contractfabrikant TSMC produceert met 7nm-technologie. De aansluiting van RAM, PCI Express, SATA, USB en andere I/O functies wordt geregeld door de I/O-die, die nog steeds wordt geproduceerd door Globalfoundries met de oude 12nm-technologie. Voor de I/O-dies waren er slechts kleine updates voor beveiligingsfuncties.

    AMD Epyc 7003: dualsocket-server (vereenvoudigd)

    Om twee Epyc cpu’s te koppelen, kunnen 48 of 64 van de 128 PCIe-lanes worden omgeschakeld naar de Inter-Chip Global Memory Interconnect (xGMI) modus. Sinds de eerste Epyc-generatie wordt de SP3-versie met 4094 contactpunten gebruikt. Elk van de acht geheugenkanalen biedt plaats aan één of twee modules (1DPC/2DPC). Met 1DPC is DDR4-3200 toegestaan, met 2DPC DDR4-2933. 16 DIMM’s met elk 256 GB levert een maximum van 4 TB per socket (8 TB met 2 sockets).

    Xeon-update

    Vergeleken met zijn directe voorganger Cascade Lake, heeft de Ice Lake Xeon bijna revolutionaire vernieuwingen. Intel schakelt niet alleen over van 14- naar 10nm-productie, waardoor 42 procent meer kernen in de processor kunnen, maar er zijn ook volledig herziene Sunny Cove-rekenkernen met nieuwe functies, PCI Express 4.0 in plaats van PCIe 3.0, 64 in plaats van 48 PCIe-lanes en acht in plaats van zes geheugenkanalen. De vele extra aansluitingen vereisen de nieuwe LGA4189-socket, dus ook nieuwe moederborden. Bovendien noteert AMD 913 dollar op de prijslijst voor de goedkoopste Milan-Epyc 7313P (16 cores), terwijl Intels Xeon Silver 4309Y (8 cores) begint bij 500 dollar – ook iets wat we niet eerder zagen.

    Intel-SP Gen 3 Ice Lake

    Een Ice Lake-Xeon bestaat uit een enkele (monolithische) die waarop alle 40 cpu-cores en de I/O-controller zitten. Elke core heeft zijn eigen L1- en L2-caches en een 1.5 MB L3-tile. Alle functieblokken zijn onderling verbonden via een snel mesh-netwerk. Om twee (of meer) Xeons te verbinden zijn er drie Ultra Path Interconnects (UPI’s). De Xeon-SP heeft een chipset nodig die onder meer SATA en USB verbindt. De verbinding tussen cpu en chipset wordt door Intel DMI genoemd. Die is nauw verwant aan PCIe 3.0.

    Intel belooft voor Sunny Cove gemiddeld 20 procent meer rekenkracht per klokcyclus dan voor Cascade Lake. Ice Lake Xeons blijven echter ook ongeveer 20 procent onder de turbofrequenties van Cascade Lake (maximaal 3,7 in plaats van maximaal 4,5 GHz). Maar omdat er nu veel meer cores zijn (overigens ook meer cores per euro dan bij de voorgangers), neemt de rekenkracht per fysieke processor aanzienlijk toe.

    Dat de Ice Lake-technologie niet de hoge frequenties van de voorgangers haalt, bleek al in 2019 bij de mobiele processoren van de tiende Core i-generatie. Intussen is Intel overgestapt op de elfde generatie Tiger Lake met verder geoptimaliseerde Willow Cove-cores, die meer dan 4,5 GHz halen. Vergelijkbare cores zullen waarschijnlijk ook worden gebruikt in de voor 2022 aangekondigde Sapphire Rapids-generatie Xeons, die ook DDR5-RAM en PCI Express 5.0 ondersteunen en opnieuw een nieuwe cpu-socket vereisen – vermoedelijk LGA4677.
    De huidige Ice Lake Xeons van de derde generatie (Gen 3) zijn dus een soort tussengeneratie. Dait komt ook tot uiting in de verwarrende onderverdeling in marktsegmenten: er waren eerder al Gen 3 Xeon SP’s. Die Cooper Lake-types zijn nog afkomstig van de 14nm-productie en zijn bedoeld voor servers met vier en meer processors. Ze zijn op de typelijst te herkennen aan een achteraan toegevoegde H, bijvoorbeeld Xeon Platinum 8380H in plaats van 8380. Omgekeerd zijn de nieuwe Ice Lake Xeon SP’s (net als de Epycs) gericht op servers met één of twee cpu-sockets en zijn er net als bij de Epycs goedkopere versies alleen voor single-slot gebruik (U-types, bij Epyc P-types).

    Intel Xeon-SP Gen 3: dualsocket-server (vereenvoudigd)

    Om twee cpu’s te koppelen, heeft elke Xeon-SP drie controllers voor de Ultra Path Interconnect (UPI). De Ice Lake-Xeons passen in de nieuwe LGA4189-socket, die meer contacten heeft voor meer geheugenkanalen en PCIe-lanes in vergelijking met de voorgangers. Elk van de acht geheugenkanalen biedt plaats aan één of twee modules, zelfs als volledig gevulde DDR4-3200 is toegestaan. Tot de helft van de modules kan Optane DC-geheugen zijn met maximaal 512 GB per DIMM, dan is 6 TB geheugen per socket mogelijk (waarvan 2 TB RAM), dus 12 TB met 2 Xeons. De chipset Lewisburg-R (C62x) is aangesloten via DMI, en SATA, USB, SPI, I²C en andere bussen.

    Speciale functies

    De Epyc en Xeon-SP bieden elk exclusieve functies voor specifieke doelen. De Epyc biedt bijvoorbeeld Secure Encrypted Virtualization (SEV) om de afzonderlijke geheugenadresgebieden van parallel draaiende virtuele machines verschillend te versleutelen. Enerzijds dient dat voor zogenaamd Confident Computing in de cloud, waarbij zelfs een beheerder met rootrechten de inhoud van het geheugen niet kan achterhalen. Anderzijds laat SEV side-channel-aanvallen zoals Spectre, waarbij malware in de ene virtuele machine probeert data van een andere te stelen, mislukken. SEV kan onder meer worden gebruikt met de VMware ESXi-hypervisor, en in de toekomst zelfs in de Encrypted State-versie (SEV-ES), die zelfs voorkomt dat de hypervisor (aka VM Monitor) in het geheugen van de virtuele machine kan kijken.

    De Ice Lake-Xeon is alleen in staat tot de transparante volledige geheugenversleuteling Total Memory Encryption (TME), waarbij al het geheugen met dezelfde sleutel wordt beschermd. Intel had oorspronkelijk ook Multi Key TME (MK-TME) aangekondigd, analoog aan AMD’s SEV, maar de nieuwe Xeons hebben Software Guard Extensions (SGX) om versleutelde enclaves in het geheugen op te zetten voor gevoelige data op cloudservers, de zogeheten Trusted Execution Environment. De respectieve sleutels voor geheugenencryptie worden bij AMD bewaard door de Secure Processor (vaak Platform Security Processor (PSP) genoemd), en bij Intel de Converged Security and Management Engine (CSME).

    De Epyc kan ook PCIe-lanes wisselen voor het cache-coherent verbinden van de in-house Radeon Instinct MI-rekenversnellers en de geheugentoegang daarmee verenigen. AMD noemt dat Infinity Architecture. Bij Intel wordt dat alleen verondersteld te komen met Sapphire Rapids en PCIe 5.0 als Compute Express Link (CXL). Het valt nog te bezien of dergelijke functies buiten bij supercomputers op grote schaal zullen worden gebruikt.

    Xeon socket

    De eerste 10-nanometer Xeons hebben volledig herziene rekenkernen en vereisen nieuwe moederborden met een LGA4189-socket.

    Een voordeel van de Xeons – dat in theorie fors is, maar in de praktijk zelden bruikbaar – zijn de twee AVX-512 reken-units per core. Die verwerken tweemaal zoveel data per kloktik als de twee AVX-2-eenheden per Epyc-core. Intel heeft de AVX-512-units ook nieuwe AI-trucjes geleerd, namelijk Vector Neural Network Instructions (VNNI) en Deep Learning Boost (DL Boost). Als software met AVX-512-code wordt uitgevoerd, kunnen Ice Lake-Xeons de Epycs met veel meer cores dus achter zich laten. Maar ten eerste is AVX-512-code zeldzaam, ten tweede hebben Epycs meer cores, ten derde zijn ze vaak hoger geklokt dan Xeons en ten vierde worden rekenversnellers vaak gebruikt voor high-performance computing (HPC) en AI-algoritmes. Hoe de toekomst van AVX-512 eruit zal zien is nog onduidelijk omdat Intel zelf binnenkort een uitbreiding zal inbouwen met de naam Advanced Matrix Extensions (AMX), die AVX-units vaak overbodig maakt. Naar verluidt zullen programmeurs dergelijke reken-units makkelijk kunnen gebruiken dankzij Intels OneAPI.

    De AVX-512-units van de Ice Lake-Xeons kunnen ook sommige algoritmes voor encryptie en decryptie veel sneller verwerken, zoals AES en ECDHE. Intels non-volatile geheugenmodules met zeer hoge capaciteit (Optane DC Persistent Memory) kunnen alleen worden gebruikt met Xeons. De Ice Lakes hebben de nieuwe versie Pmem 200 alias Barlow Pass nodig (Pmem 100: Apache Pass), die verkrijgbaar is als geheugenmodules met een capaciteit van 128, 256 of 512 GB. Optane is trager dan DRAM, maar goedkoper per gigabyte, en duurder dan NVMe-ssd’s, maar veel sneller. Als combinatie van DDR4- en Pmem 200-modules is in een dual-socket Xeon-server tot 12 TB geheugen mogelijk. Optane-geheugen kan worden gebruikt als goedkope RAM-vervanger en ook voor speciale functies van database- en opslagservers.

     

     

    Optane RAM

    Een speciale eigenschap van de Xeons is dat ze non-volatile Optane-geheugenmodules kunnen aansturen. Ze passen in dezelfde geheugenslots als DDR4-modules, maar werken anders.

     

    Conclusie

    De derde Epyc-generatie 7003 heeft slechts kleine, maar goed werkende verbeteringen, maar de Ice Lake-Xeons presteren duidelijk beter dan hun voorgangers. Maar het is too little too late: zelfs de nieuwe Xeon-topmodellen lopen bij veel disciplines achter op de Epycs – en vaak zelfs achter op de oudere Epyc 7742.

    Met identieke hoeveelheden cores en geheugen zouden de prestatieverschillen tussen systemen met Milan en Ice Lake echter moeten wegsmelten. Voor servers voor algemeen gebruik, die vaak zijn uitgerust volgens het principe van zoveel mogelijk cores en geheugen voor zo weinig mogelijk geld, zal de prijzenoorlog tussen AMD en Intel waarschijnlijk heviger worden.

    Als het gaat om speciale toepassingsgebieden zoals cloudservers voor Confidental Computing, supercomputers of AI-systemen, komen de exclusieve kenmerken van de concurrerende processors in het spel: SEV en Infinity Architecture aan Epyc-zijde, SGX, VNNI en Optane-geheugen op de Xeons. PCI Express 4.0 brengt, onafhankelijk van de rekenkracht van cpu’s, meer snelheid voor ssd’s en rekenversnellers – uiteindelijk ook bij Xeons.

    Deel dit artikel

    Lees ook

    GIGABYTE – de next-generation cloud-opslag

    Cloud-opslag is een belangrijke mijlpaal in de ontwikkeling van opslagtechnologie. Met het verschijnen van de next-generation-processors blijft GIGABY...

    Wat is een server? Een technische gids van GIGABYTE

    We beschikken momenteel over een ongelooflijke hoeveelheid rekenkracht – niet zozeer door de apparaten die we in huis hebben, maar door de servers waa...

    0 Praat mee
    avatar
      Abonneer  
    Laat het mij weten wanneer er