Een mogelijk argument voor het aanschaffen van een nieuwe grafische kaart is het afspelen van video’s. Gespecialiseerde circuits in de grafische chip nemen de processor het allergrootste deel van het decodeerwerk uit handen bij moderne videocodecs. Oudere codecs als DivX, H.264 en Microsoft VC-1 neemt hij als het ware op de koop toe. Zo staat er niets meer in de weg van het genieten van vloeiend weergegeven films en series.
Moderne grafische chips zijn ook compatibel met de voor videostreamingdiensten als Netflix benodigde kopieerbeschermingstechnieken zoals PlayReady 3.0 SL3000 (de standaard Digital Rights Management (DRM) van Microsoft), en HDCP 2.2. Alleen moet ook het scherm HDCP 2.2 ondersteunen. Speciaal voor Nvidia geldt, dat Netflix in 4K pas werkt vanaf 3GB grafisch geheugen. De Radeons van AMD vanaf de 400-serie en de geïntegreerde grafische units van Intel vanaf de Core i7000-generatie kennen deze beperking niet.
Gamers en streamers die zelf streamen naar bijvoorbeeld YouTube of Twitch, kunnen profiteren van de video- encoders van grafische chips. Daarmee is het rekenintensieve converteren van de datastream ook in 4K mogelijk, zonder dat dit dan ten koste gaat van de prestaties van de rest van het systeem. Terwijl de AMD- driver hiervoor de Radeon ReLive-functie heeft , verstopt Nvidia zijn video-encoder in de driveraanvulling GeForce Experience. Daar moet je je eerst voor registreren.
Moderne 3D-kaarten decoderen alle populaire formaten zoals H.264, H.265 (HEVC) of VP9 van YouTube minstens tot de 4K-resolutie, vaak ook met 120 Hz en HDR of in 8K. Het encoderen doen ze in H.264 of H.265 en de kwaliteit daarvan is ten opzichte van vorige generaties nog iets toegenomen. De cpu is daarentegen nog wel op zichzelf aangewezen als het gaat om het nieuwe licentievrije AV1, de opvolger van VP9.
Ook de videoweergave profiteert van de hogere contrasten van de HDR (High Dynamic Range). Donkere hoeken blijven ook naast zeer fel verlichte plekken in een verzadigd zwart gehuld en kleuren springen eruit. Het assortiment aan games die HDR gebruiken is nog steeds klein, maar groeit gestadig. Prominente vertegenwoordigers zijn onder andere Battlefield V en Assassin’s Creed: Odyssey.
Tegelijk zijn er steeds meer displays die HDR-weergave ondersteunen. Er zijn meerdere standaarden die voor gamers uitwisselbaar zijn. De eerste heet HDR10 en komt uit de televisietechniek, de tweede stamt van de standaardiseringsorganisatie VESA en heet Display- HDR. Deze omvat de vijf niveaus 400, 500, 600, 1000 en 1400. Deze definiëren niet alleen de maximaal behaalde (top-) helderheid, maar ook andere factoren zoals de kleurdiepte en de latentie. Monitoren die HDR10 ondersteunen zijn er intussen vanaf circa 200 euro, die met DisplayHDR400 vanaf circa 300 euro.
Interessant artikel, maar wat ik mis is waar je op moet letten als je de grafische kaart ook wilt gebruiken voor AI, bijvoorbeeld door programma’s als Gigapixel.
Ook benieuwd waar je op moet letten als je 3D CAD wilt gebruiken.
De opmerkingen in het kader ‘Grafische kaarten voor workstations’ zijn hierbij relevant. Specifiek voor Gigapixel kun je bijvoorbeeld bij de producent van de software kijken (Topaz Labs).
Zie https://tweakers.net/pricewatch/compare/774889;774557/
Staat er niet een (klein) foutje? De MSI GeForce GT 1030 2GH LP OC is actief gekoeld, de MSI GeForce GT 1030 2GH OC is passief gekoeld. Toch?
Verder: dank voor het artikel.
De GT 1030 2GH LP OC is een passief gekoelde variant, zoals in dit artikel vermeld. De kaart in de pricewatch-vergelijking is de 2G LP OC (zonder H). De benamingen zijn ook lekker duidelijk 😉