GIGABYTE – de next-generation cloud-opslag

Redactie
0

Inhoudsopgave

    Cloud-opslag

    Cloud-opslag kan verwarrend zijn omdat het woord ‘cloud’ een vluchtig idee oproept. Toch is het zeker tastbaar en een belangrijke mijlpaal in de ontwikkeling van opslagtechnologie. Voordat we ons verder verdiepen in cloud-opslag, moeten we eerst enige achtergrond geven van de technische ontwikkelingen die in de afgelopen vijf decennia hebben plaatsgevonden in de opslag van bedrijfsgegevens.

    De eerste belangrijke innovatie in de opslagtechnologie kwam tot stand in het midden van de jaren zestig. In die tijd werden schijven niet langer een integraal onderdeel van de hostcomputer, maar werd de opslag verplaatst naar onafhankelijke externe opslagapparaten. Dit was het tijdperk van Direct Attached Storage (DAS). Bij de DAS-architectuur communiceerde het externe opslagapparaat met de hostcomputer via het SCSI-protocol en was verbonden via koperen kabels. Op die manier was meer opslagruimte van het externe opslagapparaat beschikbaar voor de hostcomputer.

    In 1987 publiceerde een groep computerwetenschappers van UC Berkeley, bestaande uit David Patterson, Garth Gibson en Randy Katz, een rapport met de titel ‘A Case for Redundant Arrays of Inexpensive Disks (RAID)’, wat op zijn beurt de term ‘Redundant Array of Independent Disks (RAID)’ creëerde. Met de geboorte van de RAID-technologie en het opslagnetwerkprotocol, brak in de jaren tachtig het tijdperk aan van het Storage Area Network (SAN). Met de SAN-architectuur kon een hostcomputer verbinding maken met een extern opslagapparaat via een speciale switch en het Fibre Channel-protocol. Daarmee konden meerdere hostcomputers één extern opslagapparaat delen. Zodra het externe opslagapparaat was gepartitioneerd in meerdere Logical Unit Numbers (LUN’s), konden hostcomputers hun opslagcapaciteit koppelen aan één van de LUN’s in de externe opslag.

    Na de lancering van SAN volgde een andere belangrijke netwerkopslag-technologie, Network Attached Storage (NAS). Bij NAS-systemen liep de bestandstoegang via ethernet, waarbij de fysieke hostcomputer de NAS-opslag als map kon definiëren via het lokale netwerk en het NFS/CIFS-protocol.

    SAN-technologieën evolueerden van uitsluitend gebruik van Fibre Channel (FC) tot een heterogene combinatie van Fibre Channel en IP-switches en -technologie in de vorm van IP SAN met ethernetverbindingen.

    Geschiedenis van opslagapparatuur

    SAN en NAS waren sinds de jaren negentig de populairste technieken voor gecentraliseerde opslag voor de meeste bedrijven. De opkomst van cloud-computing heeft dit echter radicaal veranderd.

    In 2012 begon Amazon met het aanbieden van twee cloud-opslagdiensten: Amazon Elastic Block Service (EBS) en Simple Storage Service (S3). Zoals de naam al aangeeft, is EBS een opslagdienst op blokniveau waarbij klanten die cloud-webhostingoplossingen van Amazon huren, er ook opslagruimte bij kunnen huren. Ook biedt Amazon een andere cloud-opslagdienst, S3, die een objectopslagdienst is.

    S3 is anders in die zin dat voor zijn objectopslagoperaties een Application Programming Interface (API) nodig is. Wanneer je gehuurde S3-opslag wilt gebruiken als de image database van je websiteserver, heb je de API van S3 nodig om toegang te krijgen tot de opslag. Sindsdien is het aanbod aan objectgebaseerde cloudopslagdiensten en -technologie flink gegroeid, denk maar aan Dropbox, Apple iCloud Drive, Box en Google Drive.

    Gegevensopslag als een dienst

    De Data storage as a Service (DaaS) die momenteel worden aangeboden als cloudopslag kunnen ruwweg worden onderverdeeld in de volgende drie typen:

    1. SAN- en NAS-opslag, of een mix van beide. Gebruikers kunnen verbinding maken via het internet of een lokaal netwerk, en zij gebruiken blok- of bestandssystemen als opslag. De gebruiker kan bijvoorbeeld de blokservice van de cloudopslagprovider via IP-SAN gebruiken om een host-computerschijf toe te voegen. Of hij kan het bestandssysteem van de cloud-opslagprovider gebruiken via het CIFS/NFS-protocol. Dit type cloud-opslagtechnologie maakt het voor gebruikers mogelijk om bestaande IT-infrastructuur en investeringen te blijven gebruiken.

    2. Databasetoepassingen. Deze DaaS-variant is in staat identieke operaties te bieden als die van de database en beschikt over een uitstekende schaalbaarheid. Vaak zijn echter specifieke API’s van softwareproviders nodig voor de koppeling.

    3. Object-gebaseerde cloudopslag. Dit is een softwaregedefinieerde opslagdienst waarbij alle gegevensinvoer als objecten worden behandeld en aan Uniform Resource Identifiers (URI’s) worden toegewezen, zodat de webgebaseerde interface of API van de Name Base er toegang tot heeft. Amazon S3 gebruikt bijvoorbeeld een API om toegang te krijgen tot bestanden.

    Net als cloudcomputing heeft de cloudopslag het voordeel dat gebruikers per gehuurde capaciteit betalen. Er is ook veel add-on software beschikbaar die er op gericht is om de fysieke opslagruimte van de cloud zo efficiënt mogelijk te gebruiken, zoals gegevenscompressie, gegevensdeduplicatie, et cetera. Cloudproviders factureren tenslotte vaak naar gebruik.

    Cloud-opslagdiensten werden (en worden nog steeds) ontwikkeld op basis van propriëtaire specificaties van verkopers. Dit vormt een groot probleem voor ontwikkelaars, omdat in veel gevallen de gegevensformaten niet uitwisselbaar zijn tussen verschillende providers. De Storage Networking Industry Association (SNIA) heeft normen opgesteld voor cloudopslag, de Cloud Data Management Interface (CDMI), waarvan de versie 1.0.1 van de specificaties en definitie al in 2012 is verschenen. De standaarden maken het voor Software-Defined Storage (SDS) mogelijk om het compatibiliteitsprobleem geleidelijk op te lossen en helpen bij de ontwikkeling van nieuwe opslagtechnologie.

    Vergelijking tussen traditionele opslag en SDS-architecturen

    Het grootste verschil tussen traditionele opslag en SDS-architecturen is de mogelijkheden om systemen te kunnen uitbreiden. De voordelen van SDS zijn onder meer:

    • On-demand opschalen op elk gewenst moment

    • Systeemoperaties worden niet beïnvloed door een single point of failure

    • Opgeslagen gegevens hoeven niet te worden gemigreerd tijdens het uitbreidingsproces.

    De nadelen van traditionele opslagarchitecturen zijn onder andere:

    • Beheer wordt erg moeilijk door de verschillende hardware- en softwarevereisten van de cloudopslag die traditionele providers aanbieden.

    • Snel veranderende applicatie-eisen van Big Data worden niet vervuld door de beperkte flexibiliteit als gevolg van architectuurbeperkingen.

    • Het gebruik van resources van traditionele opslag is onevenwichtig bij gebruik van verschillende applicaties.

    De nieuwe SDS-technologie kan de knelpunten van traditionele opslag architecturen oplossen.

    Waarom SDS beter is dan traditionele opslagarchitecturen

    • x86 hosts die kunnen worden aangesloten op typische netwerken worden gebruikt om de beperkingen van dedicated verbindingen in traditionele opslagarchitectuur te overwinnen, waardoor eiland- en datamigratieproblemen worden geëlimineerd.

    • De flexibiliteit van de opslag schaal, capaciteit en prestatie-eisen zijn beter dan traditionele architecturen.

    • Systeemimplementatie kan worden gedaan op de basislaag van het virtueel architectonische platform, zodat applicaties en dataopslag naast elkaar kunnen bestaan en middelen kunnen delen.

    • Een breed scala van opslagprotocollen wordt ondersteund.

    • De OpenStack-opslagomgeving en mainstream virtuele platforms, waaronder VMware, MSFT Hyper-V of op Linux gebaseerde opslagnetwerkarchitecturen, worden ondersteund.

    Een recente ontwikkeling is dat SDS vaker wordt gebruikt als een onafhankelijk onderdeel van de HPC-architectuurplanning. Op die manier kan worden voorzien hoe de opslag-overdracht en de capaciteit van supercomputersystemen op elkaar moet worden afgestemd.

    GIGABYTE serveropslag-oplossingen

    SDS is veel beter dan traditionele opslagtechnologie, hoewel het veel uitdagingen kent in zakelijke IT-omgevingen of eigen cloudarchitecturen. Hoewel de SDS-architectuur wordt gebruikt voor de datapoolconfiguratie van supercomputercentra om te kunnen voldoen aan de vereisten van een hoge capaciteit en een hoge overdrachtssnelheid, moet deze op maat worden gemaakt voor specifieke vereisten, wat het lastig maakt om deze ook geschikt te maken voor kleinschalige projecten.

    Omdat SDS-architectuurproducten zijn ontwikkeld op basis van opensource-software, zijn de productvoordelen uniek voor systeemaanbieders en ISV’s. SDS onderscheidt zich van de concurrentie in de markt dankzij hardwareproducten die geoptimaliseerd zijn voor SDS en doorlopende updates en onderhoud voor nieuwe software-versies.

    GIGABYTE houdt zich al meer dan twee decennia bezig met de ontwikkeling en verkoop van serverproducten. We hebben kunnen anticiperen in welke richting de markt zich ontwikkelt dankzij jarenlange ervaring in het ontwikkelen van hardware en nauwlettende observatie van marktinteracties. Voor verschillende producttoepassingen hebben we de categorieën R- (rack), H- (high density), G- (GPU) en S- (Storage) ontwikkeld en servers ontworpen om aan hun specifieke vereisten te voldoen, om zo producten te kunnen leveren met een optimale prijs/prestatieverhouding voor verschillende toepassingen. Door vanaf de ontwerpfase samen te werken met software-opslagproviders, kunnen we one-stop-hardwareoplossingen aanbieden, zodat klanten hoogwaardige zakelijke opslagsystemen kunnen aanschaffen.

    Storage server lineup list

    Bigtera VirtualStor Scaler

    Bigtera is een merk dat eigendom is van Silicon Motion Technology. De Bigtera VirtualStor Scaler-productlijn richt zich op het aanbieden van opslagproducten met scale-out-mogelijkheden en een goede prijs-prestatieverhouding. Gebruikers kunnen hiermee flexibel aanpassen en uitbreiden op basis van hun zakelijke behoeften. De scale-out-architectuur van de VirtualStor Scaler biedt de flexibiliteit, databescherming, etc. die inherent zijn aan de SDS architectuur.

    In samenwerking met GIGABYTE zijn drie gestandaardiseerde servers met verschillende capaciteiten ontworpen voor de VirtualStor Scaler. Deze biedt opslagoplossingen met lage initiële configuratiekosten, een flexibele capaciteitsuitbreiding en prestatie-optimalisatie.

    Bigtera VirtualStor Scaler

    VMware vSAN

    vSAN van VMware is het SDS-product voor virtuele vSphere-architectuur waarmee gebruikers tegelijkertijd kunnen werken en opslaan op het VMware-platform. VMware vSAN is beschikbaar voor standaard x86-servers. Volgens de vSAN-implementatiegids zijn de door GIGABYTE ontworpen en geproduceerde x86-servers geschikt om hiervoor te configureren. GIGABYTE-servers met vSAN’s hyper-converged infrastructuurproducten zijn eenvoudig te organiseren en in te zetten, zolang specifieke configuraties worden gebruikt, zoals te zien is in de servertabellen hieronder.

    Met vSAN geconfigureerde servers zijn gestandaardiseerde hardwareconfiguraties waarvan hun vSan ReadyNode-productbeschrijvingen opgenomen zijn in de vSAN VCG (VMware Configurator Guide). Op die manier is de selectie van onderdelen ingeperkt. VMware heeft de beschikbare opties voor de vSAN ReadyNode duidelijk beschreven. Voor details, kun je je aanmelden op de MY VMware-site en de documentatie raadplegen.

    GIGABYTE biedt oplossingen met dezelfde configuratie, zoals deze worden vermeld door vSAN ReadyNode. Klanten kunnen op die manier de juiste producten selecteren voor hun doel, met de optimale prijs-prestatieverhouding en de hoogste ROI.

    GIGABYTE configuratievoorbeeld: AMD & Intel; VMware vSan HY-6 & AF-8

    AMD-HY6: GBT R181-Z91/vSAN_HY6

    Conclusie

    Met het verschijnen van de next-generation-processors zal GIGABYTE zich blijven inspannen om zijn serverhardware productontwerpen te optimaliseren. GIGABYTE zal in samenwerking met SDS-partners SDS-architectuurproducten ontwikkelen met on-demand capaciteitsuitbreidingsmogelijkheden om one-stop inkoop en geïntegreerde opslagbronnen te kunnen aanbieden, om zo opslageilanden effectief te elimineren.

    Onze klantenkring omhelst diverse industrieën, waaronder mediabedrijven, het onderwijs, overheidslaboratoria, halfgeleiderfabrikanten en dat zullen in de toekomst nog meer worden. We willen een gestroomlijnd zakelijk ecosysteem opbouwen en de problemen van IT-teams met betrekking tot opslag, gegevensbeveiliging en computerprestaties oplossen.

     

    Deel dit artikel

    Lees ook

    Wat is een server? Een technische gids van GIGABYTE

    We beschikken momenteel over een ongelooflijke hoeveelheid rekenkracht – niet zozeer door de apparaten die we in huis hebben, maar door de servers waa...

    Flexibele serveropties met de Gigabyte R282-Z96

    Met ondersteuning voor AMD's nieuwste 3e generatie EPYC-processors, is de Gigabyte R282-Z96 ontworpen als optimaal platform voor een breed scala aan t...

    0 Praat mee
    avatar
      Abonneer  
    Laat het mij weten wanneer er