Artikel

De voordelen van composability in een privatecloudarchitectuur

Ontdek de kosten en prestatievoordelen van composability in een privatecloudarchitectuur.

Inhoudsopgave

Voordelen van composability in de privatecloudarchitectuur Voordelen van composability in de privatecloudarchitectuur Voordelen van composability in de privatecloudarchitectuur

Een privateclouddatacenter samenstellen is als het bouwen van een sportwagen vanaf nul. U moet de juiste motor, onderdelen en uitrusting kiezen om aan de prestatievereisten van de weg en de bestuurder te voldoen. Dankzij innovaties op het gebied van hardware en software kunnen IT-architecten hun datacenters zo samenstellen dat de prestaties ervan lijken op die van een Lamborghini en niet die van een oude roestbak.

On-premises private clouds vereisen permanent toezicht, beheer en onderhoud. Operationele kosten, zoals die voor het vervangen van schijven of overprovisioning (overbevoorrading), kunnen na verloop van tijd snel oplopen. Dit verhoogt de totale eigendomskosten (TCO) van datacenters en roomt de winst van een bedrijf af. Zeker nu het aantal gegevens dat wordt vastgelegd, gemaakt en gebruikt nog elk jaar exponentieel toeneemt.

Deze knelpunten zijn precies de reden waarom wat Seagate de megatrend op het gebied van composability noemt, momenteel opgang maakt. Het moderne, composable datacenter maakt het mogelijk om elke privatecloudserver samen te stellen met componenten die losstaand zijn, maar onderling verbonden worden met optimale typen infrastructuur en bandbreedte. Composability (samenstelbaarheid) biedt een flexibele manier om gegevens in meerdere toepassingen en gegevensworkflows te beheren en er toegang toe te krijgen.

IT-architecten moeten bepalen of ze gebruikmaken van een on-premises privatecloudoplossing of een openbare/private cloud die door een derde wordt gehost. Openbare clouds delen computingservices onder verschillende klanten en worden gehost in een extern datacenter. Externe cloudproviders bieden ook gehoste private clouds, die ook extern worden gehost, maar de services worden niet gedeeld.

Private on-premises clouds worden beheerd en gehost door het eigen datacenter van een bedrijf en delen geen services met andere organisaties. Het gebruik van een on-premises private cloud biedt belangrijke voordelen zoals een groter gevoel van veiligheid, flexibiliteit en hogere prestaties. Gebruikers kunnen hun bronnen en services aanpassen zodat de hardware precies op softwarevereisten is afgestemd, in plaats van voor een 'one size fits all' aanpak te kiezen. Gebruikers hebben ook complete controle over de beveiliging, schaalbaarheid en configureerbaarheid van hun servers.

Wanneer de vereisten van toepassingen toe- of afnemen, communiceren componenten en servers met elkaar om de werklast te verdelen. IT-architecten kunnen nu datacenters inrichten op basis van een ruimere keuze aan hardware en componenten van verschillende fabrikanten. In feite demonteren – of desaggregeren – ze de traditionele datacenterinfrastructuur. Zodra ze het chassis hebben gestript, kan het datacenter opnieuw worden opgebouwd om de geïnstalleerde bronnen efficiënt te gebruiken. IT-architecten kunnen de aanschaf van onnodige hardware tegen extra kosten vermijden en componenten zijn eenvoudig te vervangen zonder uitvaltijd.

De desaggregatie en composability van het datacenter in de private cloud is geëvolueerd van een traditionele netwerkarchitectuur tot de dynamische infrastructuur van vandaag die krachtige - en veeleisende - systemen in staat stelt te functioneren. Composable desaggregatie biedt meerdere belangrijke voordelen, waaronder lagere latentie en betere beveiliging en controle over gegevens.

Beperkingen van het traditionele datacenter

Traditionele IT-architectuur bereikt zijn grenzen vanwege exponentiële gegevensgroei en de toenemende complexiteit van softwaretoepassingen. Central processing units (CPU), dynamisch geheugen met willekeurige toegang (DRAM), Storage Class Memory (SCM), grafische verwerkingseenheden (GPU), solid-state-schijven (SSD's) en harde schijven (HDD's) behoren tot de kritieke componenten waaruit een datacenter bestaat. Deze componenten worden doorgaans samen in één chassis of server ondergebracht en vormen de fundering waarop het datacenter wordt gebouwd. In deze traditionele zakelijke cloudarchitectuur is elke component, zoals een HDD, rechtstreeks verbonden met de rest van de server.

Datacenters werkten oorspronkelijk volgens het paradigma 'één toepassing per chassis'. Toen toepassingen de opslag- en gegevensverwerkingscapaciteit van afzonderlijke servers te boven gingen, begonnen IT-architecten meerdere servers te groeperen in clusters, die allemaal konden worden aangesproken als een pool van bronnen. Bedrijfsgebonden oplossingen van bedrijven zoals IBM, EMC, NetApp, en het Dot Hill-team van Seagate vormden de initiële aanzet van de sector tot gepoolde serverbronnen.

Datacenters konden dan als volgt opschalen en voldoen aan de complexere behoeften van softwaretoepassingen: had een toepassing meer opslagcapaciteit, bandbreedte of CPU-kracht nodig, dan konden extra servers – of nodes – aan het cluster worden toegevoegd. Het geclusterde model van gepoolde bronnen vormt de basis van wat we vandaag kennen als geconvergeerde en hypergeconvergeerde zakelijke cloudinfrastructuur, waarbij zakelijke hypervisortoepassingen zoals VMware worden ingezet.

Nodeclusters hebben hun doel gediend in de beginjaren van de cloud, maar zijn vatbaar voor overprovisioning. Dat doet zich voor wanneer IT-architecten meer servers aanschaffen, die vaak meer middelen bevatten dan nodig is; middelen die vervolgens niet worden gebruikt. Hoewel de geclusterde aanpak zijn voordelen heeft, zoals het garanderen van voldoende opslagcapaciteit en verwerkingskracht, zijn ongebruikte bronnen binnen servers inefficiënt. Toch waren IT-architecten aangewezen op overprovisioning om aan schaalvergrotingen te kunnen voldoen, aangezien datacenters niet over mogelijkheden beschikten om alleen specifieke bronnen of werkbelastingen dynamisch aan te passen aan de vereisten van softwaretoepassingen. Overtollige kosten zijn een natuurlijk bijproduct van overprovisioning.

IT-architecten waren ook beperkt in de keuze van hardwarecomponenten om servers samen te stellen. Met het oog op compatibiliteit moest de hardware voor alle servers of clusters bij één fabrikant worden gekocht. Bovendien waren er ook geen open Application Programming Interfaces (API's) beschikbaar om hardware van verschillende fabrikanten te helpen communiceren en op elkaar af te stemmen. Als architecten een CPU wilden vervangen door een snellere, bijvoorbeeld van een andere fabrikant, liep het vaak spaak vanwege incompatibiliteitsproblemen. Hardware van verschillende fabrikanten kon niet met elkaar communiceren of op elkaar worden afgestemd.

Hardware-incompatibiliteit is echter niet de enige factor die de traditionele gegevensinfrastructuur onder druk zet. Er moeten ook nog enorme hoeveelheden gegevens worden verzameld, opgeslagen en geanalyseerd. De explosie van big data stelt niet alleen de opslaglimieten van traditionele privatecloudclusters op de proef, maar creëert ook een knelpunt in de gegevensverwerking. Elke CPU heeft het vaak te druk met het verwerken van lokale gegevens om bronnen te delen met andere toepassingen, wat leidt tot een inefficiënte schaling van bronnen in het datacenter.

Zo berusten complexe toepassingen met kunstmatige intelligentie (AI) op het vermogen om grote hoeveelheden gegevens in korte tijd te verwerken. Wanneer een AI-toepassing gebruikmaakt van een geclusterd datacenter, ontstaan er vaak knelpunten bij het verzamelen en verwerken van gegevens. En als de toepassing meer verwerkingskracht nodig heeft, is er geen manier om de extra werklast naar andere clusters te verschuiven. Een ander negatief gevolg is latentie (vertragingen in de gegevensoverdracht tussen apparaten).

Een datacenter kan bijvoorbeeld twee serverclusters bevatten, waarvan er een overbelast is en het andere onderbenut. De toepassing die gebruikmaakt van het overbelaste cluster kan vertragen of prestatieproblemen ervaren; een probleem dat eenvoudig kan worden opgelost door het onderbenutte, overbevoorrade cluster te integreren om bij te springen. De bronnenpool waaruit die toepassing kan putten, is echter strikt beperkt tot het ene cluster dat aan die toepassing is toegewezen. Dit illustreert perfect waarom IT-architecten zochten naar efficiëntere manieren om een datacenter samen te stellen.

Het tijdperk van bedrijfsgebonden oplossingen loopt ten einde, als het al niet voorbij is. Geavanceerde softwaretoepassingen vereisen meer verwerkingskracht en opslagcapaciteit dan het traditionele geclusterde datacenter kan bieden. En IT-architecten zijn beperkt in de hardware die ze kunnen inzetten door een gebrek aan open API's die communicatie tussen apparaten mogelijk maken. IT-architecten kunnen alleen vooruitgang boeken als ze beter begrijpen hoe moderne toepassingen de privatecloudarchitectuur beïnvloeden en hoe composability traditionele IT-infrastructuuruitdagingen kan helpen overwinnen.

De invloed van toepassingen op het privateclouddatacenter

Een van de grootste drijvende krachten achter de megatrend op het gebied van composability zijn de vereisten van softwaretoepassingen. Software zoals AI of bedrijfsanalyses vergt een steeds complexere reeks hardwarevereisten die specifiek zijn voor de behoeften van die toepassing. Dit leidt tot een hevige concurrentiestrijd om bronnenpools voor opslag en verwerking.

Zoals gezegd hebben traditionele datacenters nu een breekpunt bereikt, waarbij de verwerkingskracht die verschillende apps nodig hebben regelmatig de grenzen van een geclusterd model overschrijdt. De vereisten van toepassingen evolueren ook voortdurend en veranderingen kunnen snel plaatsvinden. Voor de nieuwe versie van een zakelijke toepassing kan bijvoorbeeld twee keer zoveel opslagcapaciteit of verwerkingskracht vereist zijn als voor de vorige versie. Als dit de grenzen van het toegewezen cluster overschrijdt, moet meer hardware worden aangeschaft. Vooruitgang in software zet alles wat een traditioneel geclusterd datacenter kan bieden onder druk.

Composability biedt toepassingen toegang tot bronnenpools buiten hun eigen cluster, door de verwerkingskracht, of andere bronnen, te ontsluiten die beschikbaar zijn in overbevoorrade servers. Elke CPU, GPU of opslagnode kan onafhankelijk worden opgeschaald op basis van de prijsbehoeften van elke toepassing.

Ook extra verwerkingsvereisten creëren knelpunten binnen de traditionele datacenterinfrastructuur. De datacenterinfrastructuur is datgene wat verschillende nodes en clusters met elkaar verbindt. Idealiter zou een composable infrastructuur die aan de behoeften van moderne softwaretoepassingen voldoet, een pool van flexibele infrastructuurcapaciteit moeten creëren. Deze constructie moet onmiddellijk te configureren zijn om infrastructuur en middelen dynamisch ter beschikking te stellen naarmate de verwerkingsbehoeften van een toepassing toenemen. Het doel is geavanceerde toepassingen niet alleen een snellere verwerking te bieden, maar ook een realtime verwerking die het mogelijk maakt deze toepassingen met optimale snelheid te laten draaien.

Composability en desaggregatie zijn essentieel om te voldoen aan de vereisten van geavanceerde softwaretoepassingen. De traditionele geclusterde architectuur is gewoon niet opgewassen tegen deze taak, en informatie kan niet snel genoeg over ethernetinfrastructuren worden verzonden om geavanceerde toepassingen zoals AI goed te laten functioneren. Door componenten in een serverchassis te desaggregeren en ze met API-protocollen te laten communiceren, kunnen datacenters complexe apps op een voordelige manier bedienen.

De voordelen van desaggregatie in de private cloud

De desaggregatie van een privateclouddatacenter houdt in dat volledig wordt afgestapt van het traditionele serverchassismodel. Broncomponenten, zoals CPU's, GPU's, geheugenlagen, SSD's en HDD-opslag, kunnen allemaal worden gedesaggregeerd en à la carte opnieuw worden samengesteld binnen hun eigen infrastructuur. Deze bronnen kunnen dan worden gebruikt op basis van wat een specifieke toepassing nodig heeft, en niet op basis van hoe de componenten zijn geconfigureerd binnen een specifieke, fysieke server. Alles wat toegankelijk is in een netwerkinfrastructuur kan worden gedesaggregeerd en later opnieuw worden samengesteld.

De opslagbronnenpool waarvan een toepassing gebruikmaakt, kan bijvoorbeeld bestaan uit HDD's in tien verschillende serverracks op verschillende locaties in een datacenter. Als de toepassing meer opslagruimte nodig heeft dan momenteel wordt gebruikt, kan de ene HDD gewoon communiceren met een andere HDD die ruimte heeft en naadloos gegevens verzenden. De werkbelasting van verwerkingen kan ook dynamisch worden verschoven wanneer de vereisten van toepassingen toenemen. Andersom geldt dat, wanneer de vereisten van toepassingen afnemen, opslag en verwerking op de meest energie-efficiënte manier kunnen worden herverdeeld om dure overprovisioning te reduceren of te elimineren.

Het is een schril contrast met JBOD's (just a bunch of disks) die beperkt zijn tot één serverrack. JBOD's zijn geëvolueerd tot pools waarop toepassingen op elk moment een beroep kunnen doen, en waardoor datacenterbronnen slimmer kunnen worden toegewezen. Architecten begonnen zich vervolgens te richten op gestandaardiseerde externe opslagoplossingen die met elkaar konden communiceren.

Desaggregatie introduceert ook gestandaardiseerde interfacebewaking en stelt IT-architecten in staat een volledig composable datacenter te beheren. Het selecteren van op vereisten gebaseerde hardware – of het nu gaat om SSD's, HDD's, CPU's of infrastructuurcomponenten – is slechts één onderdeel van het desaggregeren van het traditionele datacenter en de overstap naar het creëren van een composable datacenter. Architecten hebben nog steeds de juiste open API-protocollen nodig, zoals Redfish of Swordfish, voor naadloze integratie en één gebruikersinterface om het datacenter te beheren. Met een open API kunnen hardware en software die verschillende talen spreken, met elkaar communiceren en samenwerken.

Door de toepassing te laten bepalen hoe het datacenter wordt samengesteld, in plaats van andersom, ontstaan Software-Defined Networking (SDN) en Software-Defined Storage (SDS). De volgende evolutie van SDN en SDS is het hyper-composed datacenter. Dit zou de privatecloudarchitectuur op gelijke voet kunnen brengen met sommige van de hyperscalers zoals Amazon Web Services (AWS) en Microsoft Azure. Hyperscalers zijn grote datacenterproviders die verwerking en opslag massaal kunnen vergroten. Ethernetinfrastructuren – de netwerkruggengraat van een datacenter – kunnen zelfs op maat worden gemaakt om samen te werken met HDD- en SSD-apparatuur met lage latentie. Deze aanpassing vermindert vertragingen in gegevensverkeer of -verwerking, aangezien toepassingen kunnen gebruikmaken van gedesaggregeerde bronnenpools die actief zijn op infrastructuren met lage latentie.

Open API-protocollen zoals Redfish en Swordfish zijn van cruciaal belang om alle gedesaggregeerde componenten in harmonie te laten werken. Seagate heeft zijn eigen legacy REST-API die het onderhoudt voor zijn specifieke klasse van datacenterproducten die operabiliteit tussen apparaten bevorderen. In het verleden kon het weken duren om apparaten te installeren en te integreren. API-protocollen stellen datacenterarchitecten in staat hardware à la carte, plug-and-play, aan te schaffen. Nieuwe apparaten van verschillende fabrikanten kunnen in recordtijd worden geïnstalleerd en functioneel zijn.

De desaggregatie van het datacenter is wat composability mogelijk maakt. Zodra architecten de hardwareapparatuur hebben gekozen die specifiek is voor de vereisten van hun softwaretoepassing, kunnen zij het composed datacenter van morgen bouwen, bedienen en optimaliseren.

Efficiëntie van het moderne composable datacenter voor de private cloud

De composability van het datacenter verbindt niet alleen alle gedesaggregeerde componenten, maar helpt ook de belangrijkste prestatie-indicatoren (KPI's) met betrekking tot de rentabiliteit en de prestaties van datacenters te verbeteren. In traditionele datacenters is overprovisioning een van de grootste geldverspillingen. Wanneer datacenters overbevoorraad (overprovisioned) zijn, wordt er wel betaald voor servers en middelen, maar blijven ze onbenut. In wezen betalen IT-architecten voor bronnenpools die onderbenut blijven, met als gevolg dat die harde schijven onderbezet (underprovisioned) zijn.

Onderbezette bronnen resulteren in zogeheten zwevende pools (orphan pools), of bronnenpools die geen vaste plaats hebben vanwege onderbenutting. Dit kan zowel CPU's, GPU's, Field-Programmable Gate Array (FPGA), dynamisch RAM-geheugen (DRAM) als SSD's, HDD's of Storage Class Memory (SCM) omvatten. Deze bouwstenen worden dynamisch samengesteld om via software-API's toepassingsspecifieke hardware te creëren.

Vóór de composable opensource-datacenterarchitectuur werden private clouds doorgaans gebouwd met behulp van hardware van één leverancier. Fysiek gekoppelde datacenters zijn aanvankelijk duurder en organisaties zitten vaak vast aan een leveranciergebonden architectuur die na verloop van tijd duur wordt.

De trend op het gebied van composability begon opgang te maken als onderdeel van openbarecloudarchitecturen. Producten zoals AWS en Microsoft Azure zijn twee voorbeelden hiervan. Een soortgelijke aanpak kan worden gevolgd voor de implementatie van private clouds, waarbij geld wordt bespaard door afhankelijkheid van één leverancier te vermijden en datacenters samen te stellen met apparatuur van meerdere leveranciers.

Hierdoor kunnen IT-managers meer budgettaire middelen toewijzen aan een grotere opslagcapaciteit die hen in staat stelt inzichten en waarde uit opgeslagen gegevens te halen.

Organisaties kunnen nu een opslagoplossing van een derde gebruiken, deze in hun datacenter plaatsen en naadloos integreren met een opensource-API. Als een IT-architect een SSD van de ene fabrikant wil, maar zijn datacenter is opgebouwd uit componenten van een andere fabrikant, kan die SSD zonder veel hoofdbrekens in het datacenter worden geplaatst. API's zorgen ervoor dat alle onderdelen op elkaar zijn afgestemd. Datacenterbeheerders hoeven zich bijvoorbeeld geen zorgen te maken over de manier waarop componenten via telemetrie met elkaar zullen communiceren, waardoor de kosten en stress in verband met componenten van leveranciers die nu nog geen deel uitmaken van het datacenter, afnemen.

Een ander belangrijk voordeel van gepoold of gedeeld geheugen is dat toepassingen nu een nodestoring kunnen overleven zonder dat de toestand van de virtuele machines of containerclusters die door deze node worden beïnvloed, wordt verstoord. Het idee is dat andere nodes nu ofwel de laatste toestand van het geheugen van de virtuele machine naar hun eigen geheugenruimte kunnen kopiëren (in het geval van gepoolde geheugenarchitecturen) of een 'zero copy'-proces kunnen gebruiken door middel van 'pointer redirection' over de infrastructuur met ultralage latentie en naadloos verder kunnen gaan waar de defecte node was gebleven (in het geval van gedeelde geheugenarchitecturen). Dit kan worden beschouwd als een belangrijke evolutie in de naadloze fouttolerantiemogelijkheden van de datacenters om hogere betrouwbaarheid en beschikbaarheid te bieden.

Een composable architectuur maakt ook een snellere verzameling en verwerking van gegevens uit meerdere bronnen mogelijk en, in het algemeen, een efficiënter gebruik van de geïnstalleerde bronnen. Een composable gegevensbronarchitectuur omvat doorgaans fysieke sensoren, gegevenssimulaties, door de gebruiker gegenereerde informatie en telemetriecommunicatie. Datacenterbeheerders kunnen dan in enkele minuten bronnen opstarten en ze direct tussen toepassingen delen.

Eén overzicht van alle bronnen

Het orkestreren en beheren van een privateclouddatacenter is ook eenvoudiger met een composable architectuur die gebruikmaakt van een containergebaseerde orkestratieclient. Alle hardware kan worden gedesaggregeerd, samengesteld en bewaakt vanuit één interface. Datacenterbeheerders kunnen een duidelijk, realtime beeld krijgen van welke bronnenpools worden gebruikt en ervoor zorgen dat er geen overprovisioning plaatsvindt. In veel gevallen zal het beheer worden uitgevoerd met standaardsoftware. Die kan zowel bedrijfsgebonden als opensource zijn.

De implementatie van nieuwe softwaretoepassingen in een containergebaseerde opensource-omgeving is ook flexibeler, vooral door de flexibiliteit waarmee opslagbronnen kunnen worden aangekocht en ingezet. Architecten van datacenters hoeven bijvoorbeeld niet langer dure flashopslaglagen te overbevoorraden. Dat komt omdat elke werkbelasting van een toepassing onmiddellijk naar een bestaande set SSD-bronnen kan worden verschoven als dat nodig is, ongeacht waar die werkbelasting zich fysiek ook bevindt. Dit voorkomt overbevoorrading en schept fysiek ruimte die voor andere doeleinden kan worden gebruikt, zoals meer onbewerkte opslagcapaciteit.

Door de explosieve toename van onbewerkte gegevens wordt het creëren van meer onbewerkte opslagcapaciteit steeds noodzakelijker. Bovendien streven organisaties ernaar nog meer waarde en bruikbare inzichten te halen uit meer van die gegevens om nieuwe kansen te creëren die het bedrijfsresultaat verbeteren. Van cruciaal belang is dat IT-architecten in staat zijn infrastructuren te ontwerpen die enorme hoeveelheden gegevens verzamelen, opslaan en doorgeven. Efficiëntere computerhardware-indelingen betekenen dat er meer ruimte beschikbaar is voor de massaopslag van onbewerkte gegevens die nodig is voor de big data-omgeving van vandaag.

De oplossing is het composable datacenter dat elke CPU en elke opslagpool naar behoefte verbindt met andere apparatuur. Alle andere apparaten gebruiken CSI, Redfish en Swordfish om op het beheernetwerk aan te sluiten, georkestreerd door software engines. Alle andere bouwstenen van het datacenter kunnen dynamisch worden samengesteld om toepassingsspecifiek te worden via software-API's.

Kosten, prestaties, efficiëntie

De trend van desaggregatie en composability in datacenters wordt aangestuurd door kosten, prestaties en efficiëntie. Voorbij zijn de dagen dat de CPU het middelpunt van het bekende universum was, en alle andere apparaten samen met de CPU in hetzelfde chassis werden geplaatst. Privatecloudarchitecten kunnen nu de meest geschikte apparatuur, hardware en software kiezen op basis van hun gebruikssituatie en specifieke behoeften.

Het traditionele containergebaseerde geclusterde datacenter opende de deur voor complexere toepassingen, maar de software van vandaag is zo performant dat een meer dynamische architectuur noodzakelijk is geworden. En in de toekomst zullen composable GPU's, FPGA's en geheugen mogelijk worden gemaakt door interfaces met ultralage latentie.

Composability betekent dat de werkbelasting van verwerkingen in real time wordt verdeeld, waardoor de last wordt gedeeld met onderbenutte apparaten en pools van zwevende gegevens worden geëlimineerd. Het resultaat is een volledig georkestreerde privatecloudinfrastructuur die datacenters helpt om werkbelastingen sneller te verwerken en minder geld kost om te exploiteren. Met desaggregatie en composability kunnen IT-architecten voldoen aan de behoeften van de meest veeleisende softwaretoepassingen. Het composable datacenter is echt meer dan de som van zijn delen.