私有云中的可组合性优势
探索私有云架构中可组合性的成本和性能优势。
构建私有云数据中心就像是从头开始打造一辆跑车。您需要挑选适合的发动机、零件和设备,以满足道路和驾驶员的性能要求。得益于软硬件创新,IT 架构师可以组建自己的数据中心,让它拥有更像兰博基尼跑车一样的性能,而不是过去的老爷车。
本地私有云需要持续的监督、管理和维护。随着时间的推移,运营成本(例如更换硬盘或超额配置)可能会迅速增加。这将抬高数据中心的总体拥有成本 (TCO),并影响公司的盈利能力。尤其是在每年采集、创建和使用的数据都保持指数增长的大背景下。
正是这些问题引起 Seagate 所说的“可组合性”趋势的飞速发展。现代、可组合的数据中心允许每台私有云服务器由分散但与优化架构类型和带宽互连的组件组成。可组合性提供了一种灵活的方式,能够跨多个应用和数据工作流程,管理和访问数据。
IT 架构师必须决定是使用本地私有云解决方案,还是使用第三方托管的公有/私有云。公有云会在不同客户之间共享计算服务,并托管在外部数据中心内。第三方云提供商还提供托管型私有云,这些私有云也托管在外部,但不进行服务共享。
本地私有云由公司自己的数据中心进行管理和维护,并且不与其他组织共享服务。使用本地私有云的主要优势包括更出色的安全性、灵活性以及性能。用户可以自定义其资源和服务,以使硬件匹配软件需求,而不是通过千篇一律的方法。用户还可以完全控制其服务器的安全性、可扩展性和可配置性。
随着应用需求的增加或减少,组件和服务器之间相互通信以转移工作负荷。IT 架构师现在可以使用来自不同制造商的各类硬件和组件打造数据中心。实际上,他们是在解构(或分解)传统的数据中心基础架构。一旦消除了传统的机箱架构,就能够重建数据中心,以更高效地利用已安装的资源。IT 架构师无需购买多余硬件,或是支付额外费用,就能轻松地更换组件并且不会造成停机。
私有云中数据中心的分解和可组合性已从传统的网络架构演变为当下的动态基础架构,由此运行功能强大且要求苛刻的系统。可组合的分解特性具有几个主要优势,包括减少延迟、提高安全性和强化数据控制。
随着数据的指数级增长和软件应用的日益复杂,传统的 IT 架构已经接近能力极限。中央处理单元 (CPU)、动态访问存储单元 (DRAM)、存储类存储单元 (SCM)、图形处理单元 (GPU)、固态硬盘单元 (SSD) 和机械硬盘 (HDD) 都是打造数据中心的关键组件。这些组件通常一同放置在一个机箱或服务器中,共同构成数据中心的基础。在这种传统的企业云架构中,每个组件(例如 HDD)都直接连接到服务器的其余部分。
数据中心最初是在“一个应用,一个服务器”的范式下运行的。当应用超出了单个服务器可以提供的存储和数据处理功能时,IT 架构师便开始将多个服务器分组到集群中,所有服务器都作为资源池使用。由 IBM、EMC、NetApp 和 Seagate Dot Hill 等团队提供的专有解决方案代表了业界对于池化服务器资源的初步尝试。
然后,随着复杂性的增长,数据中心就可以按这种方式向上扩展以满足软件应用的需求:如果应用需要更多存储、带宽或 CPU 资源,就可以将其他服务器(或节点)添加到集群中。使用 VMware 等企业管理程序应用,池化资源的集群模型构成了我们现在熟知的融合和超融合企业云基础架构的基础。
在云的初期阶段,节点集群能够完成使命,但是易于导致超额配置。当 IT 架构师购买更多服务器时,就会发生这种情况。这些服务器包含这样或那样的超额资源,无法得到充分利用。集群方法拥有其优势(例如,保证充足的存储和处理能力),但是服务器内未使用资源的效率低下。尽管如此,IT 架构师仍需依靠超额配置来满足扩展需要,因为数据中心无法仅仅动态扩展特定资源或工作负荷,以满足软件应用的需求。超额配置必然会引起超额费用。
IT 架构师在选择用于构建服务器的硬件组件时也常常会受到掣肘。出于兼容性目的,必须从单一制造商处购买每台服务器或每个集群的硬件。由于没有开放应用编程接口 (API),因此来自不同制造商的硬件无法进行通信和协调。如果架构师想更换速度更快的 CPU(例如,其他制造商的 CPU),通常会因为兼容性问题而困难重重。不同制造商的硬件无法相互通信或协调。
硬件兼容性并不是制约传统数据基础架构的唯一原因。另一个问题是需要收集、存储和分析大量数据。大数据的爆炸性增长使传统的私有云集群逼近存储极限,而且还会造成数据处理瓶颈。CPU 常常忙于本地数据处理,无暇与其他应用共享资源,从而导致数据中心的整体资源扩展效率低下。
例如,复杂的人工智能 (AI) 应用离不开在短时间内处理大量数据的能力。当人工智能应用使用集群数据中心时,经常会遇到数据收集和处理方面的瓶颈。此外,如果应用需要更多的处理能力,也无法将额外的工作负荷转移到其他集群。延迟(即设备之间的数据传输延迟)是另一个负面后果。
例如,同一数据中心内有两个服务器集群,一个集群的负担过重,而另一个未得到充分利用。使用过载的集群,可能会导致应用速度减慢或出现性能问题。通过集成未充分利用的超额配置集群就能轻松解决此问题。但是,应用可用的资源池严格限制于该应用专用的单独集群。这充分说明了为什么 IT 架构师一直在寻求更有效的方法来打造数据中心。
专有时代即将结束。复杂的软件应用需要远超传统集群数据中心的处理和存储功能。此外,由于缺乏用于设备间通信的开放 API,IT 架构师可选择的硬件也大大受限。对于 IT 架构师而言,他们需要对现代应用如何影响私有云架构,以及可组合性如何帮助克服传统 IT 基础架构挑战有更深入的了解。
推动可组合性大趋势的最大动力之一是软件应用需求。人工智能或业务分析等软件要求满足特定于该应用需求的一系列日益复杂的硬件要求。这会导致存储和处理资源池产生激烈的竞争。
如前所述,传统数据中心现已达到瓶颈,各类应用所需的处理能力经常超过集群模型的限制。应用需求也会随着时间的推移不断变化,并且变化速度极快。例如,新版本的业务应用可能需要两倍于旧版本的存储或处理能力。如果超出其专用集群的限制,就必须购买更多的硬件。软件的进步使得传统集群数据中心的功能备受压力。
可组合性使应用可以访问其专用集群之外的资源池,从而释放超额配置服务器内的可用处理能力(或其他资源)。每个 CPU、GPU 或存储节点都可以根据每个应用的价格需要进行独立扩展。
额外的处理需求也会在传统数据中心架构中产生瓶颈。数据中心架构是连接各类节点和集群的基础。在理想状态下,满足现代软件应用需求的可组合架构应该能够创建一个灵活的架构容量池。架构应能即时配置,以随着应用处理需求的增加,动态地配置基础结构和资源。其目标是为先进应用提供更快的处理速度,还有实时处理能力,以使这些应用能够以最佳速度运行。
可组合性和分解对于满足先进软件应用的需求至关重要。传统的集群架构根本无法胜任这些任务,信息无法通过以太网架构快速传输,以至于像 AI 这样的先进应用无法正常运行。通过分解服务器机箱内的组件并允许它们通过 API 协议进行通信,数据中心就能以经济高效的方式为复杂应用提供服务。
分解私有云数据中心意味着完全放弃传统的服务器机箱模型。资源组件(例如 CPU、GPU、所有内存层、SSD 和 HDD 存储)都可以在其适当的架构中按需分解和重新组合。然后,可以基于特定应用的需求,而不是基于特定物理服务器内的组件配置方式,利用这些资源。可在网络架构上访问的所有内容都可以进行分解,然后重新组合。
例如,应用所用的存储资源池可能由位于数据中心各个位置的 10 个不同服务器机架中的 HDD 组成。如果应用需要的存储量超过当前使用的存储量,则一个 HDD 可以与另一个具有空间的 HDD 进行通信,并无缝地传输数据。当应用需求增加时,处理工作负荷也可以动态转移。相反,当应用需求减少时,能够以最节能的方式重新分配存储和处理,以减少或消除成本高昂的超额配置。
从 JBOD(硬盘簇)开始,数据中心已经从局限于一个服务器机架的模式发生明显变化。JBOD 演变为应用可以随时调用的池,从而使数据中心资源分配更加智能。然后,架构师开始转向可以相互通信的标准化外置存储。
分解还引入了标准化的接口监听,允许 IT 架构师管理整个可组合的数据中心。基于需求选择硬件(无论是 SSD、HDD、CPU 还是架构组件)只是分解传统数据中心,并转向创建可组合数据中心过程的一小部分。架构师仍然需要适合的开放 API 协议(如 Redfish 或 Swordfish)以实现无缝集成,并需要通过用户界面来管理数据中心。开放 API 使得基于不同语言的硬件和软件能够通信和协同工作。
让应用定义数据中心的构成方式,而不是相反的方式,进而造就了软件定义网络 (SDN) 和软件定义存储 (SDS)。SDN 和 SDS 的下一次革命造就了超组合数据中心。这将使私有云架构能够与某些超大规模从业者(如 Amazon Web Services (AWS) 和 Microsoft Azure)相提并论。超大规模从业者是大型数据中心提供商,可以大规模增加处理和存储能力。甚至可以定制构建以太网架构(数据中心的网络主干),以使用低延迟的 HDD 和 SSD 设备。这种定制方式能够减少数据流量或处理的延迟,因为应用可以从在低延迟架构上运行的分解资源池中提取资源。
像 Redfish 和 Swordfish 这样的开放 API 协议对于确保所有分解组件都能协调工作至关重要。Seagate 拥有自己的传统 REST API,并维护特定的数据中心产品类别,以促进设备间的可操作性。过去,更换设备可能需要数周的安装和集成时间。API 协议使数据中心架构师可以通过按需即插即用的方式来采购硬件。不同制造商的新设备都可以在极短时间内完成安装并运行。
分解数据中心使可组合性成为可能。架构师在选择适合其软件应用需求的硬件设备后,就可以构建、运行和优化面向未来的可组合数据中心。
数据中心的可组合性意味着不仅能够连接所有的分解组件,还有助于改善与数据中心的成本效率和性能相关的关键性能指标 (KPI)。在传统数据中心内,超额配置是影响预算的最大组成部分之一。当数据中心采用超额配置时,就需要为未使用的服务器和资源需要付费。从本质上讲,IT 架构师需要为未被充分利用的资源池付费,这会导致这些硬盘的配置不足。
资源配置不足会导致所谓的“孤儿池”,即由于利用率不足而无家可归的资源池。这包括 CPU、GPU、现场可编程门阵列 (FPGA)、动态随机存取存储器 (DRAM)、SSD、HDD 或是存储类存储器 (SCM)。这些构建模块可以动态组合,以通过软件 API 创建特定于应用的硬件。
在可组合的开源数据中心架构问世之前,私有云通常使用来自单一供应商的硬件构建而成。物理连接的数据中心成本较高,组织通常被限制在特定供应商的架构内,成本也会随着时间水涨船高。
作为公有云架构的一部分,可组合性趋势开始受到关注。AWS 和 Microsoft Azure 产品就是两个很好的例子。在部署私有云方面可以采用类似的方法,通过避免供应商锁定并使用来自多个供应商的设备构建数据中心,由此节省成本。
这使 IT 经理可以将更多预算资源分配给更大的存储容量,由此从存储的数据中提取见解和价值。
企业现在可以使用第三方存储解决方案、放入其数据中心,并将其与开源 API 无缝集成。如果 IT 架构师需要使用某家制造商的 SSD,而其数据中心采用另一家制造商的组件,那么将该 SSD 直接放置在数据中心内也不会遇到麻烦。API 将确保所有组件协同工作。借助遥测,数据中心经理就不需要担心组件的通信方式,并能减少与数据中心当前未使用的供应商零件相关的成本与压力。
池化或共享内存的另一个主要优势是,应用能够应对节点故障,避免受到该节点相关虚拟机或容器集群的状态中断影响。其中的原理是,其他节点现在可以将虚拟机内存的最后状态复制到自己的内存空间中(对于池化内存架构而言),或者通过超低延迟架构,利用指针重定向,实现零复制过程,并在发生故障的节点位置无缝继续(对于共享内存体系结构)。这可以认为是数据中心无缝容错能力的重大进步,以提供更高的可靠性和可用性。
可组合的架构还能更快地从多个来源收集和处理数据,提高在已安装资源的总体利用率。可组合的数据源架构通常包括物理传感器、数据模拟、用户生成的信息和遥测通信。然后,数据中心经理就能在短短几分钟内挂载资源,并在应用之间进行即时共享。
通过使用容器化编排客户端的可组合架构,编排和管理私有云数据中心也变得更加容易。从单一界面即可分解、组合和监控所有硬件。数据中心经理可以清楚、实时地了解正在使用的资源池,并确保避免超额配置。在许多情况下,将使用标准软件进行管理。这些软件可以是专有的也可以是开源的。
在开源容器化环境中部署新软件应用也更加灵活,尤其是得益于能够灵活地购买和布置存储资源。例如,数据中心架构师不再需要超额配置昂贵的闪存存储层。这是因为任何应用工作负荷都可以根据需要立即转移到现有的一组 SSD 资源上,无论资源位于何处。这样就可以在避免超额配置的同时,将物理空间用于其他目的(例如增加原始存储容量)。
由于原始数据的爆炸性增长,创建更多原始存储容量变得愈发必要。此外,组织正在努力从更多数据中获得更多价值和可行见解,以创造新的机会来增加利润。至关重要的是,IT 架构师能够设计收集、存储和传输大量数据的基础架构。高效的计算硬件布局意味着能够为当今大量数据环境所需的原始大容量存储提供更多空间。
解决方案是可组合的数据中心,可根据需要将任何 CPU、存储池与其他设备连接起来。所有其他设备都使用 CSI、Redfish 和 Swordfish 以插入由软件引擎编排的管理网络。数据中心的所有其他构建模块都可以通过软件 API 动态组成,以成为特定于应用的模块。
数据中心的分解和可组合性趋势是由成本、性能和效率驱动的。CPU 作为宇宙中心,所有其他设备一起塞进同一个机箱的日子已经一去不复返了。私有云架构师现在可以根据用例和特定需求,选择最合适的设备、硬件和软件。
传统的容器化集群数据中心为更复杂的应用打开了大门,但是当今软件性能如此之高,因而需要更加动态的架构。将来,超低延迟接口将支持可组合的 GPU、FPGA 和内存。
可组合性意味着可以实时分配处理工作负荷,与未充分利用的设备共享负担,并消除孤立的数据池。结果就是完全协调的私有云基础架构,以帮助数据中心更快地处理工作负荷,并降低运营成本。通过分解和可组合性,IT 架构师就能满足最苛刻的软件应用需求。实际上,可组合的数据中心不仅仅是其各个部分的总和。