Gartner认为超融合系统是提供共享的计算与存储资源的平台,它基于软件定义存储、软件定义计算、商业化的硬件和统一的管理界面。因此,超融合系统是基于通用服务器资源,计算、存储、网络和管理的高度融合,而不是简单的集成。
联想针对超融合给出的核心概念就是将两个或多个组件组合天然地整合在一个独立的单元中,而不是简单地捆绑在一起。例如: Lenovo AIO,Nutanix将计算和存储融合到单一节点中,具有以下优点:独立单元的扩展,本地I/O处理,通过融合来消除传统计算/存储的竖井式结构。
现在很多公司的宣称的超融合产品是: x86平台 + SSD + 分布式存储(软件)+ 高速网络。这实际上只是在硬件上搭建了一套分布式文件系统而已。缺乏针对虚拟化做的特别优化,超融合系统中的存储其实是一个具有虚拟化感知的动态存储体系。
分布式存储只是构成超融合系统的必要条件之一。超融合系统是在同一个服务器硬件资源上实现核心的存储和计算功能,封装为单一的、高度虚拟化的解决方案。
GlusterFS是一个开源的可扩展的网络文件系统。通过它能方便地管理物理环境、虚拟环境和云环境的非结构化数据。
它支持文件存储和对象存储,具有快照、复本等数据保护功能,拥有可横向扩展的架构,支持PB级的数据管理。
GlusterFS最初由Gluster提供。Red Hat于2011年收购了Gluster,2014年收购了Inktank(Inktank主要提供基于Ceph的企业级产品)。
Ceph提供对象、块和文件三种存储,GlusterFS只提供文件和对象存储。Gluster3.8 是今年六月发布的最新版本。
在GlusterFS中,使用弹性哈希算法来计算数据在存储池中的存放位置。于是数据可以很容易的复制,并且没有中心元数据单点这样一个容易造成 访问瓶颈的部分。
GlusterFS存储服务器(Brick Server)提供基本的数据存储功能,最终通过统一调度策略分布在不同的存储服务器上。数据以原始格式直接存储于服务器本地文件系统。
在创建存储池时,需要在主存储服务器依次创建附加服务器的peers,主服务器不需要添加。
GlusterFS的卷有四种类型:
一、分布式卷(Distributed volume)
又称哈希卷,近似于raid0,文件没有分片,文件根据hash算法写入各个节点的硬盘上,优点是容量大,缺点是没冗余。
二、条带卷(Striped volume)
相当于raid0,文件是分片均匀写在各个节点的硬盘上的,优点是分布式读写,性能整体较好。缺点是没冗余,分片随机读写可能会导致硬盘IOPS 饱和。
三、复制卷(Replicated volume)
相当于raid1,复制的份数,决定集群的大小,通常与分布式卷或者条带卷组合使用,解决前两种存储卷的冗余缺陷。缺点是磁盘利用率低。
四、冗余卷(Dispersed volume)
近似于raid5,文件分片存储在各个硬盘上,但有部分硬盘用于冗余用途,数量可以指定。优点是在冗余和性能之间取得平衡,缺点是比较新,成熟度不够。
对于两节点的GlusterFS集群,一台作为主服务器,一台作为附加服务器。当出现一台宕机时,只有采用复制卷时,才能保证数据不丢失。
如果剩下的单节点还继续对外提供存储服务,当宕机节点重新起来以后,将可能导致数据不一致。所以,为了满足可用性的要求,超融合系统通常从三个节点起步。
因此,两节点的Gluster集群只是通过分布式文件系统搭建的SDS的存储系统。无论从高可用性上,还是从计算、存储、网络和管理的高度融合上,都达不到超融合系统的标准。