为什么选择我们

传统的网络存储解决方案对分布式的容器化环境来说过于复杂、成本高昂、且不稳定、性能差。我们的存储方案解决了以上痛点,实现了跨多云、零宕机时间、和零数据损失,融合部署极大的降低基础架构的成本。一站式解决了所有在容器环境下使用存储的痛点。


KubeStorage基于Linux内核级网络块存储技术,性能已经超过了同类产品,在没有网络瓶颈的环境下三副本同步延时不到53μ sec(微秒)。经过一年的测试三副本的实时同步存储服务可提供99.99999% 的数据持久性和 99.99% 的存储服务可用性。我们提供存储池的性能是一块物理硬盘的6倍,满足了数据库高密度I/O的存储需求。


KubeStorage基于Linux内核技术提供PB 级存储,不需要单独购买存储服务器, 内核级存储服务CPU 内存占用极少可以和应用程序共享硬件资源融合部署,减少基础架构成本50%以上。非集中式存储还减少了风险,多个节点出现故障也不影响其它节点的使用。


数据冗余:支持多副本,提供基于服务器、机架、数据中心的三个级别故障域管理。支持 快照、克隆、精简卷配置、卷在线扩容与缩容、集群在线扩容等企业级特性。


KubeStorage解决了数据库等有状态服务容器化后所需要存储的高性能和自动化供应的问题,加速了容器化应用。多存储协议支持:块存储、nfs、fuse、S3、FTP。业务场景支持:容器、虚拟化、数据库、大数据分析存储、业务及日志等类型数据。


提供云原生AI大数据服务海量文件存储本地化加速方案,本地内存和文件缓存系统可与远端对象存储同步,从本地内存缓存读取文件训练速度最高可提升约 400%-600% 。同时也大幅度提升 GPU 使用效率 。

通过6种技术手段,在 k8s+ KubeStorage环境下,创新性的实现了单节点数据库的高可用,直接节省了部署高可用数据库服务所需要的50%以上的硬件。并且可以对接Prometheus监控平台,实现运维监控自动化。


提供 4层 Haproxy kubernetes proxy 辅助模块,可动态配置数据库对k8s 集群外服务的端口,可动态管理被负载的数据库服务,为 k8s 集群外访问数据库提供了稳定的4层流量负载均衡。


基于Kubernetes Operator和KubeStorage高性能网络存储 、监控报警、4层全局负载均衡等组合技术提供了常用的数据库、中间件、大数据等容器化的高可用解决方案。另外我们提供一站式DBaaS 平台解决方案。


存储运维简单,不需要专业运维人员,人力成本每年减少180万以上。


容器化的数据库服务交付时间从1到2天,降到了分钟级交付;容器的隔离特性使服务部署密度更高,资源利用率也成倍提高。


Linux内核级超融合云原生网络存储国内还没有同类产品、无竞争产品。产品有免费社区版本使用。


点击查看技术白皮书

点击查看AI机器学习&大数据服务文件性能加速解决方案

服务领域
基于 Kubernetes提供一站式PB级云原生存储、云原生数据库和中间件的高可用解决方案
超融合PB 级存储解决方案KubeStorage SDS

内核级超融合网络存储、不需要单独购买存储服务器、减少基础架构成本30~60%,减少风险、加速容器化应用,彻底解决云厂商绑定问题

KubeStorage 和传统网络存储的差异总结
k8s 下KubeStorage一站式存储解决方案

KubeStorage 存储方案介绍

KubeStorage通过存储池来管理本地块存储资源,例如:HDD 或 SSD硬盘,RAID集,网盘和本地NVMe驱动器;

内核级支持数据透明压缩、加密、读写缓存;

基于 DRBD 内核级虚拟块设备驱动+多种同步算法确保了数据微秒级多副本同步, I/O 损耗小于10%;

Linux内核程序 cpu、内存占用极少,可超融合和应用混合部署,不需要单独购买存储服务器,减少基础架构成本30~60%。I/O 损耗小、性能高、加速容器化应用,彻底解决云厂商绑定问题;

维护简单不需要专业运维人员,每年人力成本减少180万以上;

多存储协议支持:块存储、nfs、iSCSI、S3、FTP。业务场景支持:容器、虚拟化、数据库、大数据分析、业务及日志类型数据;

作为企业级容器存储解决方案, 提供 CSI 接口为Kubernetes集群提供了持久卷的动态供应,为Kubernetes下的容器应用提供丰富的存储功能,如:PVC在线扩容、PV Quota、PV快照及还原等;

支持异步连续备份到任意公有云或数据中心,以便跨广域网进行灾难恢复。私有云数据中心与公有云平台之间,数据无缝迁移;

支持虚拟化KubeVirt的虚机镜像读写(性能大于本地存储),支持KubeVirt 虚机几秒钟内实时迁移;

操作系统支持CentOS7、CentOS8、Ubuntu18.x、Ubuntu20.x 以及Linux内核从3.10到5.x 最新 kernels;

能够对接Prometheus监控平台,实现运维监控自动化;

可扩展性 >2000个节点,>20000 个 Volume,PB 级规模。


单节点实现数据库或中间件的高可用方案
KubeStorage 提供内核级高性能多副本的块存储,经过一年的测试三副本的实时同步存储服务可提供99.99999% 的持久性和 99.99% 的服务可用性。

专用k8s调度插件把数据库容器调度到其中一个数据副本所在节点,实现块存储随容器漂移;

提供4层 Haproxy kubernetes Proxy 可动态配置对k8s 集群外服务的端口,可动态的管理被负载的数据库服务,对k8s 集群外访问数据库服务提供稳定的4层流量负载均衡,比 nodeport 方式要安全和稳定;

通过High Availability Controller 快速删除不可用节点的容器和挂载的存储锁(k8s自动删除不可用节点的 pod需要5分钟且存储锁不会自动删除);

• Pod livenessProbe 和 readinessProbe 负责容器在本节点自动重启;

Prometheus metrics + Alertmanager自动监控和报警;

单节点高可用数据库方案硬件成本节省70%;


收益:

与容器编排平台及管理平台无缝对接,实现自动化调度、自动化PV供应;
支持有状态容器应用实现跨节点快速重建;
提供大于本地硬盘的性能,满足容器中数据库应用高密度I/O性能的要求;
能够对接Prometheus监控平台,实现运维监控自动化。

此方案应用场景也适用于Mysql、Redis、PostgreSQL、Prometheus、RabbitMQ、Clickhouse等数据库的单节点实现高可用。

引入KubeStorage分布式文件系统&文件本地加速方案带来的收益
加速模型训练:通过测试结果我们看到对于任务的提速效果非常明显,能够直接利用本地存储的速度优势避免因为网络传输与资源竞争,从而有效的加速模型训练过程中数据读取的时间。

降低底层存储负载:此架构可以通过本地缓存分担底层存储系统的带宽与IOPS 压力,大幅度减少底层存储系统的负载,有效的提高了底层存储系统的可用性。

增加集群GPU 利用率:通过高效的  IO 读取,消除用户程序数据读取的瓶颈, 避免了 GPU 空转等待数据的现象,提高了GPU 的利用率,从而提高了整个集群 GPU 使用率。

避免同节点IO 竞争:此架构充分解决了遇到的同节点IO 资源竞争、存储系统存在带宽瓶颈以及模型的训练效率不高的痛点。

更加高效的缓存管理:采用此架构以一种更加云原生的方式管理缓存,工程师从之前单纯将数据载内存到现在缓存转变成可以管理与监控的资源,Kubernetes调度能够感知缓存,进行相应的策略分配,使得任务能够更加高效的运行。

DRBD Linux 内核技术

DRBD(Distributed Relicated Block Device 分布式复制块设备驱动), 主要用来解决解决磁盘单点故障。

2009Linux2.6.33 kernel 内核开始已经集成 DRBD 内核模块,至今DRBD 技术已经存在十几年,DRBD的核心功能是通过Linux内核模块实现的。具体来说,DRBD构成虚拟块设备的驱动程序,因此DRBD位于系统的I/O堆栈的底部附近,支持同步和异步数据同步。因此DRBD非常灵活和通用,它适合为任何应用程序添加高可用性。最新版本 DRBD9.x有更多吸引人的特性,尤其是数据副本同步数量最多可扩展到16个、支持双主写、cpu资源消耗更少。

存储通过调用DRBD内核模块实现网络RAID及本地存储多副本的功能,不依赖容器网络, CPU 占用不超过3%,同步数据I/O 损耗在3%--10%,远远低于一般的网络存储(如:Ceph50%I/O 损耗)。
经过一年的测试三副本的实时同步存储服务可提供99.99999% 的持久性和 99.99%的服务可用性。

我们把最稳定的内核存储技术对接到了 kubernetes 上,让它焕发了新的生机。

DRBD内核态多节点数据高效实时同步
发生多个连续写操作的块只同步一次,所以同步速度很快。

因为块是根据磁盘上块的自然布局进行同步的,所以同步的时候磁盘查找的次数很少。

可变速率同步,DRBD检测同步网络上的可用带宽,将其与传入的前台应用程序I/O进行比较,并基于全自动控制回路选择适当的同步速率。

通过使用数据摘要(也称为校验和)可以进一步提高DRBD的同步算法的效率。


相对于传统网络存储比如Ceph、 GlusterFS 性能提高了300%--500%

许多存储解决方案宣称支持容器技术,然而它们并不适用于高性能的数据库负载。例如,GlusterFS的 CPU 和内存用量,会随着卷数量的增加线性增长,此时I/O能力会大幅降低。Ceph通过跨主机数据同步提供高可用,无法和运行的容器应用做超融合部署,Ceph 数据同步是用户态的多副本数据强一致性同步,这样会产生大量网络延迟。这也是数据库类型的应用迁移到容器云上的最大障碍。

不同于传统的存储解决方案,KubeStorage为容器、裸金属服务器、虚拟化环境下的高性能数据库提供高I/O能力。KubeStorage 赋能客户通过运行超融合架构,使数据和容器运行在同一批物理主机上,从而最大化提高性能。KubeStorage通过提供专用k8s调度模块来保持容器和存储的超融合状态。这种方式下,如果没有本地数据的副本,你的容器不会被调度到这台主机上。