为什么选择我们

• 基于Linux内核级网络块存储技术,性能已经达到了国内最高水平,在没有网络瓶颈的环境下三副本同步延时不到53μ sec(微秒)。


KubeStorage云原生存储解决了数据库等有状态服务容器化后所需要存储的性能和自动化供应的问题。我们提供在Kubernetes下使用的各种类型存储、云原生数据库和中间件、4层 Haproxy kubernetes ingress负载均衡等有状态服务容器化的全栈解决方案,支持私有云或公有云上部署。


KubeStorage基于Linux内核技术提供PB 级存储,不需要单独购买存储服务器,和应用程序共享硬件资源, CPU 内存占用少,减少基础架构成本30~60%。减少风险、加速容器化应用,彻底解决云厂商绑定问题。不需要专业运维人员,人力成本每年减少180万以上。


数据库、中间件服务交付时间从1到2天交付降到了分钟级交付;容器的隔离特性使服务部署密度高,资源利用率成倍提高。


2020年,据统计50%的国际级公司会在生产系统中使用容器技术。然而,传统的网络存储解决方案对分布式的容器化环境来说过于复杂、成本高昂、且不稳定、性能差。我们的存储方案解决了以上痛点,所以越来越多的公司信任我们的方案来管理它们的关键应用数据,实现了跨多云、零宕机时间、和零数据损失,同时极大的降低基础架构的成本。


基于内核级超融合网络存储结合Kubernetes Operator 监控、全局负载均衡等组合技术提供了高可用的服务,包括:常用的数据库、中间件、大数据等服务,如:MySQLPostgreSQLRedisKafkaAlluxioRabbitMQPrometheusEFKElasticSearch、Zipkin、Jaeger 等。我们提供一站式有状态服务容器化方案和技术咨询。


内核级高速超融合网络存储国内还没有同类产品,国外同类产品对标Portworx


• 有免费版本使用。


点击查看技术白皮书

点击查看性能测试报告

超融合PB 级存储解决方案KubeStorage SDS

内核级超融合网络存储、不需要单独购买存储服务器、减少基础架构成本30~60%,减少风险、加速容器化应用,彻底解决云厂商绑定问题

KubeStorage 和传统网络存储的差异总结
KubeStorage 使用场景汇总
KubeStorage SDS 超融合云原生存储功能特性说明

自动管理本地块存储资源,例如:硬盘,RAID集,内存和本地NVMe驱动器。它为Kubernetes集群提供了持久卷的动态供应,并具有以下功能特性:

用于性能密集型数据库的超快速I/O,三副本99.99%高可用性;

内核态实时多机器多副本同步复制,不依赖容器网络;

支持有状态的服务在Kubernetes上快速故障漂移;
写性能跟本地存储性能相比只损耗5%--10%支持异步写同步;
高速缓存组合:NVMeSSDHDD,读性能>=本地盘性能;
透明支持多种数据压缩算法,节省硬件存储,如:用Lz4算法可以节省30%
支持重复数据删除;
支持在线更换硬盘,不丢失数据;
自动快照备份增量数据;
上层用户态支持nfs文件存储、分布式S3对象存储;
作为企业级容器存储解决方案,为docker容器应用提供丰富的功能提供PVC扩容、PV QuotaPV快照及还原等特有功能;
异步连续备份到任意公有云或数据中心,以便跨广域网进行灾难恢复;
私有云数据中心与公有云平台之间,数据无缝迁移;
支持虚拟化KubeVirt的虚机镜像读写(性能接近本地存储),支持KubeVirt 虚机的实时迁移;
兼容CentOS7CentOS8Ubuntu18.xUbuntu20.x以及内核3.105.x

可扩展性 >2000个节点,>20000 Volume,PB 级容量。

以上这些功能都以非常精简的方式提供,以最小的CPU和内存消耗来保证最大的IO性能。这样非常适合以超融合方式与应用程序一起部署。KubeStorage SDSKubernetes充分集成,包括管理和调度模块在Kubernetes上部署,标准CSI插件无缝对接Kubernetes,提供PV 自动供应,还有基于专用 k8s调度扩展插负责 Pod 调度。这些自动供应的存储为Pod提供RWORWX等多种读写模式,满足各种应用程序的读写需要。

DRBD Linux 内核技术

DRBD(Distributed Relicated Block Device 分布式复制块设备), 主要用来解决解决磁盘单点故障。

2009年Linux从2.6.33 kernel 内核开始已经集成 DRBD 内核模块,至今DRBD 技术已经存在十几年,最新版本 DRBD 9有更多吸引人的特性,尤其是数据副本同步数量最多可到16个。我们的存储通过调用DRBD内核模块实现网络RAID及本地存储多副本的功能,不依赖容器网络。CPU 占用不超过3%,同步数据I/O 损耗在3%--10%,远远低于一般的网络存储(如:Ceph的50%的 I/O损耗)。通过我们的方案不需要额外购买专门的存储设备就可以实现本地存储的99.99高可用性。

DRBD内核态多节点数据高效实时同步
发生多个连续写操作的块只同步一次,所以同步速度很快。
因为块是根据磁盘上块的自然布局进行同步的,所以同步的时候磁盘查找的次数很少,
可变速率同步,DRBD检测同步网络上的可用带宽,将其与传入的前台应用程序I/O进行比较,并基于全自动控制回路选择适当的同步速率。
通过使用数据摘要(也称为校验和)可以进一步提高DRBD的同步算法的效率。

相对于传统网络存储比如Ceph、 GlusterFS 性能提高了70%

许多存储解决方案宣称支持容器技术,然而当真正部署和测试这些方案的时候,它们并不适用于高性能的数据库负载。例如,GlusterFSCPU 和内存用量,会随着卷数量的增加线性增长,此时I/O能力会大幅降低。Ceph通过跨主机数据同步提供高可用,无法和运行的容器应用做超融合部署,ceph 数据同步是用户态的多副本数据一致性,这样会产生大量网络延迟。这也是数据库类型的应用迁移到容器云上的最大障碍

不同于传统的存储解决方案,KubeStorage为裸金属服务器或虚拟化环境下的高性能数据库提供高I/O能力。KubeStorage 赋能客户通过运行超融合架构,使数据和容器运行在同一批物理主机上,从而最大化提高性能。KubeStorage通过提供复制集在集群中的位置的调度信息,从而在调度和未调度的运维情况下,都能保持超融合状态。这种方式下,如果没有本地数据的副本,你的容器不会被调度到这台主机上。


单节点实现数据库或中间件的高可用方案
KubeStorage 提供内核级高性能多副本的块存储(一般三副本)99.99的可靠性;
专用k8s调度插件把数据库容器调度到其中一个数据副本所在节点,实现块存储随容器漂移;
我们提供4Haproxy kubernetes ingress 可动态配置对外服务的端口,可动态的管理被负载的服务;
通过High Availability Controller 快速删除不可用节点的数据库容器和挂载的存储(k8s自动删除一般需要5分钟);
livenessProbe readinessProbe 负责容器在本节点自动重启;
Prometheusmetrics + Alertmanager监控 报警;
单节点高可用数据库方案使硬件成本节省50%

ZFS 多数据中心(高延时网络环境)备份方案


主要功能特性:

• 推拉模式

多种传输模式:TCP、TCP+TLS客户端身份验证、SSH

网络故障后自动重试

出现故障恢复后可自动重新发送和接收

发送和接收期间自动ZFS锁定

通过书签和锁管理,确保增量发送和接收

数据传输内容可加密、压缩

自动快照管理

定期文件系统快照

可定制快照保留策略

完善的监测和记录

可实时进度报告

结构化的日志记录

Prometheus监测