为什么选择我们

我们解决了数据库等有状态服务容器化后所需要存储的性能和自动化供应的问题。我们提供在Kubernetes下使用的各种类型云原生存储、云原生数据库和中间件、4Haproxy kubernetes Ingress负载均衡等服务的全栈解决方案,支持私有云或公有云上部署。


我们提供的PB 级存储基于Linux内核技术,不需要单独购买存储服务器,CPU 内存占用少,减少基础架构成本30~60%,减少风险、加速容器化应用,彻底解决云厂商绑定问题。不需要专业运维人员,人力成本每年减少180万以上。


2020年,据统计50%的国际级公司会在生产系统中使用容器技术。然而,传统的网络存储解决方案对分布式的容器化环境来说过于复杂、成本高昂、且不稳定、性能差。我们的存储方案解决了以上痛点,所以越来越多的公司信任我们的方案来管理它们的关键应用数据,实现了跨多云、零宕机时间、和零数据损失,同时极大的降低基础架构的成本。


基于内核级高速超融合网络存储和Kubernetes Operator 、Helm、监控等组合技术提供了高可用的服务,包括:常用的数据库、中间件、大数据等服务,如:MySQLPostgreSQLRedisKafkaAlluxioRabbitMQPrometheusEFKElasticSearch 等。我们提供一站式有状态服务容器化方案和技术咨询。


内核级高速超融合网络存储国内还没有同类产品,国外同类产品对标Portworx

点击查看技术白皮书

超融合PB 级存储解决方案KubeStorage SDS

内核级超融合网络存储、不需要单独购买存储服务器、减少基础架构成本30~60%,减少风险、加速容器化应用,彻底解决云厂商绑定问题

KubeStorage 和传统网络存储的差异总结
KubeStorage 使用场景汇总
KubeStorage SDS 超融合云原生存储功能特性说明

自动管理本地块存储资源,例如:硬盘,RAID集,内存和本地NVMe驱动器。它为Kubernetes集群提供了持久卷的动态配置,并具有以下功能特性:

用于性能密集型数据库的超快速I/O,三副本99.99%高可用;

内核态实时多机器多副本同步复制,不依赖容器网络;

写性能跟本地存储性能相比只损耗10%;

透明支持多种数据压缩算法,节省硬件存储;

自动快照备份增量;

支持重复数据删除;

支持在线更换硬盘,不丢失数据;

高速缓存组合:NVMeSSDHDD;

上层用户态支持 nfs文件存储、分布式S3对象存储;

作为企业级容器存储解决方案,为docker容器应用提供丰富的功能提供PVC扩容、PV Quota、PV快照及还原等特有功能;

支持传统有状态的服务快速故障转移,它支持基于 kubernetes虚拟化KubeVirt 的实时迁移。

异步连续备份到任意公有云或数据中心,以便跨广域网进行灾难恢复;
私有云数据中心与公有云平台之间,数据无缝迁移;

可扩展性 >2000个节点,>20000 Volume,PB 级容量。


以上这些功能都以非常精简的方式提供,以最小的CPU和内存消耗来保证最大的IO性能。这样非常适合以超融合方式与应用程序一起部署。KubeStorage SDSKubernetes充分集成,包括管理和调度模块在Kubernetes上部署,标准CSI插件无缝对接Kubernetes,提供PV 自动供应,还有基于专用 k8s调度扩展插负责 Pod 调度。这些自动供应的存储为Pod提供RWORWX等多种读写模式,满足各种应用程序的读写需要。

DRBD Linux 内核技术

DRBD(Distributed Relicated Block Device 分布式复制块设备), 主要用来解决解决磁盘单点故障。

2009年Linux从2.6.33 kernel 内核开始已经集成 DRBD 内核模块,至今DRBD 技术已经存在十几年,最新版本 DRBD 9有更多吸引人的特性,尤其是数据副本同步数量最多可到16个。我们的存储通过调用DRBD内核模块实现网络RAID及本地存储多副本的功能,不依赖容器网络。CPU 占用不超过3%,同步数据I/O 损耗在3%--10%,远远低于一般的网络存储(如:Ceph的50%的 I/O损耗)。通过我们的方案不需要额外购买专门的存储设备就可以实现本地存储的99.99高可用性。

DRBD内核态多节点数据高效实时同步
发生多个连续写操作的块只同步一次,所以同步速度很快。
因为块是根据磁盘上块的自然布局进行同步的,所以同步的时候磁盘查找的次数很少,
可变速率同步,DRBD检测同步网络上的可用带宽,将其与传入的前台应用程序I/O进行比较,并基于全自动控制回路选择适当的同步速率。
通过使用数据摘要(也称为校验和)可以进一步提高DRBD的同步算法的效率。

相对于传统网络存储比如Ceph、 GlusterFS 性能提高了70%

许多存储解决方案宣称支持容器技术,然而当真正部署和测试这些方案的时候,它们并不适用于高性能的数据库负载。例如,GlusterFSCPU 和内存用量,会随着卷数量的增加线性增长,此时I/O能力会大幅降低。Ceph通过跨主机数据同步提供高可用,无法和运行的容器应用做超融合部署,ceph 数据同步是用户态的多副本数据一致性,这样会产生大量网络延迟。这也是数据库类型的应用迁移到容器云上的最大障碍

不同于传统的存储解决方案,KubeStorage为裸金属服务器或虚拟化环境下的高性能数据库提供高I/O能力。KubeStorage 赋能客户通过运行超融合架构,使数据和容器运行在同一批物理主机上,从而最大化提高性能。KubeStorage通过提供复制集在集群中的位置的调度信息,从而在调度和未调度的运维情况下,都能保持超融合状态。这种方式下,如果没有本地数据的副本,你的容器不会被调度到这台主机上。


ZFS 多数据中心(高延时网络环境)备份方案


主要功能特性:

• 推拉模式

多种传输模式:TCP、TCP+TLS客户端身份验证、SSH

网络故障后自动重试

出现故障恢复后可自动重新发送和接收

发送和接收期间自动ZFS锁定

通过书签和锁管理,确保增量发送和接收

数据传输内容可加密、压缩

自动快照管理

定期文件系统快照

可定制快照保留策略

完善的监测和记录

可实时进度报告

结构化的日志记录

Prometheus监测