Openstack存储问题的思考
https://docs.openstack.org/arch-design/
企业上线openstack,必须要思考和解决三方面的难题:
1.控制集群的高可用和负载均衡,保障集群没有单点故障,持续可用,
2.网络的规划和neutron L3的高可用和负载均衡,
3.存储的高可用性和性能问题。
存储openstack中的痛点与难点之一
在上线和运维中,值得考虑和规划的重要点,openstack支持各种存储,包括分布式的文件系统,常见的有:ceph,glusterfs和sheepdog
,同时也支持商业的FC存储,如IBM,EMC,NetApp和huawei
的专业存储设备,一方面能够满足企业的利旧和资源的统一管理。
Ceph概述
ceph作为近年来呼声最高的统一存储,在云环境下适应而生,ceph成就了openstack和cloudstack这类的开源的平台方案,同时openstack的快速发展,也吸引了越来越多的人参与到ceph的研究中来。ceph在整个社区的活跃度越来越高,越来越多的企业,使用ceph做为openstack的glance,nova,cinder
的存储。
在生产中,实际用ceph,需要考虑的因素非常多,如monitor至少需要有3个,ceph的集群网络和公共网络的规划,OSD策略的调整等等。
ceph是一种统一的分布式文件系统;能够支持三种常用的接口:
1.对象存储接口,兼容于S3,用于存储结构化的数据,如图片,视频,音频等文件,其他对象存储有:S3,Swift,FastDFS
等;
2.文件系统接口,通过cephfs
来完成,能够实现类似于nfs的挂载文件系统,需要由MDS来完成,类似的文件系存储有:nfs,samba,glusterfs
等;
3.块存储,通过rbd实现,专门用于存储云环境下块设备,如openstack的cinder卷存储,这也是目前ceph应用最广泛的地方。