Ceph

kolla-ansible 使用ceph存储

2019-03-04  本文已影响8人  lzp1234

前言

(编写中)
在单节点已部署好得环境下,替换lvm为ceph。
单节点部署参考:https://www.jianshu.com/p/73598a5cd00b

使用ceph存储

参考
https://docs.openstack.org/cinder/rocky/configuration/block-storage/drivers/ceph-rbd-volume-driver.html

介绍(可跳过)。

ceph基于Reliable Autonomic Distributed Object Store (RADOS)。RADOS在存储群集中分配对象并复制对象以实现容错。
RADOS包含以下主要组件:

其它组件

开始配置

参考:
https://docs.openstack.org/kolla-ansible/queens/reference/ceph-guide.html

在上一篇单节点部署当中,使用20G /dev/sdb作为lvm卷,这里将/dev/sdb作为ceph数据盘,加一块10G /dev/sdc作为ceph日志盘。并且单节点环境下需要额外得一些配置。

1. 格式化硬盘
格式化数据盘:
parted /dev/sdb -s -- mklabel gpt mkpart KOLLA_CEPH_OSD_BOOTSTRAP_FOO 1 -1
格式化该数据盘对应得日志盘:
parted /dev/sdc -s -- mklabel gpt mkpart KOLLA_CEPH_OSD_BOOTSTRAP_FOO_J 1 -1

注意,在使用单独得日志盘时,数据盘和日志盘mkpart 必须添加后缀,KOLLA_CEPH_OSD_BOOTSTRAP_<后缀名>,如上图FOO

2. 配置globals.yml
取消lvm配置

vim /etc/kolla/globals.yml

#enable_cinder_backend_lvm: "yes"
#cinder_volume_group: "cinder-volumes"
增加ceph配置

vim /etc/kolla/globals.yml

enable_ceph: "yes"
enable_ceph_rgw: "yes"
cluster_interface: "ens35" # 管理网网卡
ceph_pool_pg_num: 64 # Total PGs = ((Total_number_of_OSD * 100) / pool_count . 并且结果向上取值为2的n次方
ceph_pool_pgp_num: 64

enable_ceph_rgw_keystone: "yes"
glance_backend_ceph: "yes"
glance_backend_file: "no"
cinder_backend_ceph: "yes"
cinder_backup_driver: "ceph"
nova_backend_ceph: "yes"

注意:上面得pg_num 需要根据实际环境进行配置。比如当前环境使用命令查看为5个pool。根据公式得出64
查看整体状态(可查看pool数量):

docker exec ceph_mon ceph -s

查看pool:

docker exec ceph_mon ceph osd lspools
ceph单节点rgw需额外配置:

mkdir /etc/kolla/config
vim /etc/kolla/config/ceph.conf 新建文件,增加如下内容

[global]
osd pool default size = 1
osd pool default min size = 1
3. 重新部署openstack
kolla-ansible -i /opt/all-in-one prechecks
kolla-ansible -i /opt/all-in-one deploy
上一篇 下一篇

猜你喜欢

热点阅读