k8s 生态

Ceph Pool 操作

2018-08-10  本文已影响223人  TaoBeier

好久没搞 Ceph 了,正好最近又在搞来复习下基本操作,顺便也做个小记录(毕竟参加了一个小活动 哈哈哈哈 )

列出存储池

ceph osd lspools

一般情况下,你可能会看到有名为 rbd 的 pool.

创建存储池

ceph osd pool create {pool-name} {pg-num} [{pgp-num}] [replicated] \
        [crush-ruleset-name] [expected-num-objects]
ceph osd pool create {pool-name} {pg-num}  {pgp-num}   [erasure] \
        [erasure-code-profile] [crush-ruleset-name] [expected_num_objects]

要注意, 这里的 pool-name 必须要是唯一的。
而对于 replicated / erasure 这是表明 pool 的类型。 存储池类型,可以是 副本(保存多份对象副本,以便从丢失的 OSD 恢复)或 纠删(获得类似 RAID5 的功能)。多副本存储池需更多原始存储空间,但已实现所有 Ceph 操作;纠删存储池所需原始存储空间较少,但目前仅实现了部分 Ceph 操作。

设置存储池配额

ceph osd pool set-quota {pool-name} [max_objects {obj-count}] [max_bytes {bytes}]

删除存储池

ceph osd pool delete {pool-name} [{pool-name} --yes-i-really-really-mean-it]

重命名存储池

ceph osd pool rename {current-pool-name} {new-pool-name}

查看存储池统计信息

rados df

存储池快照

ceph osd pool mksnap {pool-name} {snap-name}

删除存储池快照

ceph osd pool rmsnap {pool-name} {snap-name}

获取存储池配置

ceph osd pool get {pool-name} {key}
上一篇下一篇

猜你喜欢

热点阅读