云计算

ceph ssd hdd 组合配比

2020-11-25  本文已影响0人  cloudFans
  1. 通用的方式是 ssd journal hdd data的方式:

ssd 分区 hdd 分区
按照1:4的比例 256G : 1T 构造一个osd 内存1G cpu 1C , 基于rook 部署,再用cgroup做numa node分配

但是还有另外一种cache-tiering的方式

ssd pool 和 hdd pool做绑定,ssd:hdd 多对多的方式,有别于之上1:1的方式,而且加了一些冷热自动迁移的新特性,
但是用的人比较少,参考资料以及调优的参数参考很少,遇到问题也很难解决,不适合小团队,尤其是没有ceph开发的团队。
但是可以持续关注下,而且ceph的测试成本也是比较高的。

参考:

  1. SSD在分布式文件系统中的应用场景及方案对比
    http://221.179.172.81/pdf/E6287DB31A584172A5FA2F2C63744234.pdf
  2. CACHE TIERING
    https://docs.ceph.com/en/latest/rados/operations/cache-tiering/

关于ceph是否可以启用ssd trim 特性

目前来看最好还是不要用

参考:
https://stackoverflow.com/questions/46290829/ceph-lumonius-bluestore-performance-issue-and-trim-discard

上一篇下一篇

猜你喜欢

热点阅读