v14.2.0 Nautilus released 发布
官方很高兴宣布Nautilus v14.2.0稳定系列的首次发布(我也挺高兴)。以前的Ceph版本中的组件有很多变化,我们建议大家仔细阅读发布和升级说明。
image.png
相对于Mimic版本重大变化¶
仪表板:
Ceph仪表板获得了许多新功能:
1:支持多个用户/角色
2:用于用户身份验证的SSO(SAMLv2)
3:审计支持
4:新的引导页,显示更多指标和健康信息
5:I18N支持
6:使用Swagger API的REST API文档
新的Ceph管理功能包括:
1:OSD管理(标记为down/out,更改OSD设置,恢复配置文件)
2:群集配置设置编辑器
3:Ceph池管理 (create/modify/delete)
4:ECP管理
5:RBD镜像配置
6:嵌入式Grafana仪表板(源自Ceph Metrics)
7:CRUSH MAP查看器
8:NFS Ganesha管理
9:iSCSI目标管理(通过ceph-iscsi)
10:RBD QoS配置
11:Ceph Manager(ceph-mgr)模块管理
12:PROMETHUES斯警报管理
此外,Ceph仪表板现在被拆分为自己的名为的包ceph-mgr-dashboard。如果您的软件包管理软件在安装时无法安装,则可能需要单独安装 ceph-mgr。
-
RADOS:
- 现在可以随时减少每个池的放置组(PG)数量 ,并且群集可以根据群集利用率或管理员提示自动调整PG计数 。
- 新的v2线协议支持线路加密。
- OSD和Monitor daemons消耗的物理存储设备,现在由集群跟踪健康指标(即 SMART)进行跟踪,集群可以应用预先训练的预测模型或基于云的预测服务来警告预期的 HDD或SSD故障。
- 可以通过命令轻松监视OSD守护进程的NUMA节点,并通过config选项进行配置。
ceph osd numa-status
osd_numa_node
- 使用BlueStore OSD时,空间利用率按对象数据,omap数据和内部元数据,按池以及压缩前和压缩后大小进行细分。
- 在执行恢复和回填时,OSD可以更有效地确定最重要的PG和对象的优先级。
- 长时间运行的后台进程(如设备故障后的恢复)的进度现在报告为部分。
ceph status
- 添加了一个实验性的Coupled-Layer “Clay” erasure code 插件,可以减少大多数恢复操作所需的网络带宽和IO 。
-
RGW:
- S3生命周期转换用于在存储类之间进行分层。
- 新的(Beast)默认取代civetweb, 从而提高了整体性能。
- 新的发布/订阅基础架构允许RGW将事件提供给无服务器框架,如kafka等knative或数据管道。
- 一系列身份验证功能,包括使用 OAuth2和OpenID :: connect的STS联合以及OPA(开放策略代理) 身份验证委派原型。
- 新的archive zone federation可以在单独的区域中完全保留所有对象(包括历史记录)。
-
CephFS:
-
对于具有大量RAM的大型缓存和长期运行的客户端,MDS稳定性已得到极大改善。 Cache trimming和client capability recall来防止MDS过载。
-
现在可以通过Rook管理的环境中的NFS-Ganesha集群导出CephFS 。Ceph管理集群确保高可用性和可扩展性。提供介绍性演示 。预计此功能的更多自动化将在未来的Nautilus小版本中出现。
-
MDS
mds_standby_for_*
,mon_force_standby_active
和mds_standby_replay
配置选项已过时。操作员现在可以(https://docs.ceph.com/docs/nautilus/cephfs/standby/#mds-standby-replay)allow_standby_replay
在CephFS文件系统上设置新标志。此设置会使备用数据库成为文件系统中任何可用等级的standby-replay。 -
MDS现在支持删除其缓存,同时告知客户端修剪其缓存。用
cache drop
来执行。 -
现在可以检查MDS中正在进行的scrub的进度。此外,scrub可以被暂停或中止。有关更多信息,请参阅清理文档。
-
通过
ceph volume
创建卷的操作界面。 -
新的cephfs-shell工具可用于在没有mount的情况下操作CephFS文件系统。
-
ceph status
输出CephFS相关的信息,简洁, 清晰和有用 -
Lazy IO已被改造。它可以由客户端使用C / C ++ API
ceph_open
打开CEPH_O_LAZY标志或通过config选项打开client_force_lazyio
。 -
现在可以通过命令
ceph fs fail
快速关闭CephFS文件系统。请参阅管理页面的详细信息。
-
-
RBD:
- Images可以用最短的dwontime实时动态迁在不同Pools或者新布局。
- 新的rbd perf image iotop
和
rbdperf image iostat` 命令 为所有RBD Images提供类似iotop和iostat的IO监视器。 - ceph-mgr Prometheus exporter IO监控所有RBD Images。
- 支持池中的单独Image命名空间以进行租户隔离。
-
其他:
- Ceph有一组新的orchestrator模块(https://docs.ceph.com/docs/nautilus/mgr/orchestrator_cli/#orchestrator-cli-module)可以直接与 ceph-ansible,DeepSea,Rook等外部协调器进行交互,或者通过CLIssh 交互界面(最终是Dashboard)。