kubernets学习kuberne...

k8s大规模集群如何保证稳定性

2022-08-16  本文已影响0人  zoux

从事云原生底层研发近3年,经历了大大小小的容器集群故障。记录一下容器集群稳定性建设心得。

首先,集群状态可以分为变更状态 + 正常运行状态。

0. 监控指标+告警的完善

无论是变更时,还是平时。监控指标的完善必不可少,通过监控指标可以提前发现异常情况。apisever, kcm, kubescheduler, kubelet, etcd组件的监控指标必须到位

https://docs.datadoghq.com/integrations/kube_apiserver_metrics/

https://docs.datadoghq.com/integrations/kube_controller_manager/

1. 变更状态

变更状态是人为发起的,因为组件更新,bug修复,功能上线等需求而对集群的apiserver, kcm, kubelet, etcd等等核心组件进行的主动变更。

这个过程保证集群的稳定性,个人认为核心是变更流程,变更规范的建设。

(1)对于核心组件(apiserver, kubelet, kcm等)变更而言,一定要规范变更流程,千万不要马虎。

例如,某个node节点需要调整一个kubelet参数,这个时候运维同学A手动调整,将Kubelet重启。但是由于kcm开启了污点驱逐,导致这台kubelet上所有pod全部被驱逐,业务方找上门来了。。。

所以kubelet变更流程就应该为:

停止kcm -> 停止kubelet -> 修改配置参数 -> 启动kubelet -> kubectl 观察nodeReady后启动kcm

(2)稳态环境的搭建

(3)变更过程小批量灰度进行,并时刻观察监控指标是否异常

在大规模集群中,特别要注意kubelet或者其他deamonset组件的变更。ds/kubelet组件大部分场景都是对集群的某些资源进行list-watcher。这个时候大规模的更新可能会给apiserver一瞬间造成巨大的压力。所以这类组件的变更一点要注意按批次,小规模变更

2. 正常运行时状态

(1)监控告警体系的完善

(2)黑盒白盒的巡检

监控体现的完善并不能发现所有的问题。巡检可以模拟业务场景,实现整个链路上的检查。比如定期凌晨在线上集群进行一波巡检。包括但不限于

(3)核心组件的cpu, mem监控

(4)k8s组件稳定性建设

上一篇下一篇

猜你喜欢

热点阅读