K8K8s

一文学会基于HA方案的kubernetes集群(安装部署)

2022-04-25  本文已影响0人  sknfie

1、配置环境

(1)、配置主机环境

1)、每台主机设置hostname为本机ip,如

set-hostname 192.168.1.10

set-hostname 192.168.1.11

set-hostname 192.168.1.12

set-hostname 192.168.1.13

#关闭每台主机SELINUX 临时方法
setenforce 0

#关闭每台主机SELINUX永久关闭的方法
# /etc/selinux/config配置文件参数必须改为disabled,如: 
SELlNUX=disabled sed -i 's/ASELiNUX=enforcing$/SELiNUX=disabled/' /etc/selinux/config

2)、 配置与kubernetes集群相关参数

cat > /etc/sysctl.d/k8s.conf << EOF
net.bridge.bridge-nf-call-ip6tables = 1 
net.bridge.bridge-nf-call-iptables = 1 
vm.swappiness=0
EOF

# 加载生效

sysctl -p /etc/sysctl.d/k8s.conf

# 确认系统参数

sysctl --system

3)、 关闭Swap

# Kubernetes 1.8开始要求关闭系统的Swap,如果不关闭,默认配置下kubelet将无法启动。关闭Swap 方法如下:

swapoff -a 临时关闭

free 可以通过这个命令查看swap是否关闭了

vi /etc/fstab 永久关闭 注释swap那一行

# 重载生效

systemctl daemon-reload

⑵、配置kubernetes集群节点kubelet参数关闭Swap

1)、这一步可以等kubelet安装成功后,再配置

#因为本课程用于测试两台节点主机上还运行其他服务,关闭swap可能会对其他服务产生影响,所以这里修改 kubelet的配置去掉这个限制。使用kubelet的启动参数-fail-swap-on=false关闭Swap限制,修改方 法

vi /etc/sysconfig/kubelet # 找到kubelet_extra_args参数,添加内容--fail-swap-on=false

KUBELET_EXTRA_ARGS=--fail-swap-on=false

2、安装HA方案kubernetes集群

(1)、集群master和node节点资源规划

# 一共四台主机,安装配置三个master,两个node

master1: 192.168.1.10

master2: 192.168.1.11

master3: 192.168.1.12

node1: 192.168.1.12

node2: 192.168.1.13

(2)、检查基础组件版本

1)、检查基础组件版本

rpm -qa | grep -E 'kubelet|kubectl|kubeadm|kubernetes-cni|docker'

# 如果安装不是预期版本,可卸载重新安装

rpm -e --nodeps kubelet

rpm -e --nodeps kubectl

rpm -e --nodeps kubeadm

(3) 、安装HA方案kubernetes集群指定版本

1)、 上传kubeadm-confi g. yaml

# 192.168.1.10/11/12/13:/root/kubeadm

mkdir kubeadm

cd /root/kubeadm # kubeadm-config.yaml 存放路径

vi kubeadm-config.yaml

apiVersion: kubeadm.k8s.io/v1
kind: ClusterConfiguration
kubernetesVersion: v1.19.0
controlPlaneEndpoint: "k8s.yunlearn.org:6443"
imageRepository: registry.aliyuncs.com/google_containers 
networking:
    podSubnet: 10.244.0.0/16

2)、 安装kubernetes集群组件(node节点不用安装kubectl)

# 192.168.1.10/11/12-master 节点

yum install -y kubelet-1.19.0 kubectl-1.19.0 kubeadm-1.19.0 kubernetes-cni-0.8.7-0

# 192.168.1.13-node 节点

yum install -y kubelet-1.19.0 kubeadm-1.19.0 kubernetes-cni-0.8.7-0

# 设置服务开机启动模式

systemctl enable --now kubelet

#在192.168.1.10主机执行以下命令安装k8s集群

cd /root/kubeadm

kubeadm init --config kubeadm-config.yaml --upload-certs

3)、 master1安装成功后,输出日志包含以下内容,拷贝命令在master1执行

mkdir -p $HOME/.kube

sudo cp -i /etc/kubernetes/admin.conf $HOME/.kube/config

sudo chown $(id -u):$(id -g) $HOME/.kube/config

4、 安装flannel

# 下载kube-flannel .yml

curl -O https://raw.githubusercontent.com/coreos/flannel/master/Documentation/kube-flannel.yml

#如果无法下载,可使用课程资源kube-flannel .yml文件,上传到192.168.1.10:/root/kubeadm kubectl apply -f kube-flannel.yml

⑷、配置HA方案kubernetes集群

1)、安装部署HA方案,在另外两个master继续执行以下命令:

# master1安装成功后输出的日志包含以下内容(用于添加master2和master3)
//用安装后显示的命令
kubeadm join k8s.yunlearn.org:6443 --token ph7jxg.vtfylsswvu52df8e \
    --discovery-token-ca-cert-hash sha256:755940c780d471d5607953fc3056bb4670d20feac5411824e528cd6af08c9882 \
    --control-plane --certificate-key 680cb3665a8f6516297a7f1a399aa207aabde003843b864334dc9a1ab67c4003
#如果在master2或master3执行上述命令报错,则需在该节点执行kubeadm reset命令后再重新执行上 述命令

# token默认有效期是一天,token过期,如果还需使用token,需从master执行kubeadm token create 生成新 token

2)、添加node

# token默认有效期是一天,token过期后,如果继续添加节点,需从master执行kubeadm token create 生成新 token
kubeadm join k8s.yunlearn.org:6443 --token ph7jxg.vtfylsswvu52df8e \
    --discovery-token-ca-cert-hash sha256:755940c780d471d5607953fc3056bb4670d20feac5411824e528cd6af08c9882

3)、仓U建namespace为learn

kubectl create namespace learn

⑸、验证HA方案kubernetes集群

1)、 验证集群DNS可用

kubectl run curl --image=radial/busyboxplus:curl -it

#进入容器后,执行验证命令,解析返回结果说明集群DNS正常

kubectl exec -it curl bash # 进入 POD 容器

nslookup kubernetes. default # 验证集群 DNS

2)、 启动nginx服务

kubectl apply -f nginx-deploy.yaml

kubectl apply -f nginx-svc.yaml

kubectl get po -o wide

# 实操提示:执行kubectl apply -f nginx-svc.yaml命令,可能报错:The Service "nginx- test" is invalid: spec.ports[0].nodePort: Invalid value: 8088: provided port is not in the valid range. The range of valid ports is 30000-32767

# 错误信息显示,集群提供端口范围能力是30000-32767,有两种方法解决该问题,第一种: NodePort 端口改成30080。第二种:按本课程《解决HA方案kubernetes集群端口范围限制的问题》处理。

3)、 验证业务,在浏览器访问以下地址,页面返回nginx默认页,说明k8s集群部署成功 http://192.168.1.13:30080/

上一篇下一篇

猜你喜欢

热点阅读