TiDB Cluster 2.1 到 3.0 升级操作指南

2019-10-08  本文已影响0人  Kassadar

TiDB 3.0 升级操作指南

本文档适用于从 TiDB 2.1 版本升级到 TiDB 3.0 版本。TiDB 3.0 版本兼容 Kafka 版本的 TiDB Binlog 以及TiDB Binlog Cluster 版本

升级兼容性说明

注意:

在升级的过程中不要执行 DDL 请求,否则可能会出现行为未定义的问题。

在中控机器上安装 Ansible 及其依赖

注意:

如果已经安装了 Ansible 及其依赖,可跳过该步骤。

TiDB Ansible release-3.0 版本依赖 Ansible 2.4.2 及以上版本(ansible>=2.4.2,最好是 2.7.11 版本),另依赖 Python 模块:jinja2>=2.9.6jmespath>=0.9.0。为方便管理依赖,建议使用 pip 安装 Ansible 及其依赖,可参照在中控机器上安装 Ansible 及其依赖 进行安装。离线环境参照在中控机器上离线安装 Ansible 及其依赖

安装完成后,可通过以下命令查看版本:

ansible --version

ansible 2.7.11
pip show jinja2

Name: Jinja2
Version: 2.10
pip show jmespath

Name: jmespath
Version: 0.9.0

注意:

请务必按以上文档安装 Ansible 及其依赖。确认 Jinja2 版本是否正确,否则启动 Grafana 时会报错。确认 jmespath 版本是否正确,否则滚动升级 TiKV 时会报错。

在中控机器上更新 TiDB Ansible

tidb 用户登录中控机并进入 /home/tidb 目录,备份 TiDB 2.0 版本或 TiDB 2.1 版本的 tidb-ansible 文件夹:

mv tidb-ansible tidb-ansible-bak

解压 TiDB 3.0 版本对应的 tidb-ansible

tar -zxvf tidb-ansible.tar.gz

编辑 inventory.ini 文件

tidb 用户登录中控机并进入 /home/tidb/tidb-ansible 目录。

编辑 inventory.ini 文件

编辑 inventory.ini 文件,IP 信息参照备份文件 /home/tidb/tidb-ansible-bak/inventory.ini

以下变量配置,需要重点确认,变量含义可参考 inventory.ini 变量调整

  1. tikv_servers 新增了 tikv_status_port 参数

    # 部署 3.0 版本的 TiDB 集群时,多实例场景需要额外配置 tikv_status_port 端口,示例如下:
    TiKV1-1 ansible_host=172.16.10.4 deploy_dir=/data1/deploy tikv_port=20171 tikv_status_port=20181 labels="host=tikv1"
    TiKV1-2 ansible_host=172.16.10.4 deploy_dir=/data2/deploy tikv_port=20172 tikv_status_port=20182 labels="host=tikv1"
    TiKV2-1 ansible_host=172.16.10.5 deploy_dir=/data1/deploy tikv_port=20171 tikv_status_port=20181 labels="host=tikv2"
    TiKV2-2 ansible_host=172.16.10.5 deploy_dir=/data2/deploy tikv_port=20172 tikv_status_port=20182 labels="host=tikv2"
    TiKV3-1 ansible_host=172.16.10.6 deploy_dir=/data1/deploy tikv_port=20171 tikv_status_port=20181 labels="host=tikv3"
    TiKV3-2 ansible_host=172.16.10.6 deploy_dir=/data2/deploy tikv_port=20172 tikv_status_port=20182 labels="host=tikv3"
    
  2. 请确认 ansible_user 配置的是普通用户。为统一权限管理,不再支持使用 root 用户远程安装。默认配置中使用 tidb 用户作为 SSH 远程用户及程序运行用户。

    ## Connection
    # ssh via normal user
    ansible_user = tidb
    

    可参考如何配置 ssh 互信及 sudo 规则自动配置主机间互信。

  3. process_supervision 变量请与之前版本保持一致,默认推荐使用 systemd

    # process supervision, [systemd, supervise]
    process_supervision = systemd
    

    如需变更,可参考 如何调整进程监管方式从 supervise 到 systemd,先使用备份 /home/tidb/tidb-ansible-bak/ 分支变更进程监管方式再升级。

编辑配置文件

编辑 {item}.yml 文件,IP 信息参照备份文件 /home/tidb/tidb-ansible-bak/conf/{item}.yml
可以通过如下命令查看之前的自定义修改

cat tidb.yml | grep -Ev '#|^$'
cat pd.yml | grep -Ev '#|^$'
cat tikv.yml | grep -Ev '#|^$'

编辑 TiDB 集群组件配置文件

如之前自定义过 TiDB 集群组件配置文件,请参照备份文件修改 /home/tidb/tidb-ansible/conf 下对应配置文件。

注意以下参数变更:

滚动升级 TiDB 集群组件

如果当前 process_supervision 变量使用默认的 systemd 参数,则通过 excessive_rolling_update.yml 滚动升级 TiDB 集群。

ansible-playbook excessive_rolling_update.yml

如果当前 process_supervision 变量使用 supervise 参数,则通过 rolling_update.yml 滚动升级 TiDB 集群。

ansible-playbook rolling_update.yml

注意:

为优化 TiDB 集群组件的运维管理,TiDB 3.0 版本对 systemd 模式下的 PD service 名称进行了调整。在升级到 TiDB 3.0 版本后,滚动升级及日常滚动重启 TiDB 集群统一使用 rolling_update.yml 操作,不再使用 excessive_rolling_update.yml

滚动升级 TiDB 监控组件

ansible-playbook rolling_update_monitor.yml

注意:

TiDB 3.0 版本对 Dashboard 做了调整。
XXX-Cluster-TiKV 不再使用。
XXX-TiKV-SummaryXXX-TiKV-DetailXXX-TiKV-Trouble-Shooting 三张 Dashboard 加入。

上一篇下一篇

猜你喜欢

热点阅读