TiDB 社区创作集

TiDB在测试环境的安装部署

2019-07-30  本文已影响6人  super_pcm

1. 软件及硬件环境说明

TiDB作为一个分布式的NewSQL数据库产品,其安装部署的要求也是挺高的。下面是官方文档的测试环境的安装需求:

组件 CPU 内存 本地存储 网络 实例数量(最低要求)
TiDB 8核+ 16 GB+ 无特殊要求 千兆网卡 1(可与 PD 同机器)
PD 4核+ 8 GB+ SAS, 200 GB+ 千兆网卡 1(可与 TiDB 同机器)
TiKV 8核+ 32 GB+ SSD, 200 GB+ 千兆网卡 3

如果按照官方文档来做的话,没有几台服务器是没办法玩TiDB的了。为了不只是使用他们提供的Docker版,而是使用更加强大的完整版本。下面我们修改一些检测的参数来降低TiDB对硬件的要求,最后实现用Ansible安装部署。下面是我本次测试环境的说明:

组件 CPU 内存 网络 实例数量(最低要求)
TiDB 2核+ 4 GB+ 虚拟网卡 1(可与 PD 同机器)
PD 2核+ 4 GB+ 虚拟网卡 1(可与 TiDB 同机器)
TiKV 2核+ 4 GB+ 虚拟网卡 3

测试环境是在我PC的虚拟机上进行的,系统版本为CentOS7.4,TiDB的版本为2.1

2. 准备虚拟机、准备中控机

按照上表的配置要求准备好四台虚拟机,其中TIDB和PD在同一台虚拟机上,同时这台机也作为中控机来使用。

yum -y install epel-release git curl sshpass
yum -y install python2-pip
useradd -m -d /home/tidb tidb
passwd tidb

配置 tidb 用户 sudo 免密码,将 tidb ALL=(ALL) NOPASSWD: ALL 添加到文件末尾即可。

# visudo
tidb ALL=(ALL) NOPASSWD: ALL

生成 ssh key: 执行 su 命令从 root 用户切换到 tidb 用户下。创建 tidb 用户 ssh key, 提示 Enter passphrase 时直接回车即可。执行成功后,ssh 私钥文件为 /home/tidb/.ssh/id_rsa, ssh 公钥文件为 /home/tidb/.ssh/id_rsa.pub。

su - tidb
ssh-keygen -t rsa
git clone -b v2.1.15 https://github.com/pingcap/tidb-ansible.git

下载指定版本的tidb-ansible:

git clone https://github.com/pingcap/tidb-ansible.git
cd /home/tidb/tidb-ansible
sudo pip install -r ./requirements.txt
[servers]
192.168.113.20
192.168.113.21
192.168.113.22
192.168.113.23

[all:vars]
username = tidb
ntp_server = pool.ntp.org

执行以下命令,按提示输入部署目标机器 root 用户密码。该步骤将在部署目标机器上创建 tidb 用户,并配置 sudo 规则,配置中控机与部署目标机器之间的 ssh 互信。

ansible-playbook -i hosts.ini create_users.yml -u root -k
cd /home/tidb/tidb-ansible
ansible-playbook -i hosts.ini deploy_ntp.yml -u tidb -b
## TiDB Cluster Part
[tidb_servers]
192.168.113.20

[tikv_servers]
192.168.113.21
192.168.113.22
192.168.113.23

[pd_servers]
192.168.113.20

## Monitoring Part
# prometheus and pushgateway servers
[monitoring_servers]
192.168.113.20

[grafana_servers]
192.168.113.20

# node_exporter and blackbox_exporter servers
[monitored_servers]
192.168.113.20
192.168.113.21
192.168.113.22
192.168.113.23

[alertmanager_servers]
192.168.113.20
  1. 确认 tidb-ansible/inventory.ini 文件中 ansible_user = tidb,本例使用 tidb 用户作为服务运行用户,配置如下:
    ansible_user 不要设置成 root 用户,tidb-ansible 限制了服务以普通用户运行。
## Connection
# ssh via normal user
ansible_user = tidb

执行以下命令如果所有 server 返回 tidb 表示 ssh 互信配置成功。

ansible -i inventory.ini all -m shell -a 'whoami'

执行以下命令如果所有 server 返回 root 表示 tidb 用户 sudo 免密码配置成功。

ansible -i inventory.ini all -m shell -a 'whoami' -b
  1. 执行 local_prepare.yml playbook,联网下载 TiDB binary 到中控机:
ansible-playbook local_prepare.yml
  1. 初始化系统环境,修改内核参数
    在做这一步之前,我们先要修改 /home/tidb/tidb-ansible/group_vars/all.yml 这个文件中的一个参数
dev_mode: True

意思就是打开测试模式,这时候TiDB对硬件的需求就不会那么高。然后再执行下面那一步,执行的过程可能不会那么顺利,看到有什么不达标再进行处理。

ansible-playbook bootstrap.yml
  1. 部署 TiDB 集群软件
ansible-playbook deploy.yml

注意:
Grafana Dashboard 上的 Report 按钮可用来生成 PDF 文件,此功能依赖 fontconfig 包和英文字体。如需使用该功能,登录 grafana_servers 机器,用以下命令安装:

sudo yum install fontconfig open-sans-fonts
  1. 启动 TiDB 集群
ansible-playbook start.yml
mysql -u root -h 192.168.113.20  -P 4000

通过浏览器访问监控平台。
地址:http://192.168.113.20:3000 默认帐号密码是:admin/admin

组件 端口变量 默认端口 说明
TiDB tidb_port 4000 应用及DBA工具访问通信端口
TiDB tidb_status_port 10080 TiDB状态信息上报通信端口
TiKV tikv_port 20160 TiKV通信端口
TiKV tikv_status_port 20180 上报TiKV状态的通信端口
PD pd_client_port 2379 提供TiDB和PD通信端口
PD pd_peer_port 2380 PD集群节点间通信端口
Pump pump_port 8250 Pump通信端口
Prometheus prometheus_port 9090 Prometheus服务通信端口
Pushgateway pushgateway_port 9091 TiDB,TiKV,PD监控聚合和上报端口
Node_exporter node_exporter_port 9100 TiDB集群每个节点的系统信息上报通信端口
Blackbox_exporter blackbox_exporter_port 9115 Blackbox_exporter通信端口,用于TiDB集群端口监控
Grafana grafana_port 3000 Web监控服务对外服务和客户端(浏览器)访问端口
Grafana grafana_collector_port 8686 grafana_collector通信端口,用于将Dashboard导出为PDF格式
Kafka_exporter kafka_exporter_port 9308 Kafka_exporter通信端口,用于监控binlogKafka集群
上一篇下一篇

猜你喜欢

热点阅读