百问中台:数据中台之数据仓库脚本一键安装
2021-03-23 本文已影响0人
sknfie
概述
数据中台客户这边已经采购阿里这些大厂了,现在都不让提。我们就只能在阿里数据中台的基础上,做这些业务,主要通过数据仓库建模来实现。
安装包
准备安装环境
首先,建立大数据环境,通过一键安装脚本来实现。
//下载脚本
wget https://github.com/MTlpc/automaticDeploy/archive/master.zip
//在/home下创建hadoop目录,用于存放脚本
mkdir /home/hadoop
//解压到/home/hadoop目录下
unzip master.zip -d /home/hadoop
cd /home/hadoop
mv automaticDeploy-master/ automaticDeploy
cd automaticDeploy
1.定义安装包
配置frames.txt,填写安装包全称,以及需要安装的节点
# 通用环境
jdk-8u144-linux-x64.tar.gz true
azkaban-sql-script-2.5.0.tar.gz true
# Node01
hadoop-2.7.7.tar.gz true node01
# Node02
mysql-rpm-pack-5.7.28 true node02
azkaban-executor-server-2.5.0.tar.gz true node02
azkaban-web-server-2.5.0.tar.gz true node02
presto-server-0.196.tar.gz true node02
# Node03
apache-hive-1.2.1-bin.tar.gz true node03
apache-tez-0.9.1-bin.tar.gz true node03
sqoop-1.4.6.bin__hadoop-2.0.4-alpha.tar.gz true node03
yanagishima-18.0.zip true node03
# Muti
apache-flume-1.7.0-bin.tar.gz true node01,node02,node03
zookeeper-3.4.10.tar.gz true node01,node02,node03
kafka_2.11-0.11.0.2.tgz true node01,node02,node03
2.安装mysql、azkaban,需配置configs.txt,填写相关配置
# Mysql相关配置
mysql-root-password DBa2020*
mysql-hive-password DBa2020*
mysql-drive mysql-connector-java-5.1.26-bin.jar
# azkaban相关配置
azkaban-mysql-user root
azkaban-mysql-password DBa2020*
azkaban-keystore-password 123456
3.脚本设置执行权限
chmod +x hadoop/* systems/*
4.进入systems目录,执行batchOperate.sh脚本初始化环境
/home/hadoop/automaticDeploy/systems/batchOperate.sh
5.进入hadoop目录,选择对应组件的安装脚本,依次进行安装(需要在各个节点执行)
# 安装flume
/home/hadoop/automaticDeploy/systems/installFlume.sh
# 安装zookeeper
/home/hadoop/automaticDeploy/systems/installZookeeper.sh
# 安装kafka
/home/hadoop/automaticDeploy/systems/installKafka.sh
6. 配置host_ip.txt
192.168.2.191 node01 root 123456
192.168.2.192 node02 root 123456
192.168.2.193 node03 root 123456
7. 准备安装包
上传安装包frame.zip并分发到其他两个节点
//在192.168.2.192和192.168.2.193的/home下创建hadoop目录,用于存放脚本
mkdir /home/hadoop
scp -r automaticDeploy/ root@192.168.2.192:/home/hadoop
scp -r automaticDeploy/ root@192.168.2.193:/home/hadoop
安装步骤
系统环境及配置1. 安装系统环境
每个节点都执行一遍
cd system
./batchOperate.sh
执行完成后,检查一下
ssh node01
ssh node02
ssh node03
2. 安装Hadoop
每个节点都执行一遍
cd hadoop
./installHadoop.sh
//完成后执行
source /etc/profile
初始化namenode,这个只在node01执行
hadoop namenode -format
start-dfs.sh
访问hadoop web界面:
http://192.168.2.191:50070/
hadoop管理portal
3. 安装mysql
在node02安装mysql:
./installMysql.sh
4. 安装hive
在node03安装hive:
./installHive.sh
5. 安装Sqoop
在node03安装Sqoop:
./installSqoop.sh
source /etc/profile
6. 安装Presto
每个节点都安装,主节点node02,因为在配置文件已经配置过主从了:
./installPresto.sh
7. 安装Azkaban
每个节点都安装,主节点node02,因为在配置文件已经配置过主从了:
./installAzkaban.sh
8. 安装Yanagishima
yanagishima 是presto的一个客户端web工具,目前支持相对较好,在node03部署一下。
./installYanagishima.sh
9. 更新配置
每个节点都要执行:
source /etc/profile