hbase分布式集群的安装
火山日常啰嗦
装hbase啦,只谈安装步骤及测试结果,亲测可行,所以有需要的小伙伴们可以参考哦。
前提准备:
1) hadoop集群已安装好
2) zookeeper集群已安装好
组件版本:
1) hadoop-2.7.3
2) zookeeper-3.4.10
3) hbase-1.2.5
步骤:
1) 解压hbase-1.2.5-bin.tar.gz,并指定解压到哪个目录,-C的作用就是指定解压目录
tar -zxvf hbase-1.2.5-bin.tar.gz -C /opt/modules/
2) 修改环境变量
vim /etc/profile
export HBASE_HOME=/opt/modules/hbase
export PATH=$PATH:$HBASE_HOME/bin
- 使修改立即生效
source /etc/profile
4) 修改hbase-env.sh
vim hbase-env.sh
export JAVA_HOME=/opt/modules/jdk1.7
export HBASE_MANAGES_ZK=false #指定不使用hbase自带的zookeeper
-
修改hbase-site.xml
vim hbase-site.xml
<property >
<name>hbase.tmp.dir</name>
<value>/opt/modules/hbase/data/tmp</value>
</property>
<property >
<name>hbase.rootdir</name>
<value>hdfs://volcano01.cc.com:8020/hbase</value>
</property>
<property >
<name>hbase.cluster.distributed</name>
<value>true</value>
</property>
<property>
<name>hbase.zookeeper.quorum</name>
<value>volcano01.cc.com,volcano02.cc.com,volcano03.cc.com</value>
</property>
<property>
<name>hbase.master.info.port</name>
<value>60010</value>
</property> -
增加slave的集群
vim /opt/modules/hbase/conf/regionservers
将里面的内容换成下面的:
volcano01.cc.com
volcano02.cc.com
volcano03.cc.com
ps:部署到datanode上面,在集群中启动Hbase,在哪个节点上启动的,哪个节点就是Hmaster. -
复制Hbase到其他节点
scp -r hbase root@volcano02.cc.com:/opt/modules
scp -r hbase root@volcano03.cc.com:/opt/modules -
修改各个节点的环境变量,vim /etc/profile,并使其立即生效,source /etc/profile
-
将各自节点中hadoop的配置文件hdfs-site.xml以及core-site.xml复制到hbase的conf目录下。
10) 启动hbase
先启动hadoop集群,start-hdfs_yarn.sh(这是我自己写的启动脚本)
再启动集群的zookeeper,分别到每个节点启动,zkServer.sh start
最后启动hbase,在一个节点启动就行,在哪个节点启动,哪个就是Hmaster,
start-hbase.sh



可以看出,在volcano01.cc.com启动,所以它是Hmaster,其他是regionserver因为在regionservers文件中配了三个节点,所以volcano01.cc.com既是Hmaster又是Hregionserver,当然volcano01.cc.com中也可以不配Hregionserver的。

bin/hbase shell