我爱编程

Hbase初探

2017-06-27  本文已影响0人  samYau

背景

由于项目需求数据本地话保存,而且数据主要为json格式的大块非结构化数据,并且线上情况以每日50G的速度在增长,所以数据本地话保存的需求也是比较紧急,为方面以后大数据方面的计算与分析,数据本地化将采用HBase存储。
在实际部署应用过程中,遇到不少坑,加上网上资料也比较旧,更多的是针对旧版的介绍,所以折腾了两天才成功部署了单机版的HBase,特此记录。

安装前介绍

环境依赖

系统准备

useradd hadoop
su username
ssh-keygen -t rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys
ssh localhost #确认能否不输入口令就用ssh登录localhost


### 安装java

直接使用yum安装,版本为1.8.0。

```shell
yum install java
yum install java-1.8.0-openjdk-devel.x86_64

安装hadoop

1.下载

获取Hadoop的发行版,从Apache的某个镜像服务器上下载最近的 稳定发行版
本次采用的版本为2.7.3。
下载完的安装包解压放到/usr/local/hadoop中

2.运行Hadoop的准备工作

export HADOOP_HOME=/usr/local/hadoop
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME


现在,应用所有更改到当前正在运行的系统。

source ~/.bashrc

- Hadoop配置

找到位于 “$HADOOP_HOME/etc/hadoop” 目录下所有的Hadoop配置文件。根据需要Hadoop将配置文件中的内容作修改。

cd $HADOOP_HOME/etc/hadoop


为了使用Java开发Hadoop程序,必须用java在系统中的位置来替换 hadoop-env.sh文件中的 java环境变量JAVA_HOME的值。

```python
export JAVA_HOME=/usr/lib/jvm/java-1.8.0-openjdk-1.8.0.131-3.b12.el7_3.x86_64/jre #yum 安装的路径查方式自行百度。

注:上面的文件,所有的属性值是用户定义的,可以根据自己的Hadoop的基础架构进行更改。

6/27/17 16:30:55 INFO namenode.NameNode: STARTUP_MSG:
/************************************************************
STARTUP_MSG: Starting NameNode
STARTUP_MSG: host = master/192.168.116.133
STARTUP_MSG: args = [-format]
STARTUP_MSG: version = 2.7.3
...
...
6/27/17 16:30:56 INFO common.Storage: Storage directory
/home/hadoop/hadoopinfra/hdfs/namenode has been successfully formatted.
6/27/17 16:30:56 INFO namenode.NNStorageRetentionManager: Going to
retain 1 images with txid >= 0
6/27/17 16:30:56 INFO util.ExitUtil: Exiting with status 0
6/27/17 16:30:56 INFO namenode.NameNode: SHUTDOWN_MSG:
/************************************************************
SHUTDOWN_MSG: Shutting down NameNode at master/192.168.116.133
************************************************************/


2.验证Hadoop DFS

下面的命令用来启动DFS。执行这个命令将启动Hadoop文件系统。

```shell
start-dfs.sh

3.验证Yarn脚本

下面的命令用来启动yarn脚本。执行此命令将启动yarn守护进程。

```shell

start-yarn.sh


4.访问Hadoop上的浏览器

访问Hadoop的默认端口号为50070。使用以下网址,以获取Hadoop服务在浏览器中。

![hadoop web](https://img.haomeiwen.com/i5359141/730475d08a9ce430.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)

5.验证集群中的所有应用程序

访问群集的所有应用程序的默认端口号为8088。使用以下URL访问该服务。


![hadoop web](https://img.haomeiwen.com/i5359141/96a43dfc946a4acb.png?imageMogr2/auto-orient/strip%7CimageView2/2/w/1240)


### 安装HBase

1.下载

选择最新的 [稳定发行版]() 。 
本次采用的版本为1.2.6。
下载完的安装包解压放到`/usr/local/HBase中`。

2.在单机模式下配置HBase

- **hbase-env.sh**

为HBase设置Java目录,并从conf文件夹打开hbase-env.sh文件。编辑JAVA_HOME环境变量,改变路径到当前JAVA_HOME变量,如上述设置hadoop一样。

- **hbase-site.xml**

这是HBase的主配置文件。通过在 `/usr/local/HBase` 打开`HBase`主文件夹,设置数据目录到合适的位置。在 conf 文件夹里面有几个文件,现在打开`hbase-site.xml`文件,如下代码。

```xml
  <configuration>
      <property>
          <name>hbase.rootdir</name>
          <value>hdfs://master:9000/hbase</value>
      </property>
      <property>
          <name>hbase.master</name>
          <value>hdfs://master:6000</value>
      </property>
      <property>
          <name>hbase.zookeeper.property.dataDir</name>
          <value>/home/hadoop/data/zookeeper</value>
      </property>
      <property>
          <name>hbase.cluster.distributed</name>
          <value>true</value>
      </property>
      <property>
          <name>hbase.zookeeper.quorum</name>
          <value>master</value>
      </property>
  </configuration>

到此 HBase 的安装配置已成功完成。可以通过使用 HBase 的 bin 文件夹中提供 start-hbase.sh 脚本启动 HBase。为此,打开HBase 主文件夹,然后运行 HBase 启动脚本。

./bin/start-hbase.sh

如果一切顺利,当运行HBase启动脚本,它会提示一条消息:

starting master, logging to /usr/local/HBase/bin/../logs/hbase-tpmaster-localhost.localdomain.out

3.最后查看进程情况

正常运行则会有以下进程

[root@hadoop ~]# jps
3074 ResourceManager
8418 HRegionServer
4870 NameNode
4554 SecondaryNameNode
3180 NodeManager
7612 HMaster
4413 DataNode
9695 Jps
上一篇 下一篇

猜你喜欢

热点阅读