hive的安装步骤

2021-02-05  本文已影响0人  八爪鱼下水

1上传解压

cd /export/software
tar -zxf apache-hive-2.1.0-bin.tar.gz  -C /export/server


# 修改 hive名称为 hive-2.1.0
cd /export/server
mv apache-hive-2.1.0-bin hive-2.1.0

2修改hive的配置文件: hive-env.sh

cd /export/server/hive-2.1.0/conf
cp hive-env.sh.template hive-env.sh

vim hive-env.sh

修改以下内容:  注意前面的#号不要忘记删除
HADOOP_HOME=/export/server/hadoop-2.7.5 
export HIVE_CONF_DIR=/export/server/hive-2.1.0/conf

3 修改 hive的 hive-site.xml

cd /export/server/hive-2.1.0/conf
vim hive-site.xml

# 添加一下内容:
<?xml version="1.0" encoding="UTF-8" standalone="no"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
      <name>javax.jdo.option.ConnectionUserName</name>
      <value>root</value>
  </property>
  <property>
      <name>javax.jdo.option.ConnectionPassword</name>
      <value>123456</value>
  </property>
  <property>
      <name>javax.jdo.option.ConnectionURL</name>
      <value>jdbc:mysql://node1:3306/hive?createDatabaseIfNotExist=true&amp;useSSL=false</value>
  </property>
  <property>
      <name>javax.jdo.option.ConnectionDriverName</name>
      <value>com.mysql.jdbc.Driver</value>
  </property>
  <property>
      <name>hive.metastore.schema.verification</name>
      <value>false</value>
  </property>
  <property>
    <name>datanucleus.schema.autoCreateAll</name>
    <value>true</value>
 </property>
 <property>
    <name>hive.server2.thrift.bind.host</name>
    <value>node3</value>
   </property>
</configuration>

4将资料中 mysql的驱动包, 导入到hive的lib目录下

cd /export/server/hive-2.1.0/lib/

将资料中的 mysql-connector-java-5.1.38.jar 上传到 此目录下:

5将 hive的 jdbc目录下的hive-jdbc-2.1.0-standalone.jar 复制到 hive的lib目录下

cp /export/server/hive-2.1.0/jdbc/hive-jdbc-2.1.0-standalone.jar /export/server/hive-2.1.0/lib/

6 在node1: 修改hadoop的core-site.xml

cd /export/server/hadoop-2.7.5/etc/hadoop
vim core-site.xml
添加以下内容:
<property> 
    <name>hadoop.proxyuser.root.hosts</name>
    <value>*</value> 
</property> 
<property> 
    <name>hadoop.proxyuser.root.groups</name> 
    <value>*</value> 
</property>

添加后保存退出, 然后同步到 noed2和 node3
cd /export/server/hadoop-2.7.5/etc/hadoop
scp -r core-site.xml  node2:$PWD
scp -r core-site.xml  node3:$PWD

7启动hadoop集群

node1节点:  start-all.sh

8启动hive

node3: 

cd /export/server/hive-2.1.0/bin
//后台启动

nohup ./hive --service metastore &
nohup ./hive --service hiveserver2 &

通过jps 看到有两个RUNJAR 出现 , 1分钟测试多次

或者通过 ps -ef | grep hive

9 初始化hive的元数据

cd /export/server/hive-2.1.0/bin
执行:
schematool -dbType mysql -initSchema
手动初始化元数据信息

10连接hive:

node3:
cd /export/server/hive-2.1.0/bin

./beeline

进入后输入
!connect jdbc:hive2://node3:10000

输入用户名 root  密码 任意  即可
上一篇下一篇

猜你喜欢

热点阅读