hadoop以及hive的日常使用

2019-05-26  本文已影响0人  coderLumia

Attention

1. 使用java操作hadoop、hive时,所需要的jar包尽量与hadoop、hive的版本一致,否则可能会出现一些莫名其妙的问题。

2.开启hiveserver2后台运行
hivemetastore:nohup hive --service metastore &
hvieserver2:nohup hive --service hiveserver2 &

3.配置hadoop的最小blocksize,必须是512字节的倍数。因为datanode进行写操作时,每512字节进行校验.

4.HDFS中的块(block)大小为什么为128M?

5.查看hadoop镜像文件

6.查看edits编辑日志

7.HDFS的启动流程

8.HDFS管理命令
hdfs dfsadmin

9.节点的服役与退役
添加新节点
1.在dfs.include文件中包含新节点名称,该文件在namenode的本地目录
[master:/hadoop/etc/dfs.include.txt] 文件不需要分发到节点
node1
node2
node3
node4 (新节点)
2.在hdfs-site.xml文件中添加属性

<property>
        <name>dfs.hosts</name>
        <value>/hadoop/etc/dfs.include.txt</value>
</property>

3.在namenode上刷新节点
hdfs dfsadmin -refreshNodes
4.在slaves文件中添加新节点ip
node1
node2
node3
node4 (新节点)
5.单独启动新的节点中的datanode
[node4]
hadoop-daemon.sh start datanode
节点退役
1.添加退役节点的ip到黑名单,不要更新白名单
[master:/hadoop/etc/dfs.hosts.exclude.txt]
node4 (退役节点)
2.配置hdfs-site.xml

<property>
            <name>dfs.hosts.exclude</name>
            <value>/hadoop/etc/dfs.hosts.exclude.txt</value>
</property>

3.刷新namenode节点
hdfs dfsadmin -refreshNodes
4.查看webui,节点状态在decommisstion in progress
5.当所有的要退役的节点都报告为Decommissioned,数据转移工作已经完成
6.从白名单删除节点,并刷新节点
[master:/hadoop/etc/dfs.include.txt]
node4删除
hdfs dfsadmin -refreshNodes
7.从slaves文件中删除退役节点

10.节点的服役与退役(yarn)
**添加新节点
1.在dfs.include文件中包含新节点名称,该文件在namenode的本地目录
[master:/hadoop/etc/dfs.include.txt]
node1
node2
node3
node4 (新节点)
2.在yarn-site.xml文件中添加属性

<property>
        <name>yarn.resourcemanager.nodes.include-path</name>
        <value>/hadoop/etc/dfs.include.txt</value>
</property>

3.在namenode上刷新节点
yarn rmadmin -refreshNodes
4.在slaves文件中添加新节点ip
node1
node2
node3
node4 (新节点)
5.单独启动新的节点中的datanode
[node4]
yarn-daemon.sh start nodemanager
节点退役
1.添加退役节点的ip到黑名单,不要更新白名单
[master:/hadoop/etc/dfs.hosts.exclude.txt]
node4 (退役节点)
2.配置yarn-site.xml

<property>
            <name>yarn.resourcemanager.nodes.exclude-path</name>
            <value>/hadoop/etc/dfs.hosts.exclude.txt</value>
</property>

3.刷新resourcManager节点
yarn rnadmin-refreshNodes
4.查看webui,节点状态在decommisstion in progress
5.当所有的要退役的节点都报告为Decommissioned,数据转移工作已经完成
6.从白名单删除节点,并刷新节点
[master:/hadoop/etc/dfs.include]
node4删除
yarn rmadmin -refreshNodes
7.从slaves文件中删除退役节点

上一篇 下一篇

猜你喜欢

热点阅读