我爱编程

HDFS三个进程以hadoop用户启动2018-05-18

2018-05-18  本文已影响0人  糊涂蟲

1、伪分布式部署完后通过jps会发现hdfs有三个进程

三个进程默认属性为:

NameNode:localhost

DataNode:localhost

SecondaryNameNode:0.0.0.0

2、查看官网

http://hadoop.apache.org/

左下角点开Documentation,找到Release 2.8.X

单节点配置点开Single Node Setup

配置表在左边最底下Configuration

3、修改namenode

#cd   /opt/software/hadoop-2.8.1/etc/hadoop

vi    core_site.xml

将localhost换成IP:192.168.137.130

重启dfs.sh 后     namenode变为hadoop000

windows即可打开访问http://192.168.137.130:50070(记住端口号)

4、修改datenode

#cd   /opt/software/hadoop-2.8.1/etc/hadoop

vi    slaves

将localhost改为:192.168.137.130

ps:如果多台机器,IP用逗号分开

重启dfs.sh 后    datenode变为hadoop000

5、修改SecondaryNameNode

1、先到官网找到对应的http和https的参数

2、vi hdfs-side.xml,添加以下配置,后重启dfs.sh

上一篇 下一篇

猜你喜欢

热点阅读