Hadoop集群所有的DataNode都启动不了解决办法

2019-10-25  本文已影响0人  小马哥是没有感情的

首先会出现几种情况,才会出现启动不了datanode的情况。

1. 首先修改过master那台的配置文件,

2. 多次Hadoop namenode -format这种不好的习惯。

一般会出现一下报错:

Java.io.IOException: Cannot lock storage /usr/hadoop/tmp/dfs/name. The directory is already locked.

或者是:

[root@hadoop current]# hadoop-daemon.sh start datanode

starting datanode, logging to /usr/local/hadoop1.1/libexec/../logs/hadoop-root-datanode-hadoop.out
[root@hadoop ~]# jps

jps命令发现没有datanode启动

对于这种情况请先试一下:

在坏死的节点上输入如下命令即可:

bin/Hadoop-daemon.sh start DataNode

bin/Hadoop-daemon.sh start jobtracker

如果还不可以的话,那么恭喜你和我遇到的情况一下。

正确的处理方法是,到你的每个Slave下面去,找到../hadoop/tmp/dfs/ -ls

会显示有: data

这里需要把data文件夹删掉。接着重写启动hadoop

start-all.sh

接着查看jps

那么就会出现datanode了

OK,问题解决。

上一篇 下一篇

猜你喜欢

热点阅读