Hadoop 伪分布式坏境搭建
环境说明:VM上ubuntu 16.04版本
安装hadoop前的准备
(1)ssh 免密登录
(2)配置好Java环境
(1)(2)步骤的安装见网上博客
安装Hadoop
(1)下载hadoop
到上一篇博客给出的网下载hadoop-0.20.2.tar.gz,到随便一个目录解压
我这里是解压到了/zoux目录,并将hadoop-0.20.2重名为hadoop
(2)编辑配置文件
进入hadoop/conf目录下
编辑以下文件
core-site.xml
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
下面需要注意data目录是存放Hdfs文件的目录,需要自己提前建立,并使hadoop有权限操作它(简单方法:sudo chmod 777 -R data,将data目录的权限设置为777)
hdfs.site.xml
<property>
<name>dfs.data.dir</name>
<value>/zoux/hadoop/data</value>
</property>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
mapred-site.xml
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
接下来还有一个重要的配置文件 hadoop-env.sh
这里只要配置java的环境变量即可
export JAVA_HOME=/java/jdk1.8.0_171
这里/java/jdk1.8.0_171是我前面配置java的环境变量。
(3)设置hadoop环境变量
打开/etc/profile文件
export HADOOP_HOME=/zoux/hadoop
export PATH=PATH:$HADOOP_HOME/bin
末尾加入这俩句话即可。 /zoux/hadoop是解压完重命名的目录
然后输入 source /etc/profile是配置文件生效
这时命令行输入 hadoop -version
出现版本号信息就行。(我这里出现的事java的版本,但是后面的hadoop命名是生效的)
(4)接下来我们需要格式化hdfs目录
输入 hadoop namenode -format
(5)上一步成功后我们需要判断集群是否能正常启动
在/zoux/hadoop目录下 输入 bin/start-all.sh启动集群

这是正常的运行目录,这一步并不是成功,如果log的输出都是正常的话,就成功了。
如果遇到以下的问题

这是logs目录的权限太大,hadoop命令写不进去。
这时 sudo chmod -R 777 logs 将logs文件夹权限降下了就可以了。
在 bin/start-all.sh没有报错后,输入jps查看所有的进程
3222 SecondaryNameNode
5707 Jps
3099 DataNode
3419 TaskTracker
2974 NameNode
3295 JobTracker
出现上面这些进程表示集群安装成功。恭喜你,进入下一步开发了。
bin/stop-all.sh关闭集群