hadoop

2019-06-14  本文已影响0人  煎炼

hadoop_2.7.7     新手不要用新版本,最新版容易出错

1,安装javaJDK

2,下载hadoop安装包

3,配置hadoop


1.hadoop-env.sh

export JAVA_HOME=/../../jdk.8.0.65


2.core-site.xml

<!--指定HADOOP所使用的文件系统,HDFS主节点的地址-->

<property>

  <name>fs.defaultFS</name>

  <value>hdfs://node-1:9000</value>  #ip:9000

</property>

<!--指定HADOOP运行时产生的存储目录,默认/tmp/hadoop-${user.name}-->

<property>

  <name>hadoop.tmp.dir</name>

  <value>/../../hadoop-2.4.1/tmp</value>

</property>


3.hdfs-site.xml

<!--指定HDFS副本的数量-->

<property>

  <name>dfs.replication</name>

  <value>2</value>

</property>

<!--指定secondary在那个节点上面-->

<property>

  <name>dfs.namenode.secondary.http-address</name>

  <value>node-2:50070</value>

</property>


4.mapred-site.xml        将mapred-env.sh.template重命名为mapred-site.xm

<!--指定mr运行时框架,这里指定yarn上,默认是local-->

<property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

</property>


5.yarn-site.xml

<!--指定YARN的主节点的地址-->

<property>

  <name>yarn.resourcemanager.hostname</name>

  <value>node-1</value>

</property>

<!--nodemanager(从节点)上运行的附属服务。需要配置成mapreduce_shuffle,才可运行mapreduce程序的默认值-->

<property>

  <name>yarn.nodemanager.aux-services</name>

  <value>mapreduce_shuffle</value>

</property>


6.slaves

node-1

node-2

node-3  #节点地址


4,将hadoop添加到环境变量中

vi /etc/profile

  export HADOOP_HOME=/data1/hadoop-2.7.7

  export PATH=${HADOOP_HOME}/bin:${HADOOP_HOME}/sbin:$PATH

  export HADOOP_CONF_DIR=${HADOOP_HOME}/etc/hadoop

  export YARN_CONF_DIR=${HADOOP_HOME}/etc/hadoop

source /etc/profile


5,首次启动HDFS前,必须对其进行格式化操作(只格式主节点)

hdfs namenode -format 或者 hadoop namenode -format

jps有四个服务就启动成功了

NameNode/ResourceManager/DataNode/NodeManager

如果启动失败 参考

start-dfs.sh中添加

HDFS_NAMENODE_USER=root

HDFS_DATANODE_USER=root

HDFS_SECONDARYNAMENODE_USER=root

start-yarn.sh中添加

YARN_RESOURCEMANAGER_USER=root

YARN_NODEMANAGER_USER=root


免密登录,主节点和从节点都要设置

ssh-keygen -t rsa  #一直回车,在~/.ssh下生成密钥

ssh-copy-id -i ~/.ssh/id_rsa.pub root@ip地址

上一篇 下一篇

猜你喜欢

热点阅读