大数据笔记

大数据之环境搭建

2020-12-14  本文已影响0人  枫叶无言_1997

配置环境: centos 7.6 jdk version:1.8.0_171 hadoop version:2.9.2 主机1名称:hadoop101
端口号测试连通命令: nc -vz -w 2 172.16.9.101 50070 注:需关闭远程主机防火墙  

一、 jdk与hadoop环境搭建

1、将jdk与hadoop解压至/opt/module目录下,module为自定义文件夹
2、在/etc/profile文件末尾添加如下配置       
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_171
export PATH=$PATH:$JAVA_HOME/bin
##HaDOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.9.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
source /etc/profile  使其生效
3、检查是否安装成功命令jdk version、hadoop

二、伪分布模式配置

1、配置java_home环境变量

 etc/hadoop/hadoop-env.sh

export JAVA_HOME=/opt/module/jdk1.8.0_171

2、etc/hadoop/core-site.xml:

<configuration>

<!--指定HDFS中NameNode的地址-->

<property>

<name>fs.defaultFS</name>

<value>hdfs://hadoop101:9000</value>

</property>

<!--指定hadoop运行时产生文件的存储目录-->

<property>

<name>hadoop.tmp.dir</name>

<value>/opt/module/hadoop-2.9.2/data/tmp</value>

</property>

</configuration>

etc/hadoop/hdfs-site.xml:

<configuration>

<!--配置副本数,默认为3-->

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuration>

三、启动hdfs

1、bin/hdfs namenode -format  第一次可格式化数据,慎用

sbin/hadoop-daemon.sh start namenode  启动namenode

sbin/hadoop-daemon.sh start datanode  启动datanode

2、使用hdfs命令范例: 可在hadoop101:50070查看

bin/hdfs dfs + 执行命令

创建目录

bin/hdfs dfs -mkdir -p /user/linan/input

上传本地文件至hdfs

bin/hdfs dfs -put wcinput/wc.input /user/linan/input/

四、启动yarn

1、配置

1. etc/hadoop/yarn-env.sh 、 mapred-env.sh:export JAVA_HOME=/opt/module/jdk1.8.0_171

etc/hadoop文件夹下重命名: mv mapred-site.xml.template  mapred-site.xml       
2.    etc/hadoop/yarn-site.xml:

<!-- reducer 获取数据的方式 -->

<property>

<name>yarn.nodemanager.aux-services</name>

<value>mapreduce_shuffle</value>

</property>

<!-- 指定yarn的resourceManager的地址 -->

<property>

<name>yarn.resourcemanager.hostname</name>

<value>hadoop101</value>

</property>

3. etc/hadoop/mapred-site.xml:

<property>

<name>mapreduce.framework.name</name>

<value>yarn</value>

</property>

<!-- 历史服务器地址-->

<property>

<name>mapreduce.jobhistory.address</name>

<value>hadoop101:10020</value>

</property>

<!-- 历史web服务器地址-->

<property>

<name>mapreduce.jobhistory.webapp.address</name><value>hadoop101:19888</value>

</property>

2、启动

启动resourcemanager

sbin/yarn-daemon.sh start resourcemanager

启动nodemanager

sbin/yarn-daemon.sh start nodemanager

启动历史服务器

sbin/mr-jobhistory-daemon.sh start historyserver

五、配置日志聚集

开启日志聚集功能需重启nodemanager、resourcemanager、historyserver

1、配置etc/hadoop/yarn-site.xml:

<!-- 开启-->

<property>

<name>yarn.log-aggregation-enable</name>

<value>true</value>

</property>

<!-- 日志保留1周-->

<property>

<name>yarn.log-aggregation.retain-seconds</name>

<value>604800</value>

</property>

上一篇 下一篇

猜你喜欢

热点阅读