Big Data Application

Flink1.8 集群搭建完全指南(1):Hadoop伪分布式

2019-06-18  本文已影响0人  MeazZa

Flink是目前在国内非常流行的大数据的计算框架,其设计理念可以完美的实现数据的批流计算一体化。Flink的集群,如果要使用到JobManager的HA,以及Yarn的资源调度的话,整体的部署过程还是比较复杂的。本系列文章将完整介绍Hadoop,Kerberos,SASL,Yarn,以及Flink集群的搭建过程,一步步完成整个系统环境的部署。

Hadoop集群的搭建

Hadoop的HDFS在Flink中用作JobManager的HA,Yarn可以用于Flink任务的资源调度,因此是必不可少的。下面我们先搭建好一个Hadoop的集群。

伪分布式集群

对于一些不熟悉Hadoop集群的搭建的同学,我们先来看下伪分布式集群的搭建,可以快速的熟悉简化的配置过程,以及Hadoop的各配置文件等。

以下是我用于部署该服务的机器:

hostname ip
master 10.16..
1. ssh免密码登录

在伪分布式集群中,所有的服务都在同一节点启动,但它们之间也同样通过ssh的方式访问,所以需要配置ssh免密码登录,配置的方式如下:

$ ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
$ cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
$ chmod 0600 ~/.ssh/authorized_keys

测试以下命令,成功跳转即可:

$ ssh localhost
2. 下载并解压Hadoop的jar包
$ tar -xvf hadoop-2.8.5.tar.gz
3. 配置文件修改
  1. 配置etc/hadoop/core-site.xml
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
  1. 配置etc/hadoop/hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>
  1. 配置etc/hadoop/mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
  1. 配置etc/hadoop/yarn-site.xml
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
4. 启动服务
$ bin/hdfs namenode -format
$ sbin/start-dfs.sh
HDFS
$ sbin/start-yarn.sh
5. 运行Hadoop任务

在集群搭建完成后,可以运行Hadoop的示例任务,检查集群是否能够正常工作,命令如下:

$ ./bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.8.5.jar pi 3 3

该程序会打印PI的值,则执行成功。在Yarn的Web页面,可以看到有一个成功的Application。

yarn

下一节我们会介绍Hadoop的分布式集群,Kerberos和SASL等的部署。

上一篇下一篇

猜你喜欢

热点阅读