初见Spark

Windows 10 利用Linux子系统配置本地Spark环境

2019-07-22  本文已影响0人  帅气的外表之下

偶然在应用商店看到了一个Ubuntu的应用软件,想了想,在Windows下可以通过直接使用Ubuntu系统吗?
赶紧上网查了一波,发现还真可以,想到最近在学习Spark搞了个虚拟机,突然发现这个比虚拟机好用多了。资源消耗没这么大。
配置一下Spark环境。

Windows 10 启动Linux子系统

配置ssh

sudo apt-get install openssh-client
sudo apt-get install openssh-server
sudo service ssh start
sudo service ssh restart

如果遇到问题,重新安装ssh服务

sudo apt-get purge openssh-server
sudo apt-get install openssh-server
Port 22         #如果和win10的端口号冲突,可以改为其他的
UsePrivilegeSeparation no
PermitRootLogin no         #如果你确实要用root方式登录的话设为yes
PasswordAuthentication yes
执行  ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa  生成密钥
执行  ssh-copy-id -i ~/.ssh/id_rsa.pub <username>@localhost  将公钥发送至Ubuntu ,其中<username> 为你的用户名
运行  ssh localhost  查看是否不需要密码登录

安装JDK

sudo tar -zxf ./jdk-12.0.2_linux-x64_bin.tar.gz -C /mnt/d/usr/local/
cd /mnt/d/usr/local/
sudo mv ./ jdk-12.0.2 ./jdk
sudo chown -R gandi ./jdk

#再打开 /home/gandi/.bashrc,添加环境变量
export JAVA_HOME=/mnt/d/usr/local/jdk
export PATH=$JAVA_HOME/bin:$PATH

source ~/.bashrc

因为下载的是最新的jdk-12,所以配置环境变量只需要配置/bin,CLASSPATH这些都不需要了,简化了很多。

安装Hadoop

sudo tar -zxf ./hadoop-3.2.0.tar.gz -C /mnt/d/usr/local/
cd /mnt/d/usr/local/
sudo mv ./ hadoop-3.2.0 ./hadoop
sudo chown -R gandi ./hadoop

#再打开 /home/gandi/.bashrc,添加环境变量
export HADOOP_HOME=/mnt/d/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

source ~/.bashrc
export JAVA_HOME=/mnt/d/usr/local/jdk
<configuration>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>file:/mnt/d/usr/local/hadoop/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>

# 其中的hadoop.tmp.dir的路径可以根据自己的习惯进行设置

修改etc/hadoop/hdfs-site.xml文件内容如下:

<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
    <name>dfs.namenode.name.dir</name>
    <value>file:/mnt/d/usr/local/hadoop/tmp/dfs/name</value>
  </property>
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>file:/mnt/d/usr/local/hadoop/tmp/dfs/data</value>
  </property>
</configuration>

修改etc/hadoop/mapred-site.xml文件内容如下:

<configuration>
    <property>
        <name>mapred.job.tracker</name>
        <value>localhost:9001</value>
  </property>
</configuration>
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>

修改etc/hadoop/yarn-site.xml如下:

<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
hadoop namenode -format
start-dfs.sh
start-yarn.sh
7201 SecondaryNameNode
6727 NameNode
7815 Jps
6939 DataNode

安装配置Spark

sudo tar -zxf spark-2.4.3-bin-without-hadoop.tgz -C /mnt/d/usr/local/
cd /mnt/d/usr/local/
mv spark-2.4.3-bin-without-hadoop/ ./spark
chown -R gandi ./spark/

#再打开 /home/gandi/.bashrc,添加环境变量
export SPARK_HOME=/mnt/d/usr/local/spark
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH
source ~/.bashrc
cp spark/conf/slaves.template ./spark/conf/slaves
cp spark/conf/spark-env.sh.template ./spark/conf/spark-env.sh

在spark-env.sh里添加

export JAVA_HOME=/mnt/d/usr/local/jdk
export SPARK_MASTER_IP=localhost
export SPARK_WORKER_MEMORY=4g
export SPARK_DIST_CLASSPATH=$(/mnt/d/usr/local/hadoop/bin/hadoop classpath)

JAVA_HOME:指定的是 Java 的安装目录
SPARK_MASTER_IP:指定的是 Spark 集群的 Master 节点的 IP 地址
SPARK_WORKER_MEMOERY:指定的 Worker 节点能够最大分配给 Excutors 的内存大小、
SPARK_DIST_CLASSPATH:Spark就可以把数据存储到Hadoop分布式文件系统HDFS中

image.png

Linux子系统文件目录在Windows下面哪个文件夹目录

C:\Users\用户名\AppData\Local\Packages\CanonicalGroupLimited.UbuntuonWindows_79rhkp1fndgsc\LocalState\rootfs

Linux访问windows文件

上一篇 下一篇

猜你喜欢

热点阅读