win10上安装pyspark攻略与我遇到的问题到成功安装
2018-01-06 本文已影响0人
yangxuan14
##1【工具准备】
1,jdk1.8
2,spark-2.2.0-bin-dadoop2.7
3,hadoop-2.7.1.tar
4,winutils
下载链接:https://pan.baidu.com/s/1c1L3i6W 密码:xs7k
##安装每部分
1.java安装并配置,java的环境变量,
如果java安装在这个目录:C:\Program Files\Java,请按上图修改,不然最后cmd下打开hadoop,会报错如下
2.分别解压安装spark和hadoop如下步骤如网页:http://blog.csdn.net/yaoqiwaimai/article/details/59114881
特别注意:查看c:\tmp\hive是否存在,不存在的话请创建避免犯错,
3.全部安装完毕后,cmd输入:
返回结果
恭喜你,安装成功
感谢您的观看。