Spark实战 - 1 - 配置和运行

2020-05-19  本文已影响0人  钢铁大郭

本文所用的ide是scala eclipse,传送门
数据集用的是MovieLens的ml-100k, 传送门
以后会加入intellij idea的配置……

建立Scala项目

图片1

此时我们的Scala项目就建立好啦。下一步我们就来写一个Spark应用吧!

我的第一个Spark应用

我非常建议,如果不是太熟悉scala并且对函数式编程也不熟悉的小伙伴,一定要去先看看这两个东西。不然以来就整Spark会比较懵。

wow,这样我们代码就写完了!快来运行一把!!
等等先别着急……

  1. 设置External Jars和Scala版本
    这几个红叉叉看的真不爽……咋回事呢……


    图片11

因为我们的scala eclipse ide,还不够智能,我们智能人工来配置这个项目的编译的jar packages。

  • 我们在根目录上右键,点击Properties


    图片12
  • 在弹出的窗口中选择 Java Build Path,再选中Libraries


    图片13
  • 在右边的选项中点击Add External JARs,去到系统的apache-spark的sdk目录,然后找到jar文件夹,选中里面所有的.jar文件,对,是所有!
    用mac的小伙伴如果是用brew安装的,可以直接到/usr/local/Cellar/apache-spark/2.4.5/libexec来找。
    用win的小伙伴直接去安装目录下就可以找到了,非常简单。
    图片14
    最后点击右下apply and close
    image.png

现在看我们的项目是不是一个错误都没有了呢,嘿嘿嘿。
有的小伙伴估计要哭了,因为貌似出现了更多的错误。


图片15

这个是因为Scala的版本问题,途中Scala需要的版本是2.11.*,而我们现在的版本是2.12.3。这个可以直接看Project Tree那边。
所以我们现在要修改当前的Scala版本
我们再去根目录右键,Properties。这次点击Scala Compiler,然后选中Use Project Settings,接下来就可以选择我们需要的Scala版本了。这里我们选择2.11

图片16
然后右下的apply and close, 世界终于安静了。
(1,6110)
(2,11370)
(3,27145)
(4,34174)
(5,21201)

各位小伙伴是不是跟我拿到了一样的结果呢?
欢迎留言交流哦!

上一篇 下一篇

猜你喜欢

热点阅读