在Rstudio中使用Spark处理超大规模的数据集

2017-11-18  本文已影响894人  ccccfys

最近对Rstudio的最新版本做了一个探索,发现在Rstudio的菜单中有连接Spark的入口,刚好自己手里有一份大小超过5GB,记录数达到2.8亿的超大数据集,对于单机版本的R来说无能为力,于是想尝试一下用Rstudio里面的Spark入口来安装和使用Saprk分析这个超大数据集。这样可以把Spark和自己熟悉的R语言结合起来,在Spark里面把数据汇总以后,可以直接传给R,在R里面使用更加复杂的模型和可视化工具对数据进行进一步分析。在这个过程中有很多东西自己也不是很熟悉,于是将这个过程记录下来,顺便也分享给大家。

1、准备R和Rstudio

(1)下载最新版的Rstudio,当前版本为1.1.383
,如果已经安装Rstudio且其版本低于1.1,请将其升至最新版。
可通过如下网址下载,下载后直接安装即可:

https://www.rstudio.com/products/rstudio/download/#download

(2) 如果你还没有安装R,请下载并安装R,可通过R官方网站进行下载。

https://www.r-project.org/

(3) 如果你没有R的基础,可以观看@松鼠在网易云课堂上发布的免费R入门课程:

https://study.163.com/instructor/3188405.htm

2、利用Rstudio自动安装Spark

在Rstudio中使用Spark十分简单,无需我们手动下载和配置spark环境,Rstudio会自动为我们安装Spark环境,你所需要做的就是点点菜单即可。

但在Rstudio中安装和使用Spark之前,我们需要先在自己的电脑上安装Java环境,因为Spark运行在Java 虚拟机,也就是JVM之上。

下面介绍安装步骤:

(1)安装并配置Java 8环境:

① 下载Java JDK(选择适合自己操作系统的版本):

http://www.oracle.com/technetwork/java/javase/downloads/jdk8-downloads-2133151.html

② 安装JDK,直接双击上一步下载的Java JDK进行安装即可;

③ 配置Java环境变量,这里演示Windows10上的操作,其它版本的操作系统可通过百度搜索相关操作演示。

(2) 在Rstudio中自动安装Spark

3、通过Rstudio连接Spark,读入大数据集并进行分析

(1)读入数据集并进行分析

我这里使用一个文件大小为5.25GB,记录数达到2.8亿行的大数据集进行测试。(如果单独使用R进行处理,则R将会直接爆掉)

这里使用sparklyr包将本机里面的csv文件读入Spark.

testing <- spark_read_csv(sc,        # 与spark的连接
                         'testing',  # 在spark中数据集的名称
                          path = 'D:/Data/future/data/ForecastDataforTesting.csv')

(2)使用Spark UI观察Spark任务调度与运行情况


(3) 对数据集进行简单分析:

> dbGetQuery(sc,"select * from testing limit 5")
  xid yid date_id hour realization wind
1 335 357       8   25           3 14.7
2 335 358       8   25           3 15.1
3 335 359       8   25           3 15.5
4 335 360       8   25           3 15.7
5 335 361       8   25           3 15.7
> dbGetQuery(sc,"select count(distinct(xid)) from testing")
  count(DISTINCT xid)
1                 548
> dbGetQuery(sc,"select count(distinct(yid)) from testing")
  count(DISTINCT yid)
1                 421
> 548*421
[1] 230708
> dbGetQuery(sc,"select count(*) from (select distinct xid,yid from testing)")
  count(1)
1   230708
> dbGetQuery(sc,"select count(distinct(hour)) from testing")
  count(DISTINCT hour)
1                   25
> dbGetQuery(sc,"select count(distinct(date_id)) from testing")
  count(DISTINCT date_id)
1                       5
> 25*5*10
[1] 1250
> 25*5*10*548*421
[1] 288385000
上一篇 下一篇

猜你喜欢

热点阅读