在Windows中安装PySpark环境

2021-08-09  本文已影响0人  NEO_X

安装Python

可以选择安装官方版本的Python,或是Anaconda,对应的地址如下。

安装Java运行环境

安装Java运行环境

下载Spark和winutils工具

由于Hadoop开发是针对类Unix系统的,所以在Windows平台中没有原生的Hadoop安装包,但可以通过winutils工具作为替代。

解压spark,将winutils拷贝到解压目录的bin目录下,如下所示。


1-拷贝Winutils工具.gif

配置环境变量

配置过程如下所示:


2-配置环境变量.gif

使用spark-shell

安装配置完毕后,对Spark Shell使用,以验证成功的安装。

scala> 1 + 1
scala> println("Hello World!")
var myVar : String = "hello"

使用pyspark-shell

from datetime import datetime, date
import pandas as pd
from pyspark.sql import Row

df = spark.createDataFrame([
    Row(a=1, b=2., c='string1', d=date(2000, 1, 1), e=datetime(2000, 1, 1, 12, 0)),
    Row(a=2, b=3., c='string2', d=date(2000, 2, 1), e=datetime(2000, 1, 2, 12, 0)),
    Row(a=4, b=5., c='string3', d=date(2000, 3, 1), e=datetime(2000, 1, 3, 12, 0))
])
df.printSchema()
4-pyspark.gif

使用sparkR-shell

emp.data <- data.frame(
   emp_id = c (1:5), 
   emp_name = c("Rick","Dan","Michelle","Ryan","Gary"),
   salary = c(623.3,515.2,611.0,729.0,843.25), 
   start_date = as.Date(c("2012-01-01", "2013-09-23", "2014-11-15", "2014-05-11","2015-03-27")),
   stringsAsFactors = FALSE
)
df <- createDataFrame(emp.data)
4-sparkR.gif
上一篇 下一篇

猜你喜欢

热点阅读