python3 通过pyspark抽取Hive数据 进行线性回

2021-04-13  本文已影响0人  Ziger丶

背景:抽取hive上的数据,搭建线性回归模型,进行预测。
目标:抽取hive数据,并进行预测。


一、数据抽取

本次为测试数据,是通过Yarn配置的spark环境。抽取方式与spark集群抽取方式一致。也可以hdfs上准备txt文件进行读取。

import os
import sys
# 如果当前代码文件运行测试需要加入修改路径,避免出现后导包问题
BASE_DIR = os.path.dirname(os.path.dirname(os.getcwd()))
sys.path.insert(0, os.path.join(BASE_DIR))
PYSPARK_PYTHON = "/opt/anaconda3/envs/pythonOnYarn/bin/python3.8"
# 当存在多个版本时,不指定很可能会导致出错
os.environ["PYSPARK_PYTHON"] = PYSPARK_PYTHON
os.environ["PYSPARK_DRIVER_PYTHON"] = PYSPARK_PYTHON
os.environ["HADOOP_USER_NAME"]="hdfs"

from pythonOnYarn.test import SparkSessionBase

class TestPythonOnYarn(SparkSessionBase):
    SPARK_APP_NAME = "testPythonOnYarn"
    SPARK_URL = "yarn"
    ENABLE_HIVE_SUPPORT = True

    def __init__(self):
        self.spark = self._create_spark_session()

oa = TestPythonOnYarn()

df = oa.spark.sql("select * from test.u_data limit 10")

读取df 数据样例如下



二、非向量数据格式问题

尝试与pandas中dataframe一样的处理方式,先拼接所需要的自变量。

from pyspark.sql.functions import split, explode, concat, concat_ws

df_ws = df.withColumn("s", concat_ws( ',',df['userid'],df['movieid'], df['rating'] ))
df_ws  = df_ws.withColumn("features", split(df_ws['s'], ","))
vhouse_df = df_ws.select(['unixtime', 'features'])
vhouse_df.show(3)

处理后数据如下


直接使用该数据,代入 pyspark.ml.regression中的LinearRegression模型

from pyspark.ml.regression import LinearRegression
from pyspark.sql.session import SparkSession

lin_reg = LinearRegression(featuresCol='features',labelCol='userid',predictionCol='prediction') 

lin_reg_model = lin_reg.fit(train_df)

直接运行会报错:IllegalArgumentException: requirement failed: Column s2 must be of type class org.apache.spark.ml.linalg.VectorUDT:struct<type:tinyint,size:int,indices:array<int>,values:array<double>> but was actually class org.apache.spark.sql.types.ArrayType:array<string>.


三、数据格式处理为向量格式

经过查询发现以上报错是因为列 ‘features’ 必须为向量格式才能代入模型中使用。那么尝试把特征存储在Vector中,创建一个Iris模式的RDD,然后转化成dataframe。

from pyspark.sql import Row,functions
from pyspark.ml.linalg import Vector,Vectors

#将特征列转换成向量格式,并将数据处理为浮点数形式
def f(x):
    rel = {}
    rel['features'] = Vectors.dense(float(x[0]),float(x[1]),float(x[2]))
    rel['label'] = float(x[3])
    return rel

df1 = df.rdd.map(lambda p: Row(**f(p))).toDF()
df1.show()

处理后数据样式


df1

或者使用,效果一致。

from pyspark.ml.linalg import Vector
from pyspark.ml.feature import VectorAssembler
 
vec = VectorAssembler(inputCols=['userid', 'movieid', 'rating'], outputCol='features')
features_df = vec.transform(df)
features_df.show()
df2

再次代入模型中进行计算,能正常运行了。

#切分数据集,70%数据作为训练集,30%数据作为测试集。
splits = df1.randomSplit([0.7, 0.3])
train_df = splits[0]
test_df = splits[1]

from pyspark.ml.regression import LinearRegression
from pyspark.sql.session import SparkSession

lin_reg=LinearRegression(featuresCol='features',labelCol='label',predictionCol='prediction') 
lin_reg_model = lin_reg.fit(train_df)

四、构建和训练线性回归模型

评估线性回归模型在训练数据上的性能。

from pyspark.ml.regression import LinearRegression

lin_reg = LinearRegression(labelCol='label')
lr_model = lin_reg.fit(train_df)
lr_model.coefficients
lr_model.intercept

在测试数据上评估模型

test_p = lr_model.evaluate(test_df)
test_p.r2
test_p.meanSquaredError

五、预测数值

#预测
predictions = lr_model.transform(test_df)
print (predictions.collect())
print (predictions.show())

上一篇下一篇

猜你喜欢

热点阅读