大数据学习之路

大数据 -【spark入门】

2019-02-12  本文已影响0人  小哥不才IT

1. 简要说明

基于spark 2.3.1版本学习spark基础知识及整体框架。本文首先以python版为主进行描述,后期会主要针对scala版本进行详细讲解。

2. spark学习环境搭建

http://spark.apache.org/downloads.html
https://archive.apache.org/dist/spark/

作者使用的为spark-2.3.1版本为例进行测试与学习。(之所以不选择最新版本,大家都懂的,最新版本不稳定,会有很多坑要踩,索性选择相对稳定的版本)
1. 如想设置为全局环境变量,则可配置到bashrc_profile中
2. 仅为开发调试,直接进入到下载安装包spark-2.3.1-bin-hadoop2.7/bin下指定相关操作的命令即可。
Python 2.7.10 (default, Aug 17 2018, 19:45:58)
[GCC 4.2.1 Compatible Apple LLVM 10.0.0 (clang-1000.0.42)] on darwin
Type "help", "copyright", "credits" or "license" for more information.
2019-02-11 17:57:49 WARN  NativeCodeLoader:62 - Unable to load native-hadoop library for your platform... using builtin-java classes where applicable
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel). For SparkR, use setLogLevel(newLevel).
Welcome to
      ____              __
     / __/__  ___ _____/ /__
    _\ \/ _ \/ _ `/ __/  '_/
   /__ / .__/\_,_/_/ /_/\_\   version 2.3.1
      /_/

Using Python version 2.7.10 (default, Aug 17 2018 19:45:58)
SparkSession available as 'spark'.
>>>
    

到此为止spark学习调试的环境基本搭建完成。

3. 核心概念介绍

>>> lines = sc.textFile("README.md")
>>> lines.filter(lambda line: "Python" in line)
PythonRDD[4] at RDD at PythonRDD.scala:49
>>> lines.filter(lambda line: "Python" in line).count()
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/Library/Python/2.7/site-packages/py4j/protocol.py", line 328, in get_return_value
    format(target_id, ".", name), value)
py4j.protocol.Py4JJavaError

报错原因为:spark默认是从hdfs上都文件的,想要读取本地文件需要增加file://前缀。即:

lambda形式:
lines = sc.textFile("file:///spark-2.3.1-bin-hadoop2.7/README.md")
pyline = lines.filter(lambda line: "Scala" in line)
pyline.count()

函数形式:

def hasScala(line):
    return "Scala" in line
pythonLines = lines.filter(hasPython)

Java和Scala中,只需要添加Maven依赖,编辑器会自动下载依赖的包。但 python程序运行需要使用spark自带的spark-submit脚本来运行。(脚本中已经帮我们引入了python程序的spark依赖)
例如:

#!/usr/bin/env python
# _*_ coding:utf-8 _*_


import logging
from pyspark import SparkConf, SparkContext

logging.basicConfig(level=logging.ERROR)

conf = SparkConf().setMaster("local").setAppName("myapp")
sc = SparkContext(conf=conf)

contents = sc.textFile("file://absfilepath")
res = contents.filter(lambda line: "Python" in line)
print "*" * 10,res.count()

sc.stop()

运行方式如:

spark-submit test.py

运行spark-submit时会出现很繁琐不易识别的INFO信息,如何过滤掉INFO信息呢?

注意:将rootCategory等级修改为WARN或者ERROR即可。

方法如下:

修改日志过滤等级:【conf/log4j.properties】

# Set everything to be logged to the console
log4j.rootCategory=WARN, console
log4j.appender.console=org.apache.log4j.ConsoleAppender
log4j.appender.console.target=System.err
log4j.appender.console.layout=org.apache.log4j.PatternLayout
log4j.appender.console.layout.ConversionPattern=%d{yy/MM/dd HH:mm:ss} %p %c{1}: %m%n

上一篇下一篇

猜你喜欢

热点阅读