文章目录
前言
本文介绍Spark DataFrame、Spark SQL、Spark Streaming入门使用教程,这些内容将为后面几篇进阶的streaming实时计算的项目提供基本计算指引,本文绝大部分内容来自Spark官网文档(基于PySpark):
Spark DataFrame、Spark SQL、Spark Streaming
1、RDD、Spark DataFrame、Spark SQL、Spark Streaming
RDD:大家最熟悉的数据结构,主要使用transmissions和actions 相关函数式算子完成数据处理和数理统计,例如map、reduceByKey,rdd没有定义 Schema(一般指未定义字段名及其数据类型), 所以一般用列表索引号来指定每一个字段。 例如, 在电影数据的推荐例子中:
move_rdd.map(lambda line:line.split('|')).map(lambda a_list:(alist[0],a_list[1],a_list[2]))
每行有15个字段的数据,因此只能通过索引号获取前3个字段的数据,这要求开发者必须掌握 Map/Reduce 编程模式,不过, RDD 功能也最强, 能完成所有 Spark 数据处理与分析需求。
Spark DataFrame:创建DataFrame时,可以定义 Schema,通过定义每一个字段名与数据类型,以便之后直接用字段名进行数据索引,用法跟Pandas的DataFrame差别不大。Spark DataFrame是一种更高层的API,而且基于PySpark,用起来像Pandas的”手感“,很容易上手。
Spark SQL 底层是封装了DataFrame ,让使用者直接用sql的方式操作rdd,进一步降低Spark作为分布式计算框架的使用门槛。
Spark Streaming是本博客重点要解析的数据结构,实际项目也是使它实现流式计算,相关定义参考原文:
Spark Streaming is an extension of the core Spark API that enables scalable, high-throughput, fault-tolerant stream processing of live data streams. Data can be ingested from many sources like Kafka, Flume, Kinesis, or TCP sockets, and can be processed using complex algorithms expressed with high-level functions like map, reduce, join and window. Finally, processed data can be pushed out to filesystems, databases, and live dashboards.
Spark Streaming具有扩展性、数据吞吐量高、容错,底层基于core Spark API 实现,用于流数据处理。Spark Streaming注入的实时数据源可来自Kafka、Flume、Kinesis或者TCP流等,park Streaming可借助Map、reduce、join和window等高级函数接口搭建复杂的算法用于数据处理。Spark Streaming实时处理后数据可存储到文件系统、数据库或者实时数据展示仪表。
2、Spark DataFrame
Spark DataFrame API比较多,既然用于数据处理和计算,当然会有预处理接口以及各统计函数、各种方法,详细参考官网:pyspark.sql.DataFrame以及pyspark.sql.functions module模块
目前版本中,创建Spark DataFrame的Context接口可以直接用SparkSession接口,无需像RDD创建上下文时用Spark Context。
SparkSession:pyspark.sql.SparkSession:Main entry point for DataFrame and SQL functionality.
2.1 创建基本的Spark DataFrame
创建 Spark DataFrame有多种方式,先回顾Pandas的DataFrame,Pandas可从各类文件、流以及集合中创建df对象,同样 Spark DataFrame也有类似的逻辑
首先需加载spark的上下文:SparkSession
import pandas as pd
import numpy as np
from pyspark.sql import SparkSession # 用于Spark DataFrame的上下文
from pyspark.sql.types import StringType,StructType,StructField, LongType,DateType # 用于定义df字段类型
from pyspark.sql import Row,Column
#本地spark单机模式
spark=SparkSession.builder.master("local").appName('spark_dataframe').getOrCreate()
print(spark)
输出spark上下文信息:
SparkSession - in-memory
SparkContext
Spark UI
Version v2.4.4
Master
local[*]
AppName
spark_dataframe
from pyspark.sql.types:df目前支持定义的字段类型(参考源码),用于定义schema,类似关系型数据库建表时,定义表的字段类型
__all__ = [
"DataType", "NullType", "StringType", "BinaryType", "BooleanType", "DateType",
"TimestampType", "DecimalType", "DoubleType", "FloatType", "ByteType", "IntegerType",
"LongType", "ShortType", "ArrayType", "MapType", "StructField", "StructType"]
直接用从RDD创建dataframe对象
spark_rdd = spark.sparkContext.parallelize([
(11, "iPhoneX",6000, datetime.date(2017,9,10)),
(12, "iPhone7",4000, datetime.date(2016,9,10)),
(13, "iPhone4",1000, datetime.date(2006,6,8))]
)
# 定义schema,就像数据库建表的定义:数据模型,定义列名,类型和是否为能为空
schema = StructType([StructField("id", IntegerType(), True),
StructField("item", StringType(), True),
StructField("price", LongType(), True),
StructField("pub_date", DateType(), True)])
# 创建Spark DataFrame
spark_df= spark.createDataFrame(spark_rdd, schema)
# 创建一个零时表,用于映射到rdd上
spark_df.registerTempTable("iPhone")
# 使用Sql语句,语法完全跟sql一致
data = spark.sql("select a.item,a.price from iPhone a")
# 查看dataframe的数据
print(data.collect())
# 以表格形式展示数据
data.show()
输出:
[Row(item='iPhoneX', price=6000), Row(item='iPhone7', price=4000), Row(item='iPhone4', price=1000)]
+-------+-----+
| item|price|
+-------+-----+
|iPhoneX| 6000|
|iPhone7| 4000|
|iPhone4| 1000|
+-------+-----+
通过该例子,可了解df基本用法,只要从spark上下文加载完数据并转为dataframe类型后,之后调用df的api跟pandas的api大同小异,而且可将dataframe转为Spark SQL,直接使用sql语句操作数据。
上面的例子用了显示定义schema字段类型,pyspark支持自动推理创建df,也即无需原数据定义为rdd,和自动类型,直接传入Python列表的数据,以及定义字段名称即可:
a_list = [
(11, "iPhoneX",6000, datetime.date(2017,9,10)),
(12, "iPhone7",4000, datetime.date(2016,9,10)),
(13, "iPhone4",1000, datetime.date(2006,6,8))]
# 自动推理创建df,代码内部通过各类if 判断类型实现。
spark_df= spark.createDataFrame(a_list, schema=['id','item','price','pub_date'])
2.2 从各类数据源创建Spark DataFrame
相关接口方法参考官网文档
从csv文件创建Spark DataFrame
file = '/opt/spark/data/train.csv'
df = spark.read.csv(file,header=True,inferSchema=True)
从pandas的DataFrame创建Spark DataFrame
pandas_df = pd.DataFrame(np.random.random((4, 4)))
spark_df = spark.createDataFrame(pandas_df, schema=['a', 'b', 'c', 'd'])
从json创建Spark DataFrame,json文件可以通过远程拉取,或者本地json,并设定json的字段schema
json_df = spark.read.json('/opt/data/all-world-cup-players.json')
从各类数据库加载数据:
pg数据库,使用option属性传入参数:
spark_df = spark.read \
.format("jdbc") \
.option("url", "jdbc:postgresql:dbserver") \
.option("dbtable", "schema.tablename") \
.option("user", "username") \
.option("password", "password") \
.load()
pg数据库,用关键字参数传入连接参数:
spark_df=spark.read.format('jdbc').options(
url='jdbc:postgresql://localhost:5432/',
dbtable='db_name.table_name',
user='test',
password='test'
).load()
mysql数据库,用关键字参数传入连接参数:
spark_df=spark.read.format('jdbc').options(
url='jdbc:mysql://localhost:3306/db_name',
dbtable='table_name',
user='test',
password='test'
).load()
从hive里面读取数据
# 如果在SparkSession设置为连接hive,可以直接读取hive数据
spark = SparkSession \
.builder \
.enableHiveSupport() \
.master("localhost:7077") \
.appName("spark_hive") \
.getOrCreate()
spark_df=spark.sql("select * from hive_app_table")
spark_df.show()
连接数据库需要相关的jar包,例如连接mysql,则需要将mysql-connector放在spark目录的jar目录下。
2.3 Spark DataFrame持久化数据
以csv存储
spark_df.write.csv(path=local_file_path, header=True, sep=",", mode='overwrite')
注意:mode=‘overwrite’ 模式时,表示创建新表,若表名已存在则会被删除,整个表被重写。而 mode=‘append’ 模式就是普通的最加数据。
写入mysql:
url = 'jdbc:mysql://localhost:3306/db_name?characterEncoding=utf-8&autoReconnect=true&useSSL=false&serverTimezone=GMT'
table = 'table_name'
properties = {"user":"test","password":"test"}
spark_df.write.jdbc(url,table,mode='append',properties=properties)
写入hive
# 打开动态分区
spark.sql("set hive.exec.dynamic.partition.mode = nonstrict")
spark.sql("set hive.exec.dynamic.partition=true")
#指定分区写入表
spark_df.write.mode("append").partitionBy("name").insertInto("your_db.table_name")
# 不使用分区,直接将数据保存到Hive新表
spark_df.write.mode("append").saveAsTable("your_db.table_name")
# 查看数据
spark.sql("select * from your_db.table_name").show()
默认的方式将会在hive分区表中保存大量的小文件,在保存之前对 DataFrame重新分区,从而控制保存的文件数量。
spark_df.repartition(5).write.mode("append").saveAsTable("your_db.table_name")
写入redis:
这里需要自行实现redis的写入方法,其实也简单,定义入参为dataframe,函数内部连接redis后,从dataframe取出数据再将其插入redis即可。对于写入其他文件或者数据库,需自行实现相应的数据转存逻辑。
2.4 Dataframe常见的API
查看字段
spark_df.columns
# ['ratings', 'age', 'experience', 'family', 'mobile']
spark_df.count() 统计行数
查看df的shape
print((df.count(),len(df.columns))) # (33, 5)
查看dataframe的schema字段定义
spark_df.printSchema()
输出:
root
|-- ratings: integer (nullable = true)
|-- age: integer (nullable = true)
|-- experience: double (nullable = true)
|-- family: integer (nullable = true)
|-- mobile: string (nullable = true)
随机抽样探索数据集合:
spark_df.sample(False,0.5,0).show(5)
用法:
Signature: spark_df.sample(withReplacement=None, fraction=None, seed=None)
Docstring:
Returns a sampled subset of this :class:`DataFrame`.
:param withReplacement: Sample with replacement or not (default False).
:param fraction: Fraction of rows to generate, range [0.0, 1.0].
:param seed: Seed for sampling (default a random seed).
查看行记录:
spark_df.show(3)
spark_df.head(3)
spark_df.take(3)
以python列表返回记录,list中每个元素是Row类
[Row(ratings=3, age=32, experience=9.0, family=3, mobile='Vivo', age_2=32),
Row(ratings=3, age=27, experience=13.0, family=3, mobile='Apple', age_2=27),
Row(ratings=4, age=22, experience=2.5, family=0, mobile='Samsung', age_2=22)]
查看null的行,可以传入isnull函数,也可以自定义lambda函数
from pyspark.sql.functions import isnull
spark_df = spark_df.filter(isnull("name"))
选择列数据:
spark_df.select('age','mobile').show(2)# select方法
扩展dataframe的列数:withColumn可以在原df上新增列数据
spark_df.withColumn("age_2",(spark_df["age"]))
注意该方式不会更新到原df,如需替换原df,则更新spark_df即可。
spark_df=spark_df.withColumn("age_2",(spark_df["age"]))
新增一列数据,并将新增的数据转为double类型,需要用到cast方法
from pyspark.sql.types import StringType,DoubleType,IntegerType
spark_df.withColumn('age_double',spark_df['age'].cast(DoubleType()))
根据条件查询df,使用filter方法
spark_df.filter(spark_df['mobile']=='Apple')
#筛选记录后,再选出指定的字段记录
spark_df.filter(df['mobile']=='Vivo').select('age','ratings','mobile')
选择mobile列值为‘Apple’的记录,多条件查询:
spark_df.filter(spark_df['mobile']=='Vivo').filter(spark_df['experience'] >10)
或者:
spark_df.filter((spark_df['mobile']=='Vivo')&(spark_df['experience'] >10))
distinct:
# 先用select取出要处理的字段,获取不同类型的mobile
spark_df.select('mobile').distinct()
# 统计不同类型mobile的数量
spark_df.select('mobile').distinct().count()
groupBy:
spark_df.groupBy('mobile').count().show(5,False)
# 输出
+-------+-----+
|mobile |count|
+-------+-----+
|MI |8 |
|Oppo |7 |
|Samsung|6 |
|Vivo |5 |
|Apple |7 |
+-------+-----+
groupBy之后,按统计字段进行降序排序
spark_df.groupBy('mobile').count().orderBy('count',ascending=False)
groupBy之后,按mobile分组,求出每个字段在该分组的均值
spark_df.groupBy('mobile').mean().show(2,False)
+------+-----------------+------------------+------------------+------------------+------------------+
|mobile|avg(ratings) |avg(age) |avg(experience) |avg(family) |avg(age_2) |
+------+-----------------+------------------+------------------+------------------+------------------+
|MI |3.5 |30.125 |10.1875 |1.375 |30.125 |
|Oppo |2.857142857142857|28.428571428571427|10.357142857142858|1.4285714285714286|28.428571428571427|
+------+-----------------+------------------+------------------+------------------+------------------+
only showing top 2 rows
同理还有spark_df.groupBy('mobile').sum()
、df.groupBy('mobile').max()
、df.groupBy('mobile').min()
等,或者用agg方法,然后传入相应的聚合函数
spark_df.groupBy('mobile').agg({'experience':'sum'})
等同于spark_df.groupBy('mobile').sum()
用户定义函数UDF:
用户定义函数一般用于对列或者对行的数据进行定制化处理,就sql语句中,价格为数字的字段,根据不同判断条件,给字段加上美元符号或者指定字符等
from pyspark.sql.functions import udf
def costom_func(brand):
if brand in ['Samsung','Apple']:
return 'High Price'
elif brand =='MI':
return 'Mid Price'
else:
return 'Low Price'
brand_udf=udf(costom_func,StringType())
spark_df.withColumn('price_range',brand_udf(spark_df['mobile'])).show(5,False) # 使用spark_df['mobile']或者使用spark_df.mobile都可以
+-------+---+----------+------+-------+-----+-----------+
|ratings|age|experience|family|mobile |age_2|price_range|
+-------+---+----------+------+-------+-----+-----------+
|3 |32 |9.0 |3 |Vivo |32 |Low Price |
|3 |27 |13.0 |3 |Apple |27 |High Price |
|4 |22 |2.5 |0 |Samsung|22 |High Price |
|4 |37 |16.5 |4 |Apple |37 |High Price |
|5 |27 |9.0 |1 |MI |27 |Mid Price |
+-------+---+----------+------+-------+-----+-----------+
only showing top 5 rows
# 使用lambda定义udf
age_udf = udf(lambda age: "young" if age <= 30 else "senior", StringType())
spark_df.withColumn("age_group", age_udf(df.age)).show(3,False)
输出:
+-------+---+----------+------+-------+-----+---------+
|ratings|age|experience|family|mobile |age_2|age_group|
+-------+---+----------+------+-------+-----+---------+
|3 |32 |9.0 |3 |Vivo |32 |senior |
|3 |27 |13.0 |3 |Apple |27 |young |
|4 |22 |2.5 |0 |Samsung|22 |young |
+-------+---+----------+------+-------+-----+---------+
only showing top 3 rows
删除重复记录:
# 重复的行,将被删除
spark_df=spark_df.dropDuplicates()
删除一列数据
df_new=spark_df.drop('mobile') # 删除多列 spark_df.drop('mobile','age')
3、Spark SQL
在第二部分内容给出了创建spark sql的方法,本章节给出更为详细的内容:这里重点介绍spark sql创建其上下文,完成相应的context设置后,剩下的就是熟悉的写SQL了。
第一种方式:将本地文件加载为dataframe
之后再使用createOrReplaceTempView方法转为SQL模式
,流程如下
用第2节内容的数据做演示:
spark_df=spark.read.csv('sample_data.csv',inferSchema=True,header=True)
spark_df.registerTempTable("phone_sales")
df1 = spark.sql("select age,family,mobile from phone_sales ")
df1.show(3)
+---+------+-------+
|age|family| mobile|
+---+------+-------+
| 32| 3| Vivo|
| 27| 3| Apple|
| 22| 0|Samsung|
+---+------+-------+
only showing top 3 rows
spark.sql用于传入sql语句,返回dataframe对象,故后续的数据处理将变得非常灵活,使用SQL确实能够降低数据处理门槛,再例如:
spark_df.groupBy('mobile').count().show(5,False)
等同于
your_sql=("select mobile,count(mobile) as count from phone_sales group by mobile "
df1 = spark.sql(your_sql)
如果df1集合较大,适合用迭代器方式输出记录(适合逐条处理的逻辑)
for each_record in df1.collect():
data_process(each_record)
第二种方式:直接连接诸如mysql或者hive的context,基于该context直接运行sql
以mysql为例:
(1)配置mysql连接需要相关jar包和路径配置:
mysql-connector-java-5.1.48.jar 放入spark目录/opt/spark-2.4.4-bin-hadoop2.7/jars/
目录下, mysql-connector包可在mysql自行下载。
在spark-env.sh 配置了EXTRA_SPARK_CLASSPATH=/opt/spark-2.4.4-bin-hadoop2.7/jars/(也可不配,spark按默认目录检索)
(2)连接mysql
from pyspark.sql import SparkSession
spark=SparkSession.builder.master("local").appName('spark_dataframe').getOrCreate()
连接数据库以及读取表
apps_name_df=spark.read.format('jdbc').
options(
url='jdbc:mysql://192.168.142.5:3306/',
dbtable='erp_app.apps_name',
user='root',
password='bar_bar'
).load()
read方法详细使用可参考:spark.read.format
pirnt(apps_name_df)
# DataFrame[id: int, app_log_name: string, log_path: string, log_date: timestamp]
apps_name_df.show(5)
+---+-------------+-------------------+-------------------+
| id| app_log_name| log_path| log_date|
+---+-------------+-------------------+-------------------+
| 1|BI-Access-Log|/opt/data/apps_log/|*******************|
| 3|BI-Access-Log|/opt/data/apps_log/|*******************|
| 5|BI-Access-Log|/opt/data/apps_log/|*******************|
| 7|BI-Access-Log|/opt/data/apps_log/|*******************|
| 9|BI-Access-Log|/opt/data/apps_log/|*******************|
+---+-------------+-------------------+-------------------+
only showing top 5 rows
上述连接mysql的erp_app后,直接读取apps_name全部字段的数据,如果想在连接时,指定sql,则需按以下方式进行
spark_df=spark.read.format('jdbc').options(url='jdbc:mysql://192.168.142.5:3306/erp_app',
dbtable='(select id,app_log_name,log_path from apps_name) as temp',
user='root',
password='bar_bar'
).load()
dbtable这个值可以为一条sql语句,而且格式必须为:
dbtable='(select id,app_log_name,log_path from apps_name) as temp'
如果写成以下格式,则提示解析出错。
dbtable='select id,app_log_name,log_path from apps_name'
4、Spark Streaming
以上在介绍dataframe和spark sql的相关用法,都用离线数据进行测试,本章节将给出spark的核心组件之一:spark streaming:实时流式计算(微批处理),该功能将应用于本bg其他项目。有关流式计算的相关概念,可以查看相关参考资料,这里不再累赘。此外,本bg也将给出一篇关于spark streaming的深度解析文章。
实时计算TCP端口的数据
这里先已一个简单demo介绍pyspark实现streaming的流程:
在输出端,使用netcat打开一个7070端口,手动持续向netcat shell输入句子;
在实时计算端:streaming连接7070端口,并实时计算word count,并将统计结果实时打印。
from pyspark import SparkContext
from pyspark.streaming import StreamingContext
# 创建本地的streaming context,并指定4个worker线程
sc = SparkContext("local[4]", "streaming wordcount test")
sc.setLogLevel("WARN") # 减少spark自生成的日志打印
# 每批处理间隔为1秒
ssc = StreamingContext(sc, 1)
# 连接netcat的tcp端口,用于读取netcat持续输入的行字符串
lines = ssc.socketTextStream("192.100.0.10", 7070)
socketTextStream创建的对象称为:Discretized Streams(离散流) ,简称 DStream,是spark的核心概念
# 统计word的逻辑,这段代码再熟悉不过了。
words = lines.flatMap(lambda line: line.split(" "))
pairs = words.map(lambda word: (word, 1))
wordCounts = pairs.reduceByKey(lambda value_1, value_2: value_1 + value_2)
wordCounts.pprint() # 这里wordCounts是'TransformedDStream' object,不再是普通的离线rdd
启动流计算,并一直等到外部中断程序(相当于线程里面的jion)
ssc.start()
ssc.awaitTermination(timeout=None) # 默认无timeout,程序会一直阻塞在这里
启动后,如果你使用jupyter开发,可以看到notebook的cell每隔1秒打印一次
......
-------------------------------------------
Time: *** 16:14:50
-------------------------------------------
-------------------------------------------
Time: *** 16:14:51
-------------------------------------------
......
在netstat shell输入字符串
[root@localhost ~]# nc -l 7070
this is spark streaming
streaming wordcount is awesome
再查看notebook的cell的的实时打印出了wordcount统计结果
-------------------------------------------
Time: *** 16:14:54
-------------------------------------------
('spark', 1)
('this', 1)
('is', 1)
('streaming', 1)
-------------------------------------------
Time: *** 16:14:54
-------------------------------------------
......
-------------------------------------------
Time: *** 16:14:58
-------------------------------------------
('streaming', 1)
('is', 1)
('wordcount', 1)
('awesome', 1)
以上实现了一个完整的实时流计算,虽然该streaming的demo较为简单,但却给了大家非常直观的流计算处理设计思路,只需改造相关逻辑,即可满足符合自己业务的需求,在这里给出一个可行的设计:
(1)实时数据源替换为Kafka等组件:启动一个进程,用于运行streaming。streaming的实时数据源来自kafka的topic
(2)定制MapReduce的计算逻辑,用于实时预处理流数据
(3)将(2)的实时结果保存到redis的list上
(4)启动另外一个进程,从结果队列里面取出并存到Hbase集群或者hdfs
或者无需使用队列,Spark Streaming实时预处理后直接写入Hbase。
来源:CSDN
作者:911__init__
链接:https://blog.csdn.net/pysense/article/details/103978811