Pandas的几个小技巧
一、读取时抽样 1%
对于动辄就几十或几百个 G 的数据,在读取这么大数据时,有没有办法随机选取一小部分数据,然后读入内存,快速了解数据和开展 EDA ?
使用 Pandas 的 skiprows 和 概率知识,就能做到。
下面解释具体怎么做。
如下所示,读取某 100 G 大小的 big_data.csv 数据
1. 使用 skiprows 参数,
2. x > 0 确保首行读入,
3. np.random.rand() > 0.01 表示 99% 的数据都会被随机过滤掉,言外之意,只有全部数据的 1% 才有机会选入内存中。
import pandas as pd
import numpy as np
df = pd.read_csv("big_data.csv",
skiprows = lambda x: x>0and
np.random.rand() > 0.01)
print("The shape of the df is {}.
It has been reduced 100 times!".format(df.shape))
使用这种方法,读取的数据量迅速缩减到原来的 1% ,对于迅速展开数据分析有一定的帮助。
二、replace 做清洗
Pandas 的强项在于数据分析,自然就少不了对数据清洗的支持。
今天学习一个快速清洗数据的小技巧,在某列上使用 replace 方法和正则,快速完成值的清洗。
源数据:
d = {"customer": ["A", "B", "C", "D"],
"sales":[1100, "950.5RMB", "$400", " $1250.75"]}
df = pd.DataFrame(d)
df
打印结果:
看到 sales 列的值,有整型,浮点型+RMB后变为字符串型,还有+浮点型。
我们的目标:清洗掉 RMB
,$
符号,转化这一列为浮点型。
一行代码搞定:
df["sales"] = df["sales"].replace("[$,RMB]", "", regex = True).astype("float")
使用正则替换,将要替换的字符放到列表中 [$,RMB]
,替换为空字符,即 ""
;
最后使用 astype
转为 float
打印结果:
三、宽 DF 变长
为什么需要宽 DF 变长 ?
构造一个 DataFrame:
d = {
"district_code": [12345, 56789, 101112, 131415],
"apple": [5.2, 2.4, 4.2, 3.6],
"banana": [3.5, 1.9, 4.0, 2.3],
"orange": [8.0, 7.5, 6.4, 3.9]
}
df = pd.DataFrame(d)
df
打印结果:
5.2
表示 12345
区域的 apple
价格,并且 apple
, banana
, orange
,这三列都是水果的种类,那么如何把这三列合并为一列?
使用 pd.melt
df = df.melt(
id_vars = "district_code",
var_name = "fruit_name",
value_name = "price")
df
打印结果:
以上就是长 DataFrame,对应的原 DataFrame 是宽 DF.
四、转 datetime
year
和day of year
,怎么转 datetime
?
原 DataFrame
d = {
"year": [2019, 2019, 2020],
"day_of_year": [350, 365, 1]
}
df = pd.DataFrame(d)
df
打印结果:
转 datetime 的 trick。
Step 1: 创建整数
df["int_number"] = df["year"]*1000 + df["day_of_year"]
df
打印结果:
Step 2: to_datetime
df["date"] = pd.to_datetime(df["int_number"], format = "%Y%j")
df
注意 "%Y%j" 中转化格式 j
打印结果:
五、ACCESSOR
pandas有一种功能非常强大的方法,它就是accessor,可以将它理解为一种属性接口,通过它可以获得额外的方法。其实这样说还是很笼统,下面我们通过代码和实例来理解一下。
>>> pd.Series._accessors
{'cat', 'str', 'dt'}
对于Series数据结构使用_accessors方法,可以得到了3个对象:cat,str,dt。
- .cat:用于分类数据(Categorical data)
- .str:用于字符数据(String Object data)
- .dt:用于时间数据(datetime-like data)
下面我们依次看一下这三个对象是如何使用的。
str对象的使用
Series数据类型:str字符串
# 定义一个Series序列
addr = pd.Series([
'Washington, D.C. 20003',
'Brooklyn, NY 11211-1755',
'Omaha, NE 68154',
'Pittsburgh, PA 15211'
])
addr.str.upper()
addr.str.count(r'\d')
关于以上str对象的2个方法说明:
- Series.str.upper:将Series中所有字符串变为大写
- Series.str.count:对Series中所有字符串的个数进行计数
其实不难发现,该用法的使用与Python中字符串的操作很相似。没错,在pandas中你一样可以这样简单的操作,而不同的是你操作的是一整列的字符串数据。仍然基于以上数据集,再看它的另一个操作:
regex = (r'(?P<city>[A-Za-z ]+), ' # 一个或更多字母
r'(?P<state>[A-Z]{2}) ' # 两个大写字母
r'(?P<zip>\d{5}(?:-\d{4})?)') # 可选的4个延伸数字
addr.str.replace('.', '').str.extract(regex)
关于以上str对象的2个方法说明:
- Series.str.replace:将Series中指定字符串替换
- Series.str.extract:通过正则表达式提取字符串中的数据信息
这个用法就有点复杂了,因为很明显看到,这是一个链式的用法。通过replace
将" . "
替换为""
,即为空,紧接着又使用了3个正则表达式(分别对应city,state,zip)通过extract
对数据进行了提取,并由原来的Series数据结构变为了DataFrame数据结构。
当然,除了以上用法外,常用的属性和方法还有.rstrip
,.contains
,split
等,我们通过下面代码查看一下str属性的完整列表:
>>> [i for i in dir(pd.Series.str) if not i.startswith('_')]
['capitalize',
'cat',
'center',
'contains',
'count',
'decode',
'encode',
'endswith',
'extract',
'extractall',
'find',
'findall',
'get',
'get_dummies',
'index',
'isalnum',
'isalpha',
'isdecimal',
'isdigit',
'islower',
'isnumeric',
'isspace',
'istitle',
'isupper',
'join',
'len',
'ljust',
'lower',
'lstrip',
'match',
'normalize',
'pad',
'partition',
'repeat',
'replace',
'rfind',
'rindex',
'rjust',
'rpartition',
'rsplit',
'rstrip',
'slice',
'slice_replace',
'split',
'startswith',
'strip',
'swapcase',
'title',
'translate',
'upper',
'wrap',
'zfill']
属性有很多,对于具体的用法,如果感兴趣可以自己进行摸索练习。
dt对象的使用
Series数据类型:datetime
因为数据需要datetime类型,所以下面使用pandas的date_range()生成了一组日期datetime演示如何进行dt对象操作。
daterng = pd.Series(pd.date_range('2017', periods=9, freq='Q'))
daterng
daterng.dt.day_name()
# 查看下半年
daterng[daterng.dt.quarter > 2]
daterng[daterng.dt.is_year_end]
以上关于dt的3种方法说明:
- Series.dt.day_name():从日期判断出所处星期数
- Series.dt.quarter:从日期判断所处季节
- Series.dt.is_year_end:从日期判断是否处在年底
其它方法也都是基于datetime的一些变换,并通过变换来查看具体微观或者宏观日期。
cat对象的使用
Series数据类型:Category
在说cat对象的使用前,先说一下Category这个数据类型,它的作用很强大。虽然我们没有经常性的在内存中运行上g的数据,但是我们也总会遇到执行几行代码会等待很久的情况。使用Category数据的一个好处就是:可以很好的节省在时间和空间的消耗。
下面我们通过几个实例来学习一下。
colors = pd.Series([
'periwinkle',
'mint green',
'burnt orange',
'periwinkle',
'burnt orange',
'rose',
'rose',
'mint green',
'rose',
'navy'
])
colors
import sys
colors.apply(sys.getsizeof)
上面我们通过使用sys.getsizeof
来显示内存占用的情况,数字代表字节数。还有另一种计算内容占用的方法:memory_usage()
,后面会使用。
现在我们将上面colors的不重复值映射为一组整数,然后再看一下占用的内存。
mapper = {v: k for k, v in enumerate(colors.unique())}
mapper
as_int = colors.map(mapper)
as_int
as_int.apply(sys.getsizeof)
注:对于以上的整数值映射也可以使用更简单的pd.factorize()
方法代替。
我们发现上面所占用的内存是使用object类型时的一半。其实,这种情况就类似于Category data类型内部的原理。
内存占用区别:Categorical所占用的内存与Categorical分类的数量和数据的长度成正比,相反,object所占用的内存则是一个常数乘以数据的长度。
下面是object内存使用和category内存使用的情况对比。
colors.memory_usage(index=False, deep=True)
650
colors.astype('category').memory_usage(index=False, deep=True)
495
上面结果是使用object和Category两种情况下内存的占用情况。我们发现效果并没有我们想象中的那么好。但是注意Category内存是成比例的,如果数据集的数据量很大,但不重复分类(unique)值很少的情况下,那么Category的内存占用可以节省达到10倍以上
,比如下面数据量增大的情况:
manycolors = colors.repeat(10)
len(manycolors) / manycolors.nunique()
20.0
manycolors.memory_usage(index=False, deep=True)
6500
manycolors.astype('category').memory_usage(index=False, deep=True)
585
可以看到,在数据量增加10倍以后,使用Category所占内容节省了10倍以上。
除了占用内存节省外,另一个额外的好处是计算效率有了很大的提升。
因为对于Category类型的Series,str字符的操作发生在.cat.categories的非重复值上,而并非原Series上的所有元素上。也就是说对于每个非重复值都只做一次操作,然后再向与非重复值同类的值映射过去。
对于Category的数据类型,可以使用accessor的cat对象,以及相应的属性和方法来操作Category数据。
>>> ccolors = colors.astype('category')
>>> ccolors.cat.categories
Index(['burnt orange', 'mint green', 'navy', 'periwinkle', 'rose'], dtype='object')
实际上,对于开始的整数类型映射,可以先通过reorder_categories进行重新排序,然后再使用cat.codes来实现对整数的映射,来达到同样的效果。
ccolors.cat.reorder_categories(mapper).cat.codes
dtype类型是Numpy的int8(-127~128)。可以看出以上只需要一个单字节就可以在内存中包含所有的值。我们开始的做法默认使用了int64类型,然而通过pandas的使用可以很智能的将Category数据类型变为最小的类型。
让我们来看一下cat还有什么其它的属性和方法可以使用。下面cat的这些属性基本都是关于查看和操作Category数据类型的。
[i for i in dir(ccolors.cat) if not i.startswith('_')]
但是Category数据的使用不是很灵活。例如,插入一个之前没有的值,首先需要将这个值添加到.categories的容器中,然后再添加值。
ccolors.iloc[5] = 'a new color'
# ...
ValueError: Cannot setitem on a Categorical with a new category,
set the categories first
ccolors = ccolors.cat.add_categories(['a new color'])
ccolors.iloc[5] = 'a new color'
如果你想设置值或重塑数据,而非进行新的运算操作,那么Category类型不是那么有用。
六、从clipboard剪切板载入数据
当我们的数据存在excel表里,或者其它的IDE编辑器中的时候,我们想要通过pandas载入数据。我们通常的做法是先保存再载入,其实这样做起来十分繁琐。一个简单的方法就是使用pd.read_clipboard()
直接从电脑的剪切板缓存区中提取数据。
这样我们就可以直接将结构数据转变为DataFrame或者Series了。excel表中数据是这样的:
在纯文本文件中,比如txt文件,是这样的:
a b c d
0 1 inf 1/1/00
2 7.389056099 N/A 5-Jan-13
4 54.59815003 nan 7/24/18
6 403.4287935 None NaT
将上面excel或者txt中的数据选中然后复制,然后使用pandas的read_clipboard()即可完成到DataFrame的转换。parse_dates参数设置为 "d",可以自动识别日期,并调整为xxxx-xx-xx的格式。
df = pd.read_clipboard(na_values=[None], parse_dates=['d'])
df
df.dtypes
七、将pandas对象转换为“压缩”格式
在pandas中,我们可以直接将objects打包成为 gzip, bz2, zip, or xz 等压缩格式,而不必将没压缩的文件放在内存中然后进行转化。来看一个例子如何使用:
abalone = pd.read_csv('ticdata.csv', usecols=[0, 1, 2, 3, 4, 8], names=['STYPE','MAANTHUI','MGEMOMV','MGEMLEEF','MOSHOOFD','MGODGE'])
abalone
导入文件,读取并存为abalone(DataFrame结构)。当我们要存为压缩的时候,简单的使用 to_json() 即可轻松完成转化过程。下面通过设置相应参数将abalone存为了.gz格式的压缩文件。
abalone.to_json('df.json.gz', orient='records',
lines=True, compression='gzip')
如果我们想知道储存压缩文件的大小,可以通过内置模块os.path,使用getsize方法来查看文件的字节数。下面是两种格式储存文件的大小对比
import os.path
abalone.to_json('df.json', orient='records', lines=True)
os.path.getsize('df.json') / os.path.getsize('df.json.gz')
28.130834948035936
八、使用"测试模块"制作伪数据
在pandas中,有一个测试模块可以帮助我们生成半真实(伪数据),并进行测试,它就是util.testing。下面同我们通过一个简单的例子看一下如何生成数据测试:
import pandas.util.testing as tm
tm.N, tm.K = 15, 3 # 默认的行和列
import numpy as np
np.random.seed(444)
tm.makeTimeDataFrame(freq='M').head()
tm.makeDataFrame().head()
上面简单的使用了makeTimeDataFrame 和 makeDataFrame 分别生成了一组时间数据和DataFrame的数据。但这只是其中的两个用法,关于testing中的方法有大概30多个,如果你想全部了解,可以通过查看dir获得:
[i for i in dir(tm) if i.startswith('make')]
九、从列项中创建DatetimeIndex
也许我们有的时候会遇到这样的情形(为了说明这种情情况,我使用了product进行交叉迭代的创建了一组关于时间的数据):
from itertools import product
datecols = ['year', 'month', 'day']
df = pd.DataFrame(list(product([2017, 2016], [1, 2], [1, 2, 3])),
columns=datecols)
df['data'] = np.random.randn(len(df))
df
明显看到,列项中有year,month,day,它们分别在各个列中,而并非是一个完整日期。那么如何从这些列中将它们组合在一起并设置为新的index呢?
通过to_datetime的使用,我们就可以直接将年月日组合为一个完整的日期,然后赋给索引。代码如下:
df.index = pd.to_datetime(df[datecols])
df.head()
当然,你可以选择将原有的年月日列移除,只保留data数据列,然后squeeze转换为Series结构。
df = df.drop(datecols, axis=1).squeeze()
df.head()
df.index.dtype_str
'datetime64[ns]
十、 Pandas 巧用 str.split
和 str.cat
因为以上两个方法,直接按列操作,所以省掉一层 for 循环,下面直接看例子。
df = pd.DataFrame({'names':["Geordi La Forge", "Deanna Troi", "Jack"],'IDs':[1,2,3]})
df
列分割
对 names
列,按照第一个空格分割为两列:
df["first_name"] = df["names"].str.split(n = 1).str[0]
df["last_name"] = df["names"].str.split(n = 1).str[1]
df
结果如下:
十一、 列合并方法
方法一、分割列搞定,接下来再合并回去,使用 cat
方法:
df["names_copy"] = df["first_name"].str.cat(df["last_name"], sep = " ")df
合并两列得到一个新列 names_copy
搞定!
列合并方法二、还有别的合并方法吗,直接使用 +
连接字符串:
df["names_copy2"] = df["first_name"] + " "+ df["last_name"]
df
效果是一样的:*
十二、Pandas 多条件筛选可读性较好的写法
有特征上百个,根据多个特征筛选 DataFrame 时,如果这么做,可读性不太友好:
df[(df["continent"] == "Europe") & (df["beer_servings"] > 150) & (df["wine_servings"] > 50) & (df["spirit_servings"] < 60)]
连续多个筛选条件写到一行里。
更好可读性的写法
cr1 = df["continent"] == "Europe"
cr2 = df["beer_servings"] > 150
cr3 = df["wine_servings"] > 50
cr4 = df["spirit_servings"] < 60
df[cr1 & cr2 & cr3 & cr4]
十三、 df.query 过滤数据
0.25 版本开始支持 query
方法,可读性上又获得大幅提升,类似 sql 查询数据的写法,更加人性化。
下面举例说明,过滤数据常用三种方法。
df = pd.DataFrame({'A':np.random.randint(1,20,(8,)),
'B':np.random.randint(1,20,(8,)),
'C':np.random.randint(1,20,(8,))})
df
过滤条件:A列值大于其平均值,且 B列值大于 5 的行
方法 1
df[ (df['A'] > df["A"].mean()) & (df['B'] > 5)]
注意,&
前后必须要各自加一对 ()
方法 2
cr1 = df['A'] > df["A"].mean()
cr2 = df['B'] > 5
df[cr1 & cr2]
方法 3
mean = df["A"].mean()
df.query("A > @mean & B > 5")
query 是今天重点提到的,使用语法规则见上,变量前添加 @
。这种语法的可读性大家觉得怎么样?
顺便提一下,如果列的名称中间有空格,有一个特别的语法,使用一对 ``
符号来标记列名:
df = pd.DataFrame({'First Name':['Jack','Mary','Mike']})
df.query('`First Name` == \'Jack\'')
以上三种方法得到结果都为:
十四、快速找出最多的分类
首先读入数据:
df = pd.read_csv("IMDB-Movie-Data.csv")
df
1000 行数据,genre
取值的频次统计如下:
vc = df["genre"].value_counts()
vc
打印结果:
Action,Adventure,Sci-Fi 50
Drama 48
Comedy,Drama,Romance 35
Comedy 32
Drama,Romance 31
..
Adventure,Comedy,Fantasy 1
Biography,History,Thriller 1
Action,Horror 1
Mystery,Thriller,Western 1
Animation,Fantasy 1
Name: genre, Length: 207, dtype: int64
筛选出 top3 的 index:
top_genre = vc[0:3].index
print(top_genre)
打印结果:
Index(['Action,Adventure,Sci-Fi', 'Drama', 'Comedy,Drama,Romance'], dtype='object')
使用得到的 top3 的 index ,结合 isin
,选择出相应的 df
df_top = df[df["genre"].isin(top_genre)]
df_top
结果: