文章目录
一.数据清洗与准备
1.缺失值
NaN(np.nan): 对数值型数据,浮点值NaN(not a number)
NA(not available)
None 均为缺失值,通过data.isnull()检测,反方法:data.notnull()
过滤(删除缺失值)
newdata = data.dropna() 等价于 data[data.notnull()]
默认删除含有缺失值的整行
可选参数:
how=‘all’:当一行全是缺失值才删除该行,否则不删除
axis=1:删除列
thresh=n:保留含有n个观测值的行
补全
newdata = data.fillna(value) :将缺失值替换为value
为不同列的NA设置不同的填充值:传入字典data.fillna({列名:value,…})
常用可选参数(详见文档字符串):
inplace=True:修改原对象而不返回新对象;
method=:插值方法,(比如’ffill’:用前面的值填补后面所有的缺失值),
与limit=n搭配,设置前向或后向填充时最大填充范围;
axis=1:需要填充的轴
可以用数据的平均值或中位数填充NA:data.fillna(data.mean())
2.数据转换
去重
df.duplicated(): 是否有重复值,返回同大小的TF结构
newdata = df.drop_duplicates([‘col1’]):基于某些列删除重复值,默认保留第一条重复行
常用可选参数(详见文档字符串):
- 列名列表:基于某些列去重
- keep=‘last’:保留最后一条重复行
series的逐元素转换:map
se.map(映射:函数或字典):每个元素传入到函数或字典中进行转换
字典就是映射!字典就是映射!字典就是映射!
# 创建肉类的数据框
data = pd.DataFrame({'food':['bacon','beef','Bacon','nova lox'],'weight':[4,3,12,6]})
print(data)
# 添加一列表示每种食物的动物肉来源
# 创建一个食物与动物肉的映射关系
meat_to_animal = {'bacon':'pig','beef':'cow','nova lox':'salmon'} # 培根是猪肉...
# 先统一数据的大小写se.str.lower(),再逐一映射,下面两条语句等价:
data['animal'] = data['food'].str.lower().map(meat_to_animal) # 传入字典进行映射
data['animal'] = data['food'].map(lambda x: meat_to_animal[x.lower()]) # 传入函数进行映射
data
替换特定值replace
data.replace(old,new) : 将旧值替换为新值,df全表搜索
可以多对一,多对多,传入列表,按顺序对应,或者传入字典,例如:data.replace([old1,old2,…],[new1])
data.replace([old1,old2,…],[new1,new2,…])
data.replace({old1:new1,old2:new2,…})
重命名索引
- 对索引对象直接赋值:如data.index = range(len(data)),直接修改了原对象
- 更全的方法 : data.rename(index=map1,columns=map2,inplace=False)
映射包括函数与字典。
# 每个行索引值-4,截至时间列修改列名为date,直接修改原对象
data.rename(index=lambda x:x-4,
columns={'截至时间(24h)':'date'},
inplace=True)
如果传入的不是映射,是直接的数据,会报错:xxx object is not callable.不可调用
分组,划分区间
连续值的离散化,返回Categorical对象,包含了类别标识和标签
cgc = pd.cut(x=data,bins=分点列表或分组个数)
cgc = pd.qcut(data,bins=分位数列表或分位数个数)
常用可选参数(详见文档字符串):
right=True: 区间默认左开右闭,False变为左闭右开
labels=None: 自定义分组名,传入列表或者数组
precision=3:小数位数
随机抽样
newdata = data.sample(n,replace=True) : 默认无放回随机抽样,抽n个
replace=False:有放回
随机重排序
a = np.random.permutation(n) : 将0~n-1重排序
newdata = df.take(a) or df.iloc(a) # 将顺序应用于索引即为重排序
哑变量
newdata = pd.get_dummies(df[‘col1’]) :将df的一列因子型(字符或Categorical对象)设置为多个哑变量,变成多列01,因子有n个水平则变为n列。
可选参数
prefix=‘a’:为新生成的列名加上前缀’a’以区分
例如:对数据分组后设为哑变量:pd.get_dummies(pd.cut(data,bins))
3.字符串操作
内建字符串方法
方法 | 描述 |
---|---|
string.split(分隔符) | 拆分分隔字符串 |
.strip() | 去除字符串两端空格及换行符 |
.rstrip()/.lstrip() | 去除字符串右端或左端空白 |
分隔符.join(字符串列表或元组) | 以连接符连接各字符串 |
.count(子串) | 子串出现的次数 |
.replace(old,new) | 将字符串中的old替换为new,常用于传入空串来实现删除效果 |
.endswith(后缀)/.startwith(前缀) | 字符串是否以后缀结尾或前缀开头 |
.lower()/.upper() | 大小写转换 |
子串 in 字符串 | 字符串中是否含有某子串 |
.index(子串)/.find(子串) | 字符串中是否含有某子串,返回第一次出现的头位置,index找不到报错,find返回-1 |
string = 'a,b, guido '
l = [x.strip() for x in string.split(',')] # ['a', 'b', 'guido']
':'.join(l) # 'a:b:guido'
向量化字符串函数
1.Series.str属性:就是把每个元素作为字符串去逐元素应用字符串的方法
se.str.contains(string or regex) :每个元素是否包含string或正则表达式
通过se.str属性可以调用任意正则表达式的方法应用于每一个元素,se.str就是将se变为每一个元素都是str,然后逐元素应用正则表达式。
data['food'].str.findall(regex) # 对每个元素查找匹配项
data['food'].str.get(0) # 得到每个元素的第一个字符
data['food'].str[:2] # 对每个元素进行统一切片
所有内建字符串方法都可以通过se.str.内建方法()对每个元素统一应用。具体方法详见P215。
二.数据合并与重塑
1. 数据库风格的DataFrame连接
pd.merge(df1,df2,on=,how= ) :不管内外连接,只要多对一,少的都自动重复
可选参数:
- on=: 按哪个列连接,两个df的列名需要一样,否则指定
left_on=: (df1),right_on=:(df2)- how=: ‘outer’:外连接,两个df的键的并集,没有就引入NA,使用dropna后结果就是内连接
‘inner’:内连接,键的交集
‘left’:按照左边df1的键进行连接
‘right’:按照右边df2的键进行连接- suffixes:重叠的列名后面加上后缀以示区分
- sort=True:默认排序,大数据集上可禁用该功能以获得更好的性能
- indicator:添加一列_merge,指示每一行的来源
按行索引合并,等同于几个数据框横向拼接,默认多去少补NA
df1.join(df2,how=‘inner’):
df1.join([df2,df3,…],how=)
2. 轴向拼接
对NumPy数组:
np.concatnate([arr1,arr2],axis=)
对df:
pd.concat([data1,data2],axis=0,join=‘outer’) 按行纵向拼接,默认索引并集
可选参数:
ignore_index:True:忽略索引直接拼,顺着产生新索引
3. 重塑和透视
1.有关多重索引
newdata = data.stack() 所有列变成一列因子型,列名是因子,df变成多重索引的se.
data = newdata.unstack() 还原
长数据(冗余数据)透视为宽数据(正常数据)
长格式:列少,列有冗余,主键多于一个,共同决定一行
newdata = pivot(‘col1’,‘col2’,‘col3’)
col1:该列的值作为行索引,成为唯一主键
col2:该列是因子型,因子的水平成为新列
col3:可选的数字列填充
等价于先用set_index创建分层索引,然后调用unstack
newdata = data.set_index([‘col1’,‘col2’]).unstack(‘col3’)
宽透视为长
反操作,将多列合成一列,长度更长,产生冗余
df = pd.DataFrame({'key':['foo','bar','baz'],
'a':[1,2,3],
'b':[4,5,6],
'c':[7,8,9]})
df
melted = pd.melt(df,id_vars=['key']) # 必须指明分组指标id_vars,是主键的第一部分,是不变的列
melted # variable是新产生的列,是主键的第二部分
还原
data = melted.pivot('key','variable','value')
data
由于key并不是原来的索引,所以将数据回移一列
data.reset_index()
三.数据聚合与分组-groupby-详见第10章
来源:CSDN
作者:wbing96
链接:https://blog.csdn.net/wbing96/article/details/104473664