目录
Pandas是一个开源的Python库,主要用于数据分析、数据处理、数据可视化。
Pandas作为Python数据分析的核心包,提供了大量的数据分析函数,包括数据处理、数据抽取、数据集成、数据计算等基本的数据分析手段。
Pandas的名称来自于面板数据(panel data)和python数据分析(data analysis)的简称。
千万记得Pandas不是咱们的国宝大熊猫的复数形式!!!(尽管这一强调极有可能适得其反,但还是忍不住贴一张panda的图)
Pandas 有两种自己独有的基本数据结构。需要注意的是,它固然有着两种数据结构,因为它依然是 Python 的一个库,所以 Python 中有的数据类型在这里依然适用。我们分别看一下这两种数据结构:
Series:一维数组。该结构能够放置各种数据类型,比如字符、整数、浮点数等
我们先引入pandas包,这里有一个约定成俗的写法import pandas as pd
将pandas引入,并命其别名为pd
接着将列表[2,3,5,7,11]
放到pd.Series()里面
import pandas as pd
s = pd.Series([2,3,5,7,11],name = 'A')
s
0 2
1 3
2 5
3 7
4 11
Name: A, dtype: int64
Time- Series:以时间为索引的Series
同样的,将列['2024-01-01 00:00:00', '2024-01-01 03:00:00','2024-01-01 06:00:00']
放到pd.DatetimeIndex()里面
dts1 = pd.DatetimeIndex(['2024-01-01 00:00:00', '2024-01-01 03:00:00','2024-01-01 06:00:00'])
dts1
DatetimeIndex(['2024-01-01 00:00:00', '2024-01-01 03:00:00',
'2024-01-01 06:00:00'],
dtype='datetime64[ns]', freq=None)
还有另外一种写法pd.date_range
可以按一定的频率生成时间序列
dts2 = pd.date_range(start='2024-01-01', periods=6, freq='3H')
dts2
DatetimeIndex(['2024-01-01 00:00:00', '2024-01-01 03:00:00',
'2024-01-01 06:00:00', '2024-01-01 09:00:00',
'2024-01-01 12:00:00', '2024-01-01 15:00:00'],
dtype='datetime64[ns]', freq='3H')
dts3 = pd.date_range('2024-01-01', periods=6, freq='d')
dts3
DatetimeIndex(['2024-01-01', '2024-01-02', '2024-01-03', '2024-01-04',
'2024-01-05', '2024-01-06'],
dtype='datetime64[ns]', freq='D')
DataFrame:二维的表格型数据结构,可以理解为Series的容器,通俗地说,就是可以把Series放到DataFrame里面。
它是一种二维表格型数据的结构,既有行索引,也有列索引。行索引是 index,列索引是 columns。类似于初中数学里,在二维平面里用坐标轴来定位平面中的点。
注意,DataFrame又是Pandas的核心!接下来的内容基本上以DataFrame为主
先来看看如何创建DataFrame,上面说过Series也好,DataFrame也罢,本质上都是容器。
千万别被”容器“这个词吓住了,通俗来说,就是里面可以放东西的东西。
从字典创建DataFrame
相当于给里面放dict:先创建一个字典d
,再把d
放进了DataFrame
里命名为df
d = {'A': [1, 2, 3],
'B': [4, 5, 6],
'C': [7, 8, 9]}
df = pd.DataFrame(data = d)
df
A | B | C | |
---|---|---|---|
0 | 1 | 4 | 7 |
1 | 2 | 5 | 8 |
2 | 3 | 6 | 9 |
从列表创建DataFrame
先创建了一个列表d
,再把d
放进了DataFrame
里命名为df1
d = [[4, 7, 10],[5, 8, 11],[6, 9, 12]]
df1 = pd.DataFrame(
data = d,
index=['a', 'b', 'c'],
columns=['A', 'B', 'C'])
df1
A | B | C | |
---|---|---|---|
a | 4 | 7 | 10 |
b | 5 | 8 | 11 |
c | 6 | 9 | 12 |
从数组创建DataFrame
数组(array)对你来说可能是一个新概念,在Python里面,创建数组需要引入一个类似于Pandas的库,叫做Numpy。与前面引入Pandas类似,我们用 import numpy as np
来引入numpy,命其别名为np。
同样的,先创建一个数组d
,再把d
放进了DataFrame
里命名为df2
import numpy as np
d = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
df2 = pd.DataFrame(data = d,
index=['a', 'b', 'c'],
columns=['A', 'B', 'C'])
df2
A | B | C | |
---|---|---|---|
a | 1 | 2 | 3 |
b | 4 | 5 | 6 |
c | 7 | 8 | 9 |
以上,我们用了不同的方式来创建DataFrame,接下来,我们看看创建好后,如何查看数据
这里我们创建一个DataFrame
命名为df
:
import numpy as np
import pandas as pd
d = np.array([[81, 28, 24, 25, 96],
[ 8, 35, 56, 98, 39],
[13, 39, 55, 36, 3],
[70, 54, 69, 48, 12],
[63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
columns=list('abcde'))
df
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
1 | 8 | 35 | 56 | 98 | 39 |
2 | 13 | 39 | 55 | 36 | 3 |
3 | 70 | 54 | 69 | 48 | 12 |
4 | 63 | 80 | 97 | 25 | 70 |
查看前2行
df.head(2)
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
1 | 8 | 35 | 56 | 98 | 39 |
查看后2行
df.tail(2)
a | b | c | d | e | |
---|---|---|---|---|---|
3 | 70 | 54 | 69 | 48 | 12 |
4 | 63 | 80 | 97 | 25 | 70 |
查看随机2行
df.sample(2)
a | b | c | d | e | |
---|---|---|---|---|---|
1 | 8 | 35 | 56 | 98 | 39 |
3 | 70 | 54 | 69 | 48 | 12 |
单列选取,我们有3种方式可以实现
第一种,直接在[]
里面写上要筛选的列名
df['a']
0 81
1 8
2 13
3 70
4 63
Name: a, dtype: int64
第二种,在.iloc[]
里的逗号前面写上要筛选的行索引,在.iloc[]里的逗号后面写上要删选的列索引。其中写:
代表所有,写0:3
代表从索引0到2
df.iloc[0:3,0]
0 81
1 8
2 13
Name: a, dtype: int64
第三种,直接.
后面写上列名
df.a
0 81
1 8
2 13
3 70
4 63
Name: a, dtype: int64
同样的,选择多列常见的也有3种方式:
第一种,直接在[]
里面写上要筛选的列名组成的列表['a','c','d']
df[['a','c','d']]
a | c | d | |
---|---|---|---|
0 | 81 | 24 | 25 |
1 | 8 | 56 | 98 |
2 | 13 | 55 | 36 |
3 | 70 | 69 | 48 |
4 | 63 | 97 | 25 |
第二种,在.iloc[]
里面行索引位置写:
选取所有行,列索引位置写上要筛选的列索引组成的列表[0,2,3]
df.iloc[:,[0,2,3]]
a | c | d | |
---|---|---|---|
0 | 81 | 24 | 25 |
1 | 8 | 56 | 98 |
2 | 13 | 55 | 36 |
3 | 70 | 69 | 48 |
4 | 63 | 97 | 25 |
第三种,在.loc[]
里面的行索引位置写:
来选取所有行,在列索引位置写上要筛选的列索引组成的列表['a','c','d']
df.loc[:,['a','c','d']]
a | c | d | |
---|---|---|---|
0 | 81 | 24 | 25 |
1 | 8 | 56 | 98 |
2 | 13 | 55 | 36 |
3 | 70 | 69 | 48 |
4 | 63 | 97 | 25 |
直接选取第一行
df[0:1]
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
用loc
选取第一行
df.loc[0:0]
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
选取任意多行
df.iloc[[1,3],]
a | b | c | d | e | |
---|---|---|---|---|---|
1 | 8 | 35 | 56 | 98 | 39 |
3 | 70 | 54 | 69 | 48 | 12 |
选取连续多行
df.iloc[1:4,:]
a | b | c | d | e | |
---|---|---|---|---|---|
1 | 8 | 35 | 56 | 98 | 39 |
2 | 13 | 39 | 55 | 36 | 3 |
3 | 70 | 54 | 69 | 48 | 12 |
指定行列值
df.iat[2,2] # 根据行列索引
55
df.at[2,'c'] # 根据行列名称
55
指定行列区域
df.iloc[[2,3],[1,4]]
b | e | |
---|---|---|
2 | 39 | 3 |
3 | 54 | 12 |
以上是关于如何查看一个DataFrame里的数据,包括用[]
、iloc
、iat
等方式选取数据,接下来我们来看如何用条件表达式来筛选数据:
在pandas中,可以使用条件筛选来选择满足特定条件的数据
import pandas as pd
d = np.array([[81, 28, 24, 25, 96],
[ 8, 35, 56, 98, 39],
[13, 39, 55, 36, 3],
[70, 54, 69, 48, 12],
[63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
columns=list('abcde'))
df
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
1 | 8 | 35 | 56 | 98 | 39 |
2 | 13 | 39 | 55 | 36 | 3 |
3 | 70 | 54 | 69 | 48 | 12 |
4 | 63 | 80 | 97 | 25 | 70 |
# 单一条件
df[df['a']>60]
df.loc[df['a']>60]
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
3 | 70 | 54 | 69 | 48 | 12 |
4 | 63 | 80 | 97 | 25 | 70 |
# 单一条件&多列
df.loc[(df['a']>60) ,['a','b','d']]
a | b | d | |
---|---|---|---|
0 | 81 | 28 | 25 |
3 | 70 | 54 | 48 |
4 | 63 | 80 | 25 |
# 多条件
df[(df['a']>60) & (df['b']>60)]
a | b | c | d | e | |
---|---|---|---|---|---|
4 | 63 | 80 | 97 | 25 | 70 |
# 多条件 筛选行 & 指定列筛选列
df.loc[(df['a']>60) & (df['b']>60) ,['a','b','d']]
a | b | d | |
---|---|---|---|
4 | 63 | 80 | 25 |
以上是使用条件筛选来选取数据 ,接下来我们来看如何对数据进行数学计算
import pandas as pd
d = np.array([[81, 28, 24, 25, 96],
[ 8, 35, 56, 98, 39],
[13, 39, 55, 36, 3],
[70, 54, 69, 48, 12],
[63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
columns=list('abcde'))
df
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 81 | 28 | 24 | 25 | 96 |
1 | 8 | 35 | 56 | 98 | 39 |
2 | 13 | 39 | 55 | 36 | 3 |
3 | 70 | 54 | 69 | 48 | 12 |
4 | 63 | 80 | 97 | 25 | 70 |
聚合计算是指对数据进行汇总和统计的操作。常用的聚合计算方法包括计算均值、求和、最大值、最小值、计数等。
df['a'].mean()
47.0
df['a'].sum()
235
df['a'].max()
81
df['a'].min()
8
df['a'].count()
5
df['a'].median() # 中位数
63.0
df['a'].var() #方差
1154.5
df['a'].skew() # 偏度
-0.45733193928530436
df['a'].kurt() # 峰度
-2.9999915595685325
df['a'].cumsum() # 累计求和
0 81
1 89
2 102
3 172
4 235
Name: a, dtype: int64
df['a'].cumprod() # 累计求积
0 81
1 648
2 8424
3 589680
4 37149840
Name: a, dtype: int64
df['a'].diff() # 差分
0 NaN
1 -73.0
2 5.0
3 57.0
4 -7.0
Name: a, dtype: float64
df['a'].mad() # 平均绝对偏差
29.2
df.sum(axis=0) # 按列求和汇总到最后一行
a 235
b 236
c 301
d 232
e 220
dtype: int64
df.sum(axis=1) # 按行求和汇总到最后一列
0 254
1 236
2 146
3 253
4 335
dtype: int64
df.describe() # 描述性统计
a | b | c | d | e | |
---|---|---|---|---|---|
count | 5.000000 | 5.000000 | 5.000000 | 5.000000 | 5.000000 |
mean | 47.000000 | 47.200000 | 60.200000 | 46.400000 | 44.000000 |
std | 33.977934 | 20.656718 | 26.395075 | 30.369392 | 39.083244 |
min | 8.000000 | 28.000000 | 24.000000 | 25.000000 | 3.000000 |
25% | 13.000000 | 35.000000 | 55.000000 | 25.000000 | 12.000000 |
50% | 63.000000 | 39.000000 | 56.000000 | 36.000000 | 39.000000 |
75% | 70.000000 | 54.000000 | 69.000000 | 48.000000 | 70.000000 |
max | 81.000000 | 80.000000 | 97.000000 | 98.000000 | 96.000000 |
对整个DataFrame批量使用多个聚合函数
df.agg(['sum', 'mean','max','min','median'])
a | b | c | d | e | |
---|---|---|---|---|---|
sum | 235.0 | 236.0 | 301.0 | 232.0 | 220.0 |
mean | 47.0 | 47.2 | 60.2 | 46.4 | 44.0 |
max | 81.0 | 80.0 | 97.0 | 98.0 | 96.0 |
min | 8.0 | 28.0 | 24.0 | 25.0 | 3.0 |
median | 63.0 | 39.0 | 56.0 | 36.0 | 39.0 |
对DataFramed的某些列应用不同的聚合函数
df.agg({'a':['max','min'],'b':['sum','mean'],'c':['median']})
a | b | c | |
---|---|---|---|
max | 81.0 | NaN | NaN |
min | 8.0 | NaN | NaN |
sum | NaN | 236.0 | NaN |
mean | NaN | 47.2 | NaN |
median | NaN | NaN | 56.0 |
在Python中如果想要对数据使用函数,可以借助apply(),applymap(),map()对数据进行转换,括号里面可以是直接函数式,或者自定义函数(def)或者匿名函数(lambad)
1、当我们要对数据框(DataFrame)的数据进行按行或按列操作时用apply()
df.apply(lambda x :x.max()-x.min(),axis=1)
#axis=1,表示按行对数据进行操作
#从下面的结果可以看出,我们使用了apply函数之后,系统自动按行找最大值和最小值计算,每一行输出一个值
0 72
1 90
2 52
3 58
4 72
dtype: int64
df.apply(lambda x :x.max()-x.min(),axis=0)
#默认参数axis=0,表示按列对数据进行操作
#从下面的结果可以看出,我们使用了apply函数之后,系统自动按列找最大值和最小值计算,每一列输出一个值
a 73
b 52
c 73
d 73
e 93
dtype: int64
2、当我们要对数据框(DataFrame)的每一个数据进行操作时用applymap(),返回结果是DataFrame格式
df.applymap(lambda x : 1 if x>60 else 0)
#从下面的结果可以看出,我们使用了applymap函数之后,
#系统自动对每一个数据进行判断,判断之后输出结果
a | b | c | d | e | |
---|---|---|---|---|---|
0 | 1 | 0 | 0 | 0 | 1 |
1 | 0 | 0 | 0 | 1 | 0 |
2 | 0 | 0 | 0 | 0 | 0 |
3 | 1 | 0 | 1 | 0 | 0 |
4 | 1 | 1 | 1 | 0 | 1 |
3、当我们要对Series的每一个数据进行操作时用map()
df['a'].map(lambda x : 1 if x>60 else 0)
0 1
1 0
2 0
3 1
4 1
Name: a, dtype: int64
总结:
apply()
函数可以在DataFrame或Series上应用自定义函数,可以在行或列上进行操作。
applymap()
函数只适用于DataFrame,可以在每个元素上应用自定义函数。
map()
函数只适用于Series,用于将每个元素映射到另一个值。
以上是数学运算部分,包括聚合计算、批量应用聚合函数,以及对Series和DataFrame进行批量映射,接下来我们来看如何对数据进行合并拼接
在pandas中,有多种方法可以合并和拼接数据。常见的方法包括append()
、concat()
、merge()
。
append()函数用于将一个DataFrame或Series对象追加到另一个DataFrame中。
import pandas as pd
df1 = pd.DataFrame({'A': ['a', 'b'],
'B': [1, 2]})
df1
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
'B': [2, 3, 4]})
df2
A | B | |
---|---|---|
0 | b | 2 |
1 | c | 3 |
2 | d | 4 |
df1.append(df2,ignore_index=True)
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
2 | b | 2 |
3 | c | 3 |
4 | d | 4 |
concat()函数用于沿指定轴将多个对象(比如Series、DataFrame)堆叠在一起。可以沿行或列方向进行拼接。
先看一个上下堆叠的例子
df1 = pd.DataFrame({'A': ['a', 'b'],
'B': [1, 2]})
df1
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
'B': [2, 3, 4]})
df2
A | B | |
---|---|---|
0 | b | 2 |
1 | c | 3 |
2 | d | 4 |
pd.concat([df1,df2],axis =0) # 上下拼接
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
0 | b | 2 |
1 | c | 3 |
2 | d | 4 |
再看一个左右堆叠的例子
df1 = pd.DataFrame({'A': ['a', 'b']})
df1
A | |
---|---|
0 | a |
1 | b |
df2 = pd.DataFrame({'B': [1, 2],
'C': [2, 4]})
df2
B | C | |
---|---|---|
0 | 1 | 2 |
1 | 2 | 4 |
pd.concat([df1,df2],axis =1) # 左右拼接
A | B | C | |
---|---|---|---|
0 | a | 1 | 2 |
1 | b | 2 | 4 |
merge()
函数用于根据一个或多个键将两个DataFrame的行连接起来。类似于SQL中的JOIN操作。
先看一下 inner
和 outer
连接
df1 = pd.DataFrame({'A': ['a', 'b', 'c'],
'B': [1, 2, 3]})
df1
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
2 | c | 3 |
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
'B': [2, 3, 4]})
df2
A | B | |
---|---|---|
0 | b | 2 |
1 | c | 3 |
2 | d | 4 |
pd.merge(df1,df2,how = 'inner')
A | B | |
---|---|---|
0 | b | 2 |
1 | c | 3 |
pd.merge(df1,df2,how = 'outer')
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
2 | c | 3 |
3 | d | 4 |
再看左右链接的例子:
df1 = pd.DataFrame({'A': ['a', 'b', 'c'],
'B': [1, 2, 3]})
df1
A | B | |
---|---|---|
0 | a | 1 |
1 | b | 2 |
2 | c | 3 |
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
'C': [2, 3, 4]})
df2
A | C | |
---|---|---|
0 | b | 2 |
1 | c | 3 |
2 | d | 4 |
pd.merge(df1,df2,how = 'left',on = "A") # 左连接
A | B | C | |
---|---|---|---|
0 | a | 1 | NaN |
1 | b | 2 | 2.0 |
2 | c | 3 | 3.0 |
pd.merge(df1,df2,how = 'right',on = "A") # 右连接
A | B | C | |
---|---|---|---|
0 | b | 2.0 | 2 |
1 | c | 3.0 | 3 |
2 | d | NaN | 4 |
pd.merge(df1,df2,how = 'inner',on = "A") # 内连接
A | B | C | |
---|---|---|---|
0 | b | 2 | 2 |
1 | c | 3 | 3 |
pd.merge(df1,df2,how = 'outer',on = "A") # 外连接
A | B | C | |
---|---|---|---|
0 | a | 1.0 | NaN |
1 | b | 2.0 | 2.0 |
2 | c | 3.0 | 3.0 |
3 | d | NaN | 4.0 |
补充1个小技巧
df1[df1['A'].isin(df2['A'])] # 返回在df1中列'A'的值在df2中也存在的行
A | B | |
---|---|---|
1 | b | 2 |
2 | c | 3 |
df1[~df1['A'].isin(df2['A'])] # 返回在df1中列'A'的值在df2中不存在的行
A | B | |
---|---|---|
0 | a | 1 |
分组聚合(group by)顾名思义就是分2步:
先分组:根据某列数据的值进行分组。用groupby()
对某列进行分组
后聚合:将结果应用聚合函数进行计算。在agg()
函数里应用聚合函数计算结果,如sum()、mean()、count()、max()、min()
等,用于对每个分组进行聚合计算。
import pandas as pd
import numpy as np
import random
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
'B': ['L', 'L', 'M', 'N','M', 'M'],
'C': [107, 177, 139, 3, 52, 38],
'D': [22, 59, 38, 50, 60, 82]})
df
A | B | C | D | |
---|---|---|---|---|
0 | a | L | 107 | 22 |
1 | b | L | 177 | 59 |
2 | a | M | 139 | 38 |
3 | b | N | 3 | 50 |
4 | a | M | 52 | 60 |
5 | b | M | 38 | 82 |
单列分组
① 对单列分组后应用sum
聚合函数
df.groupby('A').sum()
C | D | |
---|---|---|
A | ||
a | 298 | 120 |
b | 218 | 191 |
② 对单列分组后应用单个指定的聚合函数
df.groupby('A').agg({'C': 'min'}).rename(columns={'C': 'C_min'})
C_min | |
---|---|
A | |
a | 52 |
b | 3 |
③ 对单列分组后应用多个指定的聚合函数
df.groupby(['A']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
C_max | D_min | |
---|---|---|
A | ||
a | 139 | 22 |
b | 177 | 50 |
两列分组
① 对多列分组后应用sum
聚合函数:
df.groupby(['A', 'B']).sum()
C | D | ||
---|---|---|---|
A | B | ||
a | L | 107 | 22 |
M | 191 | 98 | |
b | L | 177 | 59 |
M | 38 | 82 | |
N | 3 | 50 |
② 对两列进行group
后,都应用max
聚合函数
df.groupby(['A','B']).agg({'C':'max'}).rename(columns={'C': 'C_max'})
C_max | ||
---|---|---|
A | B | |
a | L | 107 |
M | 139 | |
b | L | 177 |
M | 38 | |
N | 3 |
③ 对两列进行分组group
后,分别应用max
、min
聚合函数
df.groupby(['A','B']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
C_max | D_min | ||
---|---|---|---|
A | B | ||
a | L | 107 | 22 |
M | 139 | 38 | |
b | L | 177 | 59 |
M | 38 | 82 | |
N | 3 | 50 |
补充1: 应用自定义的聚合函数
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
'B': ['L', 'L', 'M', 'N','M', 'M'],
'C': [107, 177, 139, 3, 52, 38],
'D': [22, 59, 38, 50, 60, 82]})
df
A | B | C | D | |
---|---|---|---|---|
0 | a | L | 107 | 22 |
1 | b | L | 177 | 59 |
2 | a | M | 139 | 38 |
3 | b | N | 3 | 50 |
4 | a | M | 52 | 60 |
5 | b | M | 38 | 82 |
# 使用自定义的聚合函数计算每个分组的最大值和最小值
def custom_agg(x):
return x.max() - x.min()
result = df[['B','C']].groupby('B').agg({'C': custom_agg})
result
C | |
---|---|
B | |
L | 70 |
M | 101 |
N | 0 |
补充2: 开窗函数(类似于SQL里面的over partition by
):
使用transform函数计算每个分组的均值
# 使用transform函数计算每个分组的均值
df['B_C_std'] = df[['B','C']].groupby('B')['C'].transform('mean')
df
A | B | C | D | B_C_std | |
---|---|---|---|---|---|
0 | a | L | 107 | 22 | 142.000000 |
1 | b | L | 177 | 59 | 142.000000 |
2 | a | M | 139 | 38 | 76.333333 |
3 | b | N | 3 | 50 | 3.000000 |
4 | a | M | 52 | 60 | 76.333333 |
5 | b | M | 38 | 82 | 76.333333 |
补充3: 分组聚合拼接字符串 pandas实现类似 group_concat 功能
假设有这样一个数据:
df = pd.DataFrame({
'姓名': ['张三', '张三', '张三', '李四', '李四', '李四'],
'科目': ['语文', '数学', '英语', '语文', '数学', '英语']
})
df
姓名 | 科目 | |
---|---|---|
0 | 张三 | 语文 |
1 | 张三 | 数学 |
2 | 张三 | 英语 |
3 | 李四 | 语文 |
4 | 李四 | 数学 |
5 | 李四 | 英语 |
补充:按某列分组,将另一列文本拼接合并
按名称分组,把每个人的科目拼接到一个字符串:
# 对整个group对象中的所有列应用join 连接元素
(df.astype(str)# 先将数据全转为字符
.groupby('姓名')# 分组
.agg(lambda x : ','.join(x)))[['科目']]# join 连接元素
科目 | |
---|---|
姓名 | |
张三 | 语文,数学,英语 |
李四 | 语文,数学,英语 |
文章浏览阅读2.5w次,点赞6次,收藏50次。官方解释是,docker 容器是机器上的沙盒进程,它与主机上的所有其他进程隔离。所以容器只是操作系统中被隔离开来的一个进程,所谓的容器化,其实也只是对操作系统进行欺骗的一种语法糖。_docker菜鸟教程
文章浏览阅读5.7k次,点赞3次,收藏14次。该如何避免的,今天小编给大家推荐两个下载Windows系统官方软件的资源网站,可以杜绝软件捆绑等行为。该站提供了丰富的Windows官方技术资源,比较重要的有MSDN技术资源文档库、官方工具和资源、应用程序、开发人员工具(Visual Studio 、SQLServer等等)、系统镜像、设计人员工具等。总的来说,这两个都是非常优秀的Windows系统镜像资源站,提供了丰富的Windows系统镜像资源,并且保证了资源的纯净和安全性,有需要的朋友可以去了解一下。这个非常实用的资源网站的创建者是国内的一个网友。_msdn我告诉你
文章浏览阅读1.2k次。vue2封装对话框el-dialog组件_
文章浏览阅读4.7k次,点赞5次,收藏6次。MFC 文本框换行 标签: it mfc 文本框1.将Multiline属性设置为True2.换行是使用"\r\n" (宽字符串为L"\r\n")3.如果需要编辑并且按Enter键换行,还要将 Want Return 设置为 True4.如果需要垂直滚动条的话将Vertical Scroll属性设置为True,需要水平滚动条的话将Horizontal Scroll属性设_c++ mfc同一框内输入二行怎么换行
文章浏览阅读832次。检查Linux是否是否开启所需端口,默认为6379,若未打开,将其开启:以root用户执行iptables -I INPUT -p tcp --dport 6379 -j ACCEPT如果还是未能解决,修改redis.conf,修改主机地址:bind 192.168.85.**;然后使用该配置文件,重新启动Redis服务./redis-server redis.conf..._redis-server doesn't support auth command or ismisconfigured. try
文章浏览阅读4.9k次。济大数电实验报告_数据选择器及其应用
文章浏览阅读236次。1研究内容消费在生产中占据十分重要的地位,是生产的最终目的和动力,是保持省内经济稳定快速发展的核心要素。预测河南省社会消费品零售总额,是进行宏观经济调控和消费体制改变创新的基础,是河南省内人民对美好的全面和谐社会的追求的要求,保持河南省经济稳定和可持续发展具有重要意义。本文建立灰色预测模型,利用MATLAB软件,预测出2019年~2023年河南省社会消费品零售总额预测值分别为21881...._灰色预测模型用什么软件
文章浏览阅读1.2k次。12.4-在Qt中使用Log4Qt输出Log文件,看这一篇就足够了一、为啥要使用第三方Log库,而不用平台自带的Log库二、Log4j系列库的功能介绍与基本概念三、Log4Qt库的基本介绍四、将Log4qt组装成为一个单独模块五、使用配置文件的方式配置Log4Qt六、使用代码的方式配置Log4Qt七、在Qt工程中引入Log4Qt库模块的方法八、获取示例中的源代码一、为啥要使用第三方Log库,而不用平台自带的Log库首先要说明的是,在平时开发和调试中开发平台自带的“打印输出”已经足够了。但_log4qt
文章浏览阅读786次。全局观思维模型,一个教我们由点到线,由线到面,再由面到体,不断的放大格局去思考问题的思维模型。_计算机中对于全局观的
文章浏览阅读330次。一、CountDownLatch介绍CountDownLatch采用减法计算;是一个同步辅助工具类和CyclicBarrier类功能类似,允许一个或多个线程等待,直到在其他线程中执行的一组操作完成。二、CountDownLatch俩种应用场景: 场景一:所有线程在等待开始信号(startSignal.await()),主流程发出开始信号通知,既执行startSignal.countDown()方法后;所有线程才开始执行;每个线程执行完发出做完信号,既执行do..._countdownluach于cyclicbarrier的用法
文章浏览阅读508次。Prometheus 算是一个全能型选手,原生支持容器监控,当然监控传统应用也不是吃干饭的,所以就是容器和非容器他都支持,所有的监控系统都具备这个流程,_-自动化监控系统prometheus&grafana实战
文章浏览阅读4.7k次。输入关键字,可以通过键盘的搜索按钮完成搜索功能。_react search