使用Pandas 进行数据分析_pandas数据分析-程序员宅基地

技术标签: pandas  python  数据分析  数据挖掘  

目录

文章来自 20000字!一文学会Python数据分析

1 什么是Pandas?

2 Pandas数据类型

Series

DataFrame

3 Pandas数据查看

按列选取

按行选取

指定行列

4 Pandas条件查询

5 Pandas数学计算

聚合计算

按行、列聚合计算

agg函数

apply、applymap、map函数

6 Pandas合并连接

追加(Append)

合并(Concat)

连接(Merge)

数据连接 1 (pd.merge)

数据连接 2 (pd.merge)

7 Pandas分组聚合


文章来自 20000字!一文学会Python数据分析


1 什么是Pandas?

Pandas是一个开源的Python库,主要用于数据分析、数据处理、数据可视化。

Pandas作为Python数据分析的核心包,提供了大量的数据分析函数,包括数据处理、数据抽取、数据集成、数据计算等基本的数据分析手段。

Pandas的名称来自于面板数据(panel data)和python数据分析(data analysis)的简称。

千万记得Pandas不是咱们的国宝大熊猫的复数形式!!!(尽管这一强调极有可能适得其反,但还是忍不住贴一张panda的图)

2 Pandas数据类型

Pandas 有两种自己独有的基本数据结构。需要注意的是,它固然有着两种数据结构,因为它依然是 Python 的一个库,所以 Python 中有的数据类型在这里依然适用。我们分别看一下这两种数据结构:

Series

Series:一维数组。该结构能够放置各种数据类型,比如字符、整数、浮点数等

我们先引入pandas包,这里有一个约定成俗的写法import pandas as pd 将pandas引入,并命其别名为pd

接着将列表[2,3,5,7,11]放到pd.Series()里面

import pandas as pd
s = pd.Series([2,3,5,7,11],name = 'A')
s
0     2
1     3
2     5
3     7
4    11
Name: A, dtype: int64

Time- Series:以时间为索引的Series

同样的,将列['2024-01-01 00:00:00', '2024-01-01 03:00:00','2024-01-01 06:00:00'] 放到pd.DatetimeIndex()里面

dts1 = pd.DatetimeIndex(['2024-01-01 00:00:00', '2024-01-01 03:00:00','2024-01-01 06:00:00'])
dts1
DatetimeIndex(['2024-01-01 00:00:00', '2024-01-01 03:00:00',
               '2024-01-01 06:00:00'],
              dtype='datetime64[ns]', freq=None)

还有另外一种写法pd.date_range 可以按一定的频率生成时间序列

dts2 = pd.date_range(start='2024-01-01', periods=6, freq='3H')
dts2
DatetimeIndex(['2024-01-01 00:00:00', '2024-01-01 03:00:00',
               '2024-01-01 06:00:00', '2024-01-01 09:00:00',
               '2024-01-01 12:00:00', '2024-01-01 15:00:00'],
              dtype='datetime64[ns]', freq='3H')
dts3 = pd.date_range('2024-01-01', periods=6, freq='d')
dts3
DatetimeIndex(['2024-01-01', '2024-01-02', '2024-01-03', '2024-01-04',
               '2024-01-05', '2024-01-06'],
              dtype='datetime64[ns]', freq='D')

DataFrame

DataFrame:二维的表格型数据结构,可以理解为Series的容器,通俗地说,就是可以把Series放到DataFrame里面。

它是一种二维表格型数据的结构,既有行索引,也有列索引。行索引是 index,列索引是 columns。类似于初中数学里,在二维平面里用坐标轴来定位平面中的点。

注意,DataFrame又是Pandas的核心!接下来的内容基本上以DataFrame为主

先来看看如何创建DataFrame,上面说过Series也好,DataFrame也罢,本质上都是容器。

千万别被”容器“这个词吓住了,通俗来说,就是里面可以放东西的东西。

从字典创建DataFrame

相当于给里面放dict:先创建一个字典d,再把d放进了DataFrame里命名为df

d = {'A': [1, 2, 3], 
     'B': [4, 5, 6],
     'C': [7, 8, 9]}
df = pd.DataFrame(data = d)
df
A B C
0 1 4 7
1 2 5 8
2 3 6 9

从列表创建DataFrame

先创建了一个列表d,再把d放进了DataFrame里命名为df1

d = [[4, 7, 10],[5, 8, 11],[6, 9, 12]]
df1 = pd.DataFrame(
    data = d,
    index=['a', 'b', 'c'],
    columns=['A', 'B', 'C'])
df1
A B C
a 4 7 10
b 5 8 11
c 6 9 12

从数组创建DataFrame

数组(array)对你来说可能是一个新概念,在Python里面,创建数组需要引入一个类似于Pandas的库,叫做Numpy。与前面引入Pandas类似,我们用 import numpy as np来引入numpy,命其别名为np。

同样的,先创建一个数组d,再把d放进了DataFrame里命名为df2

import numpy as np
d = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
df2 = pd.DataFrame(data = d,
                   index=['a', 'b', 'c'],
                   columns=['A', 'B', 'C'])
df2
A B C
a 1 2 3
b 4 5 6
c 7 8 9

以上,我们用了不同的方式来创建DataFrame,接下来,我们看看创建好后,如何查看数据


3 Pandas数据查看

这里我们创建一个DataFrame命名为df

import numpy as np
import pandas as pd
d =  np.array([[81, 28, 24, 25, 96],
       [ 8, 35, 56, 98, 39],
       [13, 39, 55, 36,  3],
       [70, 54, 69, 48, 12],
       [63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
                  columns=list('abcde'))
df
a b c d e
0 81 28 24 25 96
1 8 35 56 98 39
2 13 39 55 36 3
3 70 54 69 48 12
4 63 80 97 25 70

查看前2行

df.head(2)
a b c d e
0 81 28 24 25 96
1 8 35 56 98 39

查看后2行

df.tail(2)
a b c d e
3 70 54 69 48 12
4 63 80 97 25 70

查看随机2行

df.sample(2)
a b c d e
1 8 35 56 98 39
3 70 54 69 48 12

按列选取

单列选取,我们有3种方式可以实现

第一种,直接在[]里面写上要筛选的列名

df['a']
0    81
1     8
2    13
3    70
4    63
Name: a, dtype: int64

第二种,在.iloc[]里的逗号前面写上要筛选的行索引,在.iloc[]里的逗号后面写上要删选的列索引。其中写:代表所有,写0:3代表从索引0到2

df.iloc[0:3,0]
0    81
1     8
2    13
Name: a, dtype: int64

第三种,直接.后面写上列名

df.a
0    81
1     8
2    13
3    70
4    63
Name: a, dtype: int64

同样的,选择多列常见的也有3种方式:

第一种,直接在[]里面写上要筛选的列名组成的列表['a','c','d']

df[['a','c','d']]
a c d
0 81 24 25
1 8 56 98
2 13 55 36
3 70 69 48
4 63 97 25

第二种,在.iloc[]里面行索引位置写选取所有行,列索引位置写上要筛选的列索引组成的列表[0,2,3]

df.iloc[:,[0,2,3]]
a c d
0 81 24 25
1 8 56 98
2 13 55 36
3 70 69 48
4 63 97 25

第三种,在.loc[]里面的行索引位置写来选取所有行,在列索引位置写上要筛选的列索引组成的列表['a','c','d']

df.loc[:,['a','c','d']]
a c d
0 81 24 25
1 8 56 98
2 13 55 36
3 70 69 48
4 63 97 25

按行选取

直接选取第一行

df[0:1]
a b c d e
0 81 28 24 25 96

loc选取第一行

df.loc[0:0]
a b c d e
0 81 28 24 25 96

选取任意多行

df.iloc[[1,3],]
a b c d e
1 8 35 56 98 39
3 70 54 69 48 12

选取连续多行

df.iloc[1:4,:]
a b c d e
1 8 35 56 98 39
2 13 39 55 36 3
3 70 54 69 48 12

指定行列

指定行列值

df.iat[2,2] # 根据行列索引
55
df.at[2,'c'] # 根据行列名称
55

指定行列区域

df.iloc[[2,3],[1,4]]
b e
2 39 3
3 54 12

以上是关于如何查看一个DataFrame里的数据,包括用[]ilociat等方式选取数据,接下来我们来看如何用条件表达式来筛选数据:

4 Pandas条件查询

在pandas中,可以使用条件筛选来选择满足特定条件的数据

import pandas as pd
d =  np.array([[81, 28, 24, 25, 96],
       [ 8, 35, 56, 98, 39],
       [13, 39, 55, 36,  3],
       [70, 54, 69, 48, 12],
       [63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
                  columns=list('abcde'))
df
a b c d e
0 81 28 24 25 96
1 8 35 56 98 39
2 13 39 55 36 3
3 70 54 69 48 12
4 63 80 97 25 70
# 单一条件
df[df['a']>60]
df.loc[df['a']>60]
a b c d e
0 81 28 24 25 96
3 70 54 69 48 12
4 63 80 97 25 70
# 单一条件&多列
df.loc[(df['a']>60) ,['a','b','d']]
a b d
0 81 28 25
3 70 54 48
4 63 80 25
# 多条件
df[(df['a']>60) & (df['b']>60)]
a b c d e
4 63 80 97 25 70
# 多条件 筛选行 & 指定列筛选列
df.loc[(df['a']>60) & (df['b']>60) ,['a','b','d']]
a b d
4 63 80 25

以上是使用条件筛选来选取数据 ,接下来我们来看如何对数据进行数学计算

5 Pandas数学计算

import pandas as pd
d =  np.array([[81, 28, 24, 25, 96],
       [ 8, 35, 56, 98, 39],
       [13, 39, 55, 36,  3],
       [70, 54, 69, 48, 12],
       [63, 80, 97, 25, 70]])
df = pd.DataFrame(data = d,
                  columns=list('abcde'))
df
a b c d e
0 81 28 24 25 96
1 8 35 56 98 39
2 13 39 55 36 3
3 70 54 69 48 12
4 63 80 97 25 70

聚合计算

聚合计算是指对数据进行汇总和统计的操作。常用的聚合计算方法包括计算均值、求和、最大值、最小值、计数等。

df['a'].mean()
47.0
df['a'].sum()
235
df['a'].max()
81
df['a'].min()
8
df['a'].count()
5
df['a'].median() # 中位数
63.0
df['a'].var() #方差
1154.5
df['a'].skew() # 偏度
-0.45733193928530436
df['a'].kurt() # 峰度
-2.9999915595685325
df['a'].cumsum() # 累计求和
0     81
1     89
2    102
3    172
4    235
Name: a, dtype: int64
df['a'].cumprod() # 累计求积
0          81
1         648
2        8424
3      589680
4    37149840
Name: a, dtype: int64
df['a'].diff() # 差分
0     NaN
1   -73.0
2     5.0
3    57.0
4    -7.0
Name: a, dtype: float64
df['a'].mad() # 平均绝对偏差
29.2

按行、列聚合计算

df.sum(axis=0)  # 按列求和汇总到最后一行
a    235
b    236
c    301
d    232
e    220
dtype: int64
df.sum(axis=1)  # 按行求和汇总到最后一列 
0    254
1    236
2    146
3    253
4    335
dtype: int64
df.describe() # 描述性统计
a b c d e
count 5.000000 5.000000 5.000000 5.000000 5.000000
mean 47.000000 47.200000 60.200000 46.400000 44.000000
std 33.977934 20.656718 26.395075 30.369392 39.083244
min 8.000000 28.000000 24.000000 25.000000 3.000000
25% 13.000000 35.000000 55.000000 25.000000 12.000000
50% 63.000000 39.000000 56.000000 36.000000 39.000000
75% 70.000000 54.000000 69.000000 48.000000 70.000000
max 81.000000 80.000000 97.000000 98.000000 96.000000

agg函数

对整个DataFrame批量使用多个聚合函数

df.agg(['sum', 'mean','max','min','median'])
a b c d e
sum 235.0 236.0 301.0 232.0 220.0
mean 47.0 47.2 60.2 46.4 44.0
max 81.0 80.0 97.0 98.0 96.0
min 8.0 28.0 24.0 25.0 3.0
median 63.0 39.0 56.0 36.0 39.0

对DataFramed的某些列应用不同的聚合函数

df.agg({'a':['max','min'],'b':['sum','mean'],'c':['median']})
a b c
max 81.0 NaN NaN
min 8.0 NaN NaN
sum NaN 236.0 NaN
mean NaN 47.2 NaN
median NaN NaN 56.0

apply、applymap、map函数

在Python中如果想要对数据使用函数,可以借助apply(),applymap(),map()对数据进行转换,括号里面可以是直接函数式,或者自定义函数(def)或者匿名函数(lambad)

1、当我们要对数据框(DataFrame)的数据进行按行或按列操作时用apply()

df.apply(lambda x :x.max()-x.min(),axis=1)
#axis=1,表示按行对数据进行操作
#从下面的结果可以看出,我们使用了apply函数之后,系统自动按行找最大值和最小值计算,每一行输出一个值
0    72
1    90
2    52
3    58
4    72
dtype: int64
df.apply(lambda x :x.max()-x.min(),axis=0)
#默认参数axis=0,表示按列对数据进行操作
#从下面的结果可以看出,我们使用了apply函数之后,系统自动按列找最大值和最小值计算,每一列输出一个值
a    73
b    52
c    73
d    73
e    93
dtype: int64

2、当我们要对数据框(DataFrame)的每一个数据进行操作时用applymap(),返回结果是DataFrame格式

df.applymap(lambda x : 1 if x>60 else 0)
#从下面的结果可以看出,我们使用了applymap函数之后,
#系统自动对每一个数据进行判断,判断之后输出结果
a b c d e
0 1 0 0 0 1
1 0 0 0 1 0
2 0 0 0 0 0
3 1 0 1 0 0
4 1 1 1 0 1

3、当我们要对Series的每一个数据进行操作时用map()

df['a'].map(lambda x : 1 if x>60 else 0)
0    1
1    0
2    0
3    1
4    1
Name: a, dtype: int64

总结:

apply() 函数可以在DataFrame或Series上应用自定义函数,可以在行或列上进行操作。

applymap() 函数只适用于DataFrame,可以在每个元素上应用自定义函数。

map() 函数只适用于Series,用于将每个元素映射到另一个值。

以上是数学运算部分,包括聚合计算、批量应用聚合函数,以及对Series和DataFrame进行批量映射,接下来我们来看如何对数据进行合并拼接

6 Pandas合并连接

在pandas中,有多种方法可以合并和拼接数据。常见的方法包括append()concat()merge()

追加(Append)

append()函数用于将一个DataFrame或Series对象追加到另一个DataFrame中。

import pandas as pd
df1 = pd.DataFrame({'A': ['a', 'b'],
                   'B': [1, 2]})
df1
A B
0 a 1
1 b 2
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
                    'B': [2, 3, 4]})
df2
A B
0 b 2
1 c 3
2 d 4
df1.append(df2,ignore_index=True) 
A B
0 a 1
1 b 2
2 b 2
3 c 3
4 d 4

合并(Concat)

concat()函数用于沿指定轴将多个对象(比如Series、DataFrame)堆叠在一起。可以沿行或列方向进行拼接。

先看一个上下堆叠的例子

df1 = pd.DataFrame({'A': ['a', 'b'],
                   'B': [1, 2]})
df1
A B
0 a 1
1 b 2
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
                    'B': [2, 3, 4]})
df2
A B
0 b 2
1 c 3
2 d 4
pd.concat([df1,df2],axis =0) # 上下拼接
A B
0 a 1
1 b 2
0 b 2
1 c 3
2 d 4

再看一个左右堆叠的例子

df1 = pd.DataFrame({'A': ['a', 'b']})
df1
A
0 a
1 b
df2 = pd.DataFrame({'B': [1, 2],
                    'C': [2, 4]})
df2
B C
0 1 2
1 2 4
pd.concat([df1,df2],axis =1) # 左右拼接
A B C
0 a 1 2
1 b 2 4

连接(Merge)

merge()函数用于根据一个或多个键将两个DataFrame的行连接起来。类似于SQL中的JOIN操作。

数据连接 1 (pd.merge)

先看一下 inner 和 outer连接

df1 = pd.DataFrame({'A': ['a', 'b', 'c'],
                   'B': [1, 2, 3]})
df1
A B
0 a 1
1 b 2
2 c 3
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
                    'B': [2, 3, 4]})
df2
A B
0 b 2
1 c 3
2 d 4
pd.merge(df1,df2,how = 'inner')
A B
0 b 2
1 c 3
pd.merge(df1,df2,how = 'outer')
A B
0 a 1
1 b 2
2 c 3
3 d 4
数据连接 2 (pd.merge)

再看左右链接的例子:

df1 = pd.DataFrame({'A': ['a', 'b', 'c'],
                   'B': [1, 2, 3]})
df1
A B
0 a 1
1 b 2
2 c 3
df2 = pd.DataFrame({'A': [ 'b', 'c','d'],
                    'C': [2, 3, 4]})
df2
A C
0 b 2
1 c 3
2 d 4
pd.merge(df1,df2,how = 'left',on = "A")  # 左连接
A B C
0 a 1 NaN
1 b 2 2.0
2 c 3 3.0
pd.merge(df1,df2,how = 'right',on = "A") # 右连接
A B C
0 b 2.0 2
1 c 3.0 3
2 d NaN 4
pd.merge(df1,df2,how = 'inner',on = "A") # 内连接
A B C
0 b 2 2
1 c 3 3
pd.merge(df1,df2,how = 'outer',on = "A") # 外连接
A B C
0 a 1.0 NaN
1 b 2.0 2.0
2 c 3.0 3.0
3 d NaN 4.0

补充1个小技巧

df1[df1['A'].isin(df2['A'])] # 返回在df1中列'A'的值在df2中也存在的行
A B
1 b 2
2 c 3
df1[~df1['A'].isin(df2['A'])] # 返回在df1中列'A'的值在df2中不存在的行
A B
0 a 1

7 Pandas分组聚合

分组聚合(group by)顾名思义就是分2步:

  • 先分组:根据某列数据的值进行分组。用groupby()对某列进行分组

  • 后聚合:将结果应用聚合函数进行计算。在agg()函数里应用聚合函数计算结果,如sum()、mean()、count()、max()、min()等,用于对每个分组进行聚合计算。

import pandas as pd
import numpy as np
import random
df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
                   'B': ['L', 'L', 'M', 'N','M', 'M'],
                   'C': [107, 177, 139, 3, 52, 38],
                   'D': [22, 59, 38, 50, 60, 82]})

df
A B C D
0 a L 107 22
1 b L 177 59
2 a M 139 38
3 b N 3 50
4 a M 52 60
5 b M 38 82

单列分组

① 对单列分组后应用sum聚合函数

df.groupby('A').sum()
C D
A
a 298 120
b 218 191

② 对单列分组后应用单个指定的聚合函数

df.groupby('A').agg({'C': 'min'}).rename(columns={'C': 'C_min'})
C_min
A
a 52
b 3

③ 对单列分组后应用多个指定的聚合函数

df.groupby(['A']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
C_max D_min
A
a 139 22
b 177 50

两列分组

① 对多列分组后应用sum聚合函数:

df.groupby(['A', 'B']).sum()
C D
A B
a L 107 22
M 191 98
b L 177 59
M 38 82
N 3 50

② 对两列进行group 后,都应用max聚合函数

df.groupby(['A','B']).agg({'C':'max'}).rename(columns={'C': 'C_max'})
C_max
A B
a L 107
M 139
b L 177
M 38
N 3

③ 对两列进行分组group 后,分别应用maxmin聚合函数

df.groupby(['A','B']).agg({'C':'max','D':'min'}).rename(columns={'C':'C_max','D':'D_min'})
C_max D_min
A B
a L 107 22
M 139 38
b L 177 59
M 38 82
N 3 50

补充1: 应用自定义的聚合函数

df = pd.DataFrame({'A': ['a', 'b', 'a', 'b','a', 'b'],
                   'B': ['L', 'L', 'M', 'N','M', 'M'],
                   'C': [107, 177, 139, 3, 52, 38],
                   'D': [22, 59, 38, 50, 60, 82]})

df
A B C D
0 a L 107 22
1 b L 177 59
2 a M 139 38
3 b N 3 50
4 a M 52 60
5 b M 38 82
# 使用自定义的聚合函数计算每个分组的最大值和最小值
def custom_agg(x):
    return x.max() - x.min()
result =  df[['B','C']].groupby('B').agg({'C': custom_agg})
result
C
B
L 70
M 101
N 0

补充2: 开窗函数(类似于SQL里面的over partition by):

使用transform函数计算每个分组的均值

# 使用transform函数计算每个分组的均值
df['B_C_std'] =  df[['B','C']].groupby('B')['C'].transform('mean')
df
A B C D B_C_std
0 a L 107 22 142.000000
1 b L 177 59 142.000000
2 a M 139 38 76.333333
3 b N 3 50 3.000000
4 a M 52 60 76.333333
5 b M 38 82 76.333333

补充3: 分组聚合拼接字符串 pandas实现类似 group_concat 功能

假设有这样一个数据:

df = pd.DataFrame({
    '姓名': ['张三', '张三', '张三', '李四', '李四', '李四'],
    '科目': ['语文', '数学', '英语', '语文', '数学', '英语']
})

df
姓名 科目
0 张三 语文
1 张三 数学
2 张三 英语
3 李四 语文
4 李四 数学
5 李四 英语

补充:按某列分组,将另一列文本拼接合并

按名称分组,把每个人的科目拼接到一个字符串:

# 对整个group对象中的所有列应用join 连接元素
(df.astype(str)# 先将数据全转为字符
.groupby('姓名')# 分组
.agg(lambda x : ','.join(x)))[['科目']]# join 连接元素
科目
姓名
张三 语文,数学,英语
李四 语文,数学,英语

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_43570025/article/details/134860996

智能推荐

Docker 快速上手学习入门教程_docker菜鸟教程-程序员宅基地

文章浏览阅读2.5w次,点赞6次,收藏50次。官方解释是,docker 容器是机器上的沙盒进程,它与主机上的所有其他进程隔离。所以容器只是操作系统中被隔离开来的一个进程,所谓的容器化,其实也只是对操作系统进行欺骗的一种语法糖。_docker菜鸟教程

电脑技巧:Windows系统原版纯净软件必备的两个网站_msdn我告诉你-程序员宅基地

文章浏览阅读5.7k次,点赞3次,收藏14次。该如何避免的,今天小编给大家推荐两个下载Windows系统官方软件的资源网站,可以杜绝软件捆绑等行为。该站提供了丰富的Windows官方技术资源,比较重要的有MSDN技术资源文档库、官方工具和资源、应用程序、开发人员工具(Visual Studio 、SQLServer等等)、系统镜像、设计人员工具等。总的来说,这两个都是非常优秀的Windows系统镜像资源站,提供了丰富的Windows系统镜像资源,并且保证了资源的纯净和安全性,有需要的朋友可以去了解一下。这个非常实用的资源网站的创建者是国内的一个网友。_msdn我告诉你

vue2封装对话框el-dialog组件_<el-dialog 封装成组件 vue2-程序员宅基地

文章浏览阅读1.2k次。vue2封装对话框el-dialog组件_

MFC 文本框换行_c++ mfc同一框内输入二行怎么换行-程序员宅基地

文章浏览阅读4.7k次,点赞5次,收藏6次。MFC 文本框换行 标签: it mfc 文本框1.将Multiline属性设置为True2.换行是使用"\r\n" (宽字符串为L"\r\n")3.如果需要编辑并且按Enter键换行,还要将 Want Return 设置为 True4.如果需要垂直滚动条的话将Vertical Scroll属性设置为True,需要水平滚动条的话将Horizontal Scroll属性设_c++ mfc同一框内输入二行怎么换行

redis-desktop-manager无法连接redis-server的解决方法_redis-server doesn't support auth command or ismis-程序员宅基地

文章浏览阅读832次。检查Linux是否是否开启所需端口,默认为6379,若未打开,将其开启:以root用户执行iptables -I INPUT -p tcp --dport 6379 -j ACCEPT如果还是未能解决,修改redis.conf,修改主机地址:bind 192.168.85.**;然后使用该配置文件,重新启动Redis服务./redis-server redis.conf..._redis-server doesn't support auth command or ismisconfigured. try

实验四 数据选择器及其应用-程序员宅基地

文章浏览阅读4.9k次。济大数电实验报告_数据选择器及其应用

随便推点

灰色预测模型matlab_MATLAB实战|基于灰色预测河南省社会消费品零售总额预测-程序员宅基地

文章浏览阅读236次。1研究内容消费在生产中占据十分重要的地位,是生产的最终目的和动力,是保持省内经济稳定快速发展的核心要素。预测河南省社会消费品零售总额,是进行宏观经济调控和消费体制改变创新的基础,是河南省内人民对美好的全面和谐社会的追求的要求,保持河南省经济稳定和可持续发展具有重要意义。本文建立灰色预测模型,利用MATLAB软件,预测出2019年~2023年河南省社会消费品零售总额预测值分别为21881...._灰色预测模型用什么软件

log4qt-程序员宅基地

文章浏览阅读1.2k次。12.4-在Qt中使用Log4Qt输出Log文件,看这一篇就足够了一、为啥要使用第三方Log库,而不用平台自带的Log库二、Log4j系列库的功能介绍与基本概念三、Log4Qt库的基本介绍四、将Log4qt组装成为一个单独模块五、使用配置文件的方式配置Log4Qt六、使用代码的方式配置Log4Qt七、在Qt工程中引入Log4Qt库模块的方法八、获取示例中的源代码一、为啥要使用第三方Log库,而不用平台自带的Log库首先要说明的是,在平时开发和调试中开发平台自带的“打印输出”已经足够了。但_log4qt

100种思维模型之全局观思维模型-67_计算机中对于全局观的-程序员宅基地

文章浏览阅读786次。全局观思维模型,一个教我们由点到线,由线到面,再由面到体,不断的放大格局去思考问题的思维模型。_计算机中对于全局观的

线程间控制之CountDownLatch和CyclicBarrier使用介绍_countdownluach于cyclicbarrier的用法-程序员宅基地

文章浏览阅读330次。一、CountDownLatch介绍CountDownLatch采用减法计算;是一个同步辅助工具类和CyclicBarrier类功能类似,允许一个或多个线程等待,直到在其他线程中执行的一组操作完成。二、CountDownLatch俩种应用场景: 场景一:所有线程在等待开始信号(startSignal.await()),主流程发出开始信号通知,既执行startSignal.countDown()方法后;所有线程才开始执行;每个线程执行完发出做完信号,既执行do..._countdownluach于cyclicbarrier的用法

自动化监控系统Prometheus&Grafana_-自动化监控系统prometheus&grafana实战-程序员宅基地

文章浏览阅读508次。Prometheus 算是一个全能型选手,原生支持容器监控,当然监控传统应用也不是吃干饭的,所以就是容器和非容器他都支持,所有的监控系统都具备这个流程,_-自动化监控系统prometheus&grafana实战

React 组件封装之 Search 搜索_react search-程序员宅基地

文章浏览阅读4.7k次。输入关键字,可以通过键盘的搜索按钮完成搜索功能。_react search