黑马程序员机器学习Day2学习笔记_深度学习与cv入门 黑马程序员-程序员宅基地

技术标签: 算法  黑马程序员  机器学习  深度学习  KNN  贝叶斯  

回顾传统机器学习算法流程:

  • 1.获取数据
  • 2.数据处理
  • 3.特征工程
  • 4.机器学习算法训练
  • 5.模型评估

总结本章内容: 1.KNN算法用于小型数据集的分类 2.朴素贝叶斯用于特征于特征之间关系不强的算法,比如文本的分类 3.决策树算法用于大型的数据集中

一.转换器和预估器

Day1的时候我们学习了获取数据,特征工程。(Day1中我们并没有没有使用到数据处理,因为我们的数据都是来自sklearn官方的数据库,这个数据库基本都是完整的,直接调用就行了)

转换器作用: 进行特征工程的父类 (Transformer) 调用:fit_transform来完成数据的处理

需要注意的点:fit_transform = fit + transform

Fit(): Method calculates the parameters μ and σ and saves them as internal objects.

解释:简单来说,就是求得训练集X的均值啊,方差啊,最大值啊,最小值啊这些训练集X固有的属性。计算mean, std数值,可以理解为一个训练过程

Transform(): Method using these calculated parameters apply the transformation to a particular dataset.

解释:计算公式:(x-mean)/std ,在Fit的基础上,将mean和std的数值带入,进行标准化,所以transform前需要fit这一步;降维,归一化等操作(看具体用的是哪个工具,如PCA,StandardScaler等)。

实例化过程中需要注意的点,训练集x_train使用fit_transform,而测试集只需要使用transform,不用fit(因为它需要统一方差,均值这些标准)

    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test) #这里不是用fit_transform,因为要统一标准

预估器作用: 对数据进行训练的父类(estimator)

预估器,顾名思义,就说进行预测这步的函数。(我们的目的就是说输入一个东西(比如猫狗的图片),他能够进行预测这个东西是什么)

注意的点:前面转换器我们有使用fit_transform和transform,而在预估器这里,我们只使用fit,而不用transform。

模型评估: 方法1:直接比对真实值和预测值 y_predict = estimator.predict(x_test) 方法2:计算准确率,计算分数 accuracy = estimator.score(x_test, y_test)

分类问题

二. KNN算法

讲完预估器后,我们来学习一下KNN分类算法。

简单来讲,就是我越靠近谁,我就和他归为一类。

比如我们已知A,B,C,D分别为4个象限的点,我们要判断点E为哪个象限,我们就计算E到点A,B,C,D四个点的距离来判断,因为它最靠近点A,所以我们将E归为第一象限。(这是K=1的情况)

K=1就容易受到异常点的影响,如下图所示,E离第四象限的D比较近,因此我们判定E为第四象限的点。

所以K=1就容易受到异常点的影响。

因此我们一般K会适当的调整,但是如果K太大,会受到样本不均衡的影响。

我们以鸢尾花种类预测作为KNN算法的案例: 1)获取数据 2)数据集划分 3)特征工程——标准化 4)KNN预估器流程 5)模型评估

def knn_iris():
    """
    用KNN算法对鸢尾花进行分类
    :return:
    流程:
    1.获取数据
    2.数据集划分
    3.特征工程, 标准化
    4.KNN预估器流程
    5.模型评估
    """


    # 1)获取数据
    iris = load_iris()

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)#random_state 随机数种子

    # 3)特征工程:标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test) #这里不是用fit_transform,因为要统一标准
    #x_train和x_test需要使用同一个标准差和方差进行计算。fit是用于计算标准差和方差,因为要和train一致
    #因此test这里不用fit

    # 4)KNN算法预估器
    estimator = KNeighborsClassifier(n_neighbors=3#n_neighbors 就是K的数值
    #注意:这里只使用到了fit,就是相当于训练,输入训练集的输入x和训练集的目标值y
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    return None


网格搜索和交叉验证

交叉验证:即将原来的训练集再拆分成训练集和验证集

数据集本应分成三份,1.训练集,2,验证集, 3.测试集, 只不过我们一般都去掉了中间的验证集。

交叉验证多一个验证集后,我们可以通过截取不同片段作为验证集,然后通过求平均准确率作为模型的准确率。

网格搜索: 比如KNN算法,K的取值对最后评判是有影响的,我们如何选取一个最佳的结果呢? 可以使用暴力检索的方式,也就是一个一个K值去测试。我们设置一个K值表,然后一个个的去测试哪一个K值好。

def knn_iris_gscv():
    """
    用KNN算法对鸢尾花进行分类,添加网格搜索和交叉验证
    :return:
    """

    # 1)获取数据
    iris = load_iris()

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)

    # 3)特征工程:标准化
    transfer = StandardScaler()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # 4)KNN算法预估器
    estimator = KNeighborsClassifier()

    # 加入网格搜索与交叉验证
    # 参数准备
    param_dict = { "n_neighbors": [1357911]}
    estimator = GridSearchCV(estimator, param_grid=param_dict, cv=10# 验证集
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    # 最佳参数:best_params_
    print("最佳参数:\n", estimator.best_params_)
    # 最佳结果:best_score_
    print("最佳结果:\n", estimator.best_score_)
    # 最佳估计器:best_estimator_
    print("最佳估计器:\n", estimator.best_estimator_)
    # 交叉验证结果:cv_results_
    print("交叉验证结果:\n", estimator.cv_results_)

    return None

和前面KNN算法相比,就是多了GridSearchCV函数。

    # 参数准备
    param_dict = { "n_neighbors": [1357911]}
    estimator = GridSearchCV(estimator, param_grid=param_dict, cv=10# 验证集
    estimator.fit(x_train, y_train)

KNN案例:Facebook预测签到位置

算法步骤: 1.获取数据 2.数据处理(之前使用sklearn库的时候,都没有这步筛选数据这步) 3.特征工程 4.训练 5.模型评估

主要和鸢尾花KNN不同的在于,这里的数据需要自己处理

自己提的需求:选择 2<x<2.5, 1<y<1.5,一个地方的签到次数需要>3次,将时间戳转成年月日的形式

import pandas as pd
# 数据集划分
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.neighbors import KNeighborsClassifier
from sklearn.model_selection import GridSearchCV
#因为是导入csv数据文件,所以使用Pandas库来进行处理。
# 1、获取数据
data = pd.read_csv("./FBlocation/train.csv"#看你自己train.csv在哪一个文件夹中

#数据处理(筛选数据)


# 1)缩小数据范围 data.query
data = data.query("x < 2.5 & x > 2 & y < 1.5 & y > 1.0")

# 2)处理时间特征  to_datetime
time_value = pd.to_datetime(data["time"], unit="s"#将其转换成年月日

date = pd.DatetimeIndex(time_value) #要把数据插入到列表中
#将时间数据插入data中
data["day"] = date.day
data["weekday"] = date.weekday
data["hour"] = date.hour

# 3)过滤签到次数少的地点
#这里groupuby 计算的是place_id相同的, 其他row_id那些全部都是一样的数
place_count = data.groupby("place_id").count()["row_id"]
#place_count > 3 这里输出的是满足条件的布尔值,True和False
place_count[place_count > 3].head() 
data_final = data[data["place_id"].isin([place_count > 3].index.values)] #去取出place_count>3的索引,然后data[index],将那些数值取出


# 筛选特征值和目标值,将原本数据转成特征和目标值
x = data_final[["x""y""accuracy""day""weekday""hour"]]
y = data_final["place_id"]

#特征工程
x_train, x_test, y_train, y_test = train_test_split(x, y)

# 3)特征工程:标准化
transfer = StandardScaler()
x_train = transfer.fit_transform(x_train)
x_test = transfer.transform(x_test)

# 4)KNN算法预估器
estimator = KNeighborsClassifier()

# 加入网格搜索与交叉验证
# 参数准备
param_dict = { "n_neighbors": [3579]}
estimator = GridSearchCV(estimator, param_grid=param_dict, cv=3)
estimator.fit(x_train, y_train)

# 5)模型评估
# 方法1:直接比对真实值和预测值
y_predict = estimator.predict(x_test)
print("y_predict:\n", y_predict)
print("直接比对真实值和预测值:\n", y_test == y_predict)

# 方法2:计算准确率
score = estimator.score(x_test, y_test)
print("准确率为:\n", score)

# 最佳参数:best_params_
print("最佳参数:\n", estimator.best_params_)
# 最佳结果:best_score_
print("最佳结果:\n", estimator.best_score_)
# 最佳估计器:best_estimator_
print("最佳估计器:\n", estimator.best_estimator_)
# 交叉验证结果:cv_results_
print("交叉验证结果:\n", estimator.cv_results_)

朴素贝叶斯

KNN输出的是为一个答案,而朴素贝叶斯算法输出的是各个可能条件的概率。 应用:文本分类 说到底,贝叶斯就是KNN外的另一种分类算法,对于sklearn来讲,也还是一行代码解决问题

朴素贝叶斯 = 朴素 + 贝叶斯

朴素:指的是事件相互独立 贝叶斯即指贝叶斯公式:

联合概率、条件概率与相互独立

  • 联合概率:包含多个条件,且所有条件同时成立的概率 P(A, B)=P(A)P(B) P(程序员, 匀称) P(程序员, 超重|喜欢)

  • 条件概率

    P(A|B) B发生的条件下,A发生的概率 欢)

  • 相互独立:

    P(A, B) = P(A)P(B) <=> 事件A与事件B相互独立

如果样本量太小的话,计算的概率可能为0。所以加上一个拉普拉斯平滑算子。其公式如下所示

新闻分类栗子

def nb_news():
    """
    用朴素贝叶斯算法对新闻进行分类
    :return:
    """

    # 1)获取数据
    news = fetch_20newsgroups(subset="all")

    # 2)划分数据集
    x_train, x_test, y_train, y_test = train_test_split(news.data, news.target)

    # 3)特征工程:文本特征抽取-tfidf
    transfer = TfidfVectorizer()
    x_train = transfer.fit_transform(x_train)
    x_test = transfer.transform(x_test)

    # 4)朴素贝叶斯算法预估器流程
    estimator = MultinomialNB()
    estimator.fit(x_train, y_train)

    # 5)模型评估
    # 方法1:直接比对真实值和预测值
    y_predict = estimator.predict(x_test)
    print("y_predict:\n", y_predict)
    print("直接比对真实值和预测值:\n", y_test == y_predict)

    # 方法2:计算准确率
    score = estimator.score(x_test, y_test)
    print("准确率为:\n", score)

    return None

决策树

因为一个物体,他的特征不止一个。比如猫,他的耳朵,体态,颜色,尾巴这些都是他的特征。面对这么多特征,我们要如何更快速的进行判断?我们就需要对这些特征的重要性进行一个排序,先判断重要明显的特征,比如如果没有尾巴,那么这一定不是一只猫。根据特征的有用程度,进行物体的分类。这个就是决策树。

信息定义:消除随机不定性的东西。比如, 狗咬人,这个不算什么信息。人咬狗,这个信息量比较大。

信息熵

为了判断哪个参数影响更大,使用信息熵这个概念。解决了对信息的量化度量问题香农用信息熵的概念来描述信源的不确定度。

信息熵公式:

变量的不确定性越大,熵也就越大,把它搞清楚所需要的信息量也就越大. 一件事情越是确定,则他的信息熵越小。

信息增益: 当你得到这个特征后,总的信息熵的减小程度。 所以信息增益越大,所以这个特征信息越有用。 特征A对训练数据集D的信息增益g(D,A),定义为集合D的信息熵H(D)与特征A给定条件下D的信息条件熵H(D|A)差,即公式为 g(D,A)=H(D)-H(D|A)

H(D|A)的计算公式如下:

总的信息熵 - 只给特征A条件下的概率。

H(D|A)计算举个栗子: 数据集:

现在要求H(D|年龄),查看年龄对于贷款的影响。 H(D|年龄)=1/3H(青年)+1/3H(中年)+1/3H(老年)

H(青年)=-(2/5log2/5 +3/5log3/5)

H(中年)=-(2/5log2/5 +3/5log3/5)

H(老年)=-(1/5log1/5 + 4/5log4/5)

带入信息增益的公式, g(D,年龄)=H(D)-H(D|年龄)带入即可计算出各个特征的信息增益。增益越大,说明知道这个特征后,可以消除越多的不确定性。 这个特征就应当越先作为条件划分。

决策树划分依据:信息增益

决策树的优点: 可视化——可解释能力强 缺点: 决策树不能很好的推广数据的泛化能力,容易产生过拟合。


def decision_iris():
  """
  用决策树对鸢尾花进行分类
  :return:
  """

  # 1)获取数据集
  iris = load_iris()

  # 2)划分数据集
  x_train, x_test, y_train, y_test = train_test_split(iris.data, iris.target, random_state=22)

  #决策树这里不用去标准化x_train这些
  # 3)决策树预估器
  estimator = DecisionTreeClassifier(criterion="entropy")
  estimator.fit(x_train, y_train)

  # 4)模型评估
  # 方法1:直接比对真实值和预测值
  y_predict = estimator.predict(x_test)
  print("y_predict:\n", y_predict)
  print("直接比对真实值和预测值:\n", y_test == y_predict)

  # 方法2:计算准确率
  score = estimator.score(x_test, y_test)
  print("准确率为:\n", score)

  # 可视化决策树
  export_graphviz(estimator, out_file="iris_tree.dot", feature_names=iris.feature_names)

  return None

这里生成了决策树文件,可以拷贝文件内容到决策树可视化网址中生成决策树文件。

版权声明:本文为博主原创文章,遵循 CC 4.0 BY-SA 版权协议,转载请附上原文出处链接和本声明。
本文链接:https://blog.csdn.net/qq_38376586/article/details/112104982

智能推荐

分布式光纤传感器的全球与中国市场2022-2028年:技术、参与者、趋势、市场规模及占有率研究报告_预计2026年中国分布式传感器市场规模有多大-程序员宅基地

文章浏览阅读3.2k次。本文研究全球与中国市场分布式光纤传感器的发展现状及未来发展趋势,分别从生产和消费的角度分析分布式光纤传感器的主要生产地区、主要消费地区以及主要的生产商。重点分析全球与中国市场的主要厂商产品特点、产品规格、不同规格产品的价格、产量、产值及全球和中国市场主要生产商的市场份额。主要生产商包括:FISO TechnologiesBrugg KabelSensor HighwayOmnisensAFL GlobalQinetiQ GroupLockheed MartinOSENSA Innovati_预计2026年中国分布式传感器市场规模有多大

07_08 常用组合逻辑电路结构——为IC设计的延时估计铺垫_基4布斯算法代码-程序员宅基地

文章浏览阅读1.1k次,点赞2次,收藏12次。常用组合逻辑电路结构——为IC设计的延时估计铺垫学习目的:估计模块间的delay,确保写的代码的timing 综合能给到多少HZ,以满足需求!_基4布斯算法代码

OpenAI Manager助手(基于SpringBoot和Vue)_chatgpt网页版-程序员宅基地

文章浏览阅读3.3k次,点赞3次,收藏5次。OpenAI Manager助手(基于SpringBoot和Vue)_chatgpt网页版

关于美国计算机奥赛USACO,你想知道的都在这_usaco可以多次提交吗-程序员宅基地

文章浏览阅读2.2k次。USACO自1992年举办,到目前为止已经举办了27届,目的是为了帮助美国信息学国家队选拔IOI的队员,目前逐渐发展为全球热门的线上赛事,成为美国大学申请条件下,含金量相当高的官方竞赛。USACO的比赛成绩可以助力计算机专业留学,越来越多的学生进入了康奈尔,麻省理工,普林斯顿,哈佛和耶鲁等大学,这些同学的共同点是他们都参加了美国计算机科学竞赛(USACO),并且取得过非常好的成绩。适合参赛人群USACO适合国内在读学生有意向申请美国大学的或者想锻炼自己编程能力的同学,高三学生也可以参加12月的第_usaco可以多次提交吗

MySQL存储过程和自定义函数_mysql自定义函数和存储过程-程序员宅基地

文章浏览阅读394次。1.1 存储程序1.2 创建存储过程1.3 创建自定义函数1.3.1 示例1.4 自定义函数和存储过程的区别1.5 变量的使用1.6 定义条件和处理程序1.6.1 定义条件1.6.1.1 示例1.6.2 定义处理程序1.6.2.1 示例1.7 光标的使用1.7.1 声明光标1.7.2 打开光标1.7.3 使用光标1.7.4 关闭光标1.8 流程控制的使用1.8.1 IF语句1.8.2 CASE语句1.8.3 LOOP语句1.8.4 LEAVE语句1.8.5 ITERATE语句1.8.6 REPEAT语句。_mysql自定义函数和存储过程

半导体基础知识与PN结_本征半导体电流为0-程序员宅基地

文章浏览阅读188次。半导体二极管——集成电路最小组成单元。_本征半导体电流为0

随便推点

【Unity3d Shader】水面和岩浆效果_unity 岩浆shader-程序员宅基地

文章浏览阅读2.8k次,点赞3次,收藏18次。游戏水面特效实现方式太多。咱们这边介绍的是一最简单的UV动画(无顶点位移),整个mesh由4个顶点构成。实现了水面效果(左图),不动代码稍微修改下参数和贴图可以实现岩浆效果(右图)。有要思路是1,uv按时间去做正弦波移动2,在1的基础上加个凹凸图混合uv3,在1、2的基础上加个水流方向4,加上对雾效的支持,如没必要请自行删除雾效代码(把包含fog的几行代码删除)S..._unity 岩浆shader

广义线性模型——Logistic回归模型(1)_广义线性回归模型-程序员宅基地

文章浏览阅读5k次。广义线性模型是线性模型的扩展,它通过连接函数建立响应变量的数学期望值与线性组合的预测变量之间的关系。广义线性模型拟合的形式为:其中g(μY)是条件均值的函数(称为连接函数)。另外,你可放松Y为正态分布的假设,改为Y 服从指数分布族中的一种分布即可。设定好连接函数和概率分布后,便可以通过最大似然估计的多次迭代推导出各参数值。在大部分情况下,线性模型就可以通过一系列连续型或类别型预测变量来预测正态分布的响应变量的工作。但是,有时候我们要进行非正态因变量的分析,例如:(1)类别型.._广义线性回归模型

HTML+CSS大作业 环境网页设计与实现(垃圾分类) web前端开发技术 web课程设计 网页规划与设计_垃圾分类网页设计目标怎么写-程序员宅基地

文章浏览阅读69次。环境保护、 保护地球、 校园环保、垃圾分类、绿色家园、等网站的设计与制作。 总结了一些学生网页制作的经验:一般的网页需要融入以下知识点:div+css布局、浮动、定位、高级css、表格、表单及验证、js轮播图、音频 视频 Flash的应用、ul li、下拉导航栏、鼠标划过效果等知识点,网页的风格主题也很全面:如爱好、风景、校园、美食、动漫、游戏、咖啡、音乐、家乡、电影、名人、商城以及个人主页等主题,学生、新手可参考下方页面的布局和设计和HTML源码(有用点赞△) 一套A+的网_垃圾分类网页设计目标怎么写

C# .Net 发布后,把dll全部放在一个文件夹中,让软件目录更整洁_.net dll 全局目录-程序员宅基地

文章浏览阅读614次,点赞7次,收藏11次。之前找到一个修改 exe 中 DLL地址 的方法, 不太好使,虽然能正确启动, 但无法改变 exe 的工作目录,这就影响了.Net 中很多获取 exe 执行目录来拼接的地址 ( 相对路径 ),比如 wwwroot 和 代码中相对目录还有一些复制到目录的普通文件 等等,它们的地址都会指向原来 exe 的目录, 而不是自定义的 “lib” 目录,根本原因就是没有修改 exe 的工作目录这次来搞一个启动程序,把 .net 的所有东西都放在一个文件夹,在文件夹同级的目录制作一个 exe._.net dll 全局目录

BRIEF特征点描述算法_breif description calculation 特征点-程序员宅基地

文章浏览阅读1.5k次。本文为转载,原博客地址:http://blog.csdn.net/hujingshuang/article/details/46910259简介 BRIEF是2010年的一篇名为《BRIEF:Binary Robust Independent Elementary Features》的文章中提出,BRIEF是对已检测到的特征点进行描述,它是一种二进制编码的描述子,摈弃了利用区域灰度..._breif description calculation 特征点

房屋租赁管理系统的设计和实现,SpringBoot计算机毕业设计论文_基于spring boot的房屋租赁系统论文-程序员宅基地

文章浏览阅读4.1k次,点赞21次,收藏79次。本文是《基于SpringBoot的房屋租赁管理系统》的配套原创说明文档,可以给应届毕业生提供格式撰写参考,也可以给开发类似系统的朋友们提供功能业务设计思路。_基于spring boot的房屋租赁系统论文