机器学习(吴恩达第一课)

这篇具有很好参考价值的文章主要介绍了机器学习(吴恩达第一课)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

课程链接

第一周

1、机器学习定义

机器学习(吴恩达第一课),机器学习,人工智能

2、监督学习(Supervised learning)

从给出“正确答案”的数据集中学习

1、回归(Regression)

机器学习(吴恩达第一课),机器学习,人工智能

2、分类(Classification)

机器学习(吴恩达第一课),机器学习,人工智能
总结
机器学习(吴恩达第一课),机器学习,人工智能

3、无监督学习(Unsupervised learning)

机器学习(吴恩达第一课),机器学习,人工智能

4、线性回归模型

1.术语。
机器学习(吴恩达第一课),机器学习,人工智能
2.单变量线性回归
机器学习(吴恩达第一课),机器学习,人工智能

5、代价函数

平方误差代价函数
机器学习(吴恩达第一课),机器学习,人工智能

6、梯度下降(Gradient descent)

梯度下降算法选择不同的起点,可能会得到不同的结果,因为它得到的是一个局部最小值。

机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

1、学习率

机器学习(吴恩达第一课),机器学习,人工智能

2、用于线性回归的梯度下降

线性回归的平方误差成本函数时,成本函数没有也永远不会有多个局部最小值,它只有一个全局最小值。因为这个成本函数是一个凸函数。
机器学习(吴恩达第一课),机器学习,人工智能
梯度下降过程
机器学习(吴恩达第一课),机器学习,人工智能

第二周(多维特征)

正规方程法(只适用于线性回归)
机器学习(吴恩达第一课),机器学习,人工智能

1、特征缩放

多个变量的度量不同,数字之间相差的大小也不同,如果可以将所有的特征变量缩放到大致相同范围,这样会减少梯度算法的迭代。
特征缩放不一定非要落到[-1,1]之间,只要数据足够接近就可以。
讨论了三种特征缩放方法:
1、每个特征除以用户选择的值,得到-1到1之间的范围。
2、Mean normalization: x i = x i − μ i m a x − m i n x_i = \frac{x_i-\mu_i}{max-min} xi=maxminxiμi
3、Z-score normalization: X i = X i − μ i σ i X_i = \frac{X_i-\mu_i}{\sigma_i} Xi=σiXiμi μ i \mu_i μi表示平均值, σ i \sigma_i σi表示标准差。

特征值范围太大可能会导致梯度下降运行缓慢,所以需要进行特征缩放。

机器学习(吴恩达第一课),机器学习,人工智能

2、如何设置学习率

机器学习(吴恩达第一课),机器学习,人工智能

从小到大依次尝试,找到一个满足梯度下降的最大学习率。
机器学习(吴恩达第一课),机器学习,人工智能

3、特征工程(Feature engineering)

机器学习(吴恩达第一课),机器学习,人工智能

4、多项式回归(Polynomial regression)

上述讨论的都是线性回归(只有一次幂)
机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

第三周

了解分类问题。
逻辑回归用于 解决y为零或一的二元分类问题。

1、逻辑回归(二元分类)

机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

2、决策边界(decision boundary)

机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能
逻辑回归可以拟合相当复杂的数据
机器学习(吴恩达第一课),机器学习,人工智能

3、逻辑回归中的代价函数

事实证明,通过这种损失函数的选择,整体成本函数将是凸的,因此你可以可靠的使用梯度下降将您带到全局最小值,证明这个函数是凸的,就超过了这个代价的范围。
机器学习(吴恩达第一课),机器学习,人工智能

4、简化逻辑回归代价函数

机器学习(吴恩达第一课),机器学习,人工智能

5、实现梯度下降

逻辑回归的梯度下降
机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

6、过拟合问题(The Problem of Overfitting)

机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

7、解决过拟合

1、对抗过度拟合的第一个工具是获取更多的训练数据。
机器学习(吴恩达第一课),机器学习,人工智能
2、如果你有很多的特征,但没有足够的训练数据,那么你的学习算法也可能会过度拟合您的训练集。如果我们只选择最有用的一个特征子集,您可能发现您的模型不再过度拟合。
机器学习(吴恩达第一课),机器学习,人工智能
3、解决过度拟合的第三个选项----正则化
正则化的作用是让你保留所有的特征,它们只是防止特征产生过大的影响(这有时会导致过度拟合),顺便说一句,按照惯例,我们通常只是减小wj参数的大小,即w1~wn。是否正则化参数b并没有太大的区别,通常不这么做 。在实践中是否也正则化b应该没有什么区别。
机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

8、正则化

我们希望最小化原始成本,即均方误差成本加上额外的正则化项。所以这个新的成本函数权衡了你可能拥有的两个目标。尝试最小化第一项,并尽量减小第二项。该算法试图使参数wj保持较小,这将有助于减少过拟合。你选择的lambda值指定了相对重要性或相对权衡或你如何在这两个目标之间取得平衡。
机器学习(吴恩达第一课),机器学习,人工智能
1、如果lambda为0,您最终会拟合这条过度摆动,过于复杂的曲线,并且过度拟合
2、如果你说lambda是一个非常非常大的数字,比如lambda=10^10,那么你对右边的这个正则化项非常重视。最小化这种情况的唯一方法是确保w的所有值都非常接近于0。因此f(x)基本等于b,因此学习算法拟合水平直线和欠拟合。
 
 
 
接下来的两节,将充实如何将正则化应用于线性回归和逻辑回归,以及如何通过梯度下降训练这些模型。您将能够避免这两种算法的过度拟合。

9、用于线性回归的正则方法

机器学习(吴恩达第一课),机器学习,人工智能
机器学习(吴恩达第一课),机器学习,人工智能

10、用于逻辑回归的正则方法

机器学习(吴恩达第一课),机器学习,人工智能文章来源地址https://www.toymoban.com/news/detail-702298.html

到了这里,关于机器学习(吴恩达第一课)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 吴恩达机器学习2022-Jupyter

    在这个实验室中,您将扩展数据结构和以前开发的例程,以支持多个特性。一些程序被更新使得实验室看起来很长,但是它对以前的程序做了一些小的调整使得它可以很快的回顾。 扩展我们的回归模型例程以支持多个特性 扩展数据结构以支持多个特性 重写预测,成本和梯度

    2024年02月16日
    浏览(43)
  • 【机器学习】吴恩达课程1-Introduction

    计算机程序从经验E中学习,解决某一任务T,进行某一性能P,通过P测定在T上的表现因经验E而提高。 跳棋程序 E:程序自身下的上万盘棋局 T:下跳棋 P:与新对手下跳棋时赢的概率 给算法一个数据集,其中包含了正确答案,算法的目的是给出更多的正确答案。 (1)预测房价

    2024年02月16日
    浏览(43)
  • 吴恩达《机器学习》2-2->2-4:代价函数

    一、代价函数的概念 代价函数是在监督学习中用于评估模型的性能和帮助选择最佳模型参数的重要工具。它表示了模型的预测输出与实际目标值之间的差距,即建模误差。代价函数的目标是找到使建模误差最小化的模型参数。 二、代价函数的理解 训练集数据 :假设我们有一

    2024年02月07日
    浏览(36)
  • 关于吴恩达机器学习中反向传播的理解

    在机器学习视频反向传播章节 [1] 中: 我们用 (delta) 来表示误差,则: (boldsymboldelta^{left(4right)}=boldsymbol a^{left(4right)}−boldsymbol y) 。我们利用这个误差值来计算前一层的误差: (boldsymboldelta^{left(3right)}=left(boldsymbolTheta^{left(3right)}right)^Tboldsymboldelta^{left(4rig

    2024年02月01日
    浏览(48)
  • 吴恩达471机器学习入门课程1第3周——逻辑回归

    实施逻辑回归并将其应用于两个不同的数据集。 在这一部分中,你将建立一个逻辑回归模型来预测学生是否被大学录取。 2.1、问题描述 假设你是一所大学部门的管理员,并且想要根据每个申请人在两次考试中的成绩来确定他们被录取的机会。 你有先前申请者的历史数据,可

    2024年02月09日
    浏览(42)
  • sheng的学习笔记-【中文】【吴恩达课后测验】Course 1 - 神经网络和深度学习 - 第一周测验

    目录:目录 1.“人工智能是新电力” 这个比喻指的是什么? A. 【  】人工智能为我们的家庭和办公室的个人设备供电,类似于电力。 B. 【  】通过“智能电网”,人工智能正在传递新一波的电力。 C. 【  】人工智能在计算机上运行,因此由电力驱动,但它让计算机做以前

    2024年02月07日
    浏览(37)
  • 吴恩达机器学习2022-Jupyter-用scikitlearn实现逻辑回归

    使用 scikit-learn 培训 Logit模型模型。 下面的代码导入了 scikit-learn 的 Logit模型模型。您可以通过调用 fit 函数将此模型适合于训练数据。 输出: 通过调用预测函数,您可以看到这个模型所做的预测。 输出: 您可以通过调用 score 函数来计算这个模型的精度。 输出:

    2024年02月16日
    浏览(36)
  • 吴恩达《机器学习》6-1->6-3:分类问题、假设陈述、决策界限

    一、什么是分类问题? 在分类问题中,我们试图预测的变量𝑦是离散的值,通常表示某种类别或标签。这些类别可以是二元的,也可以是多元的。分类问题的示例包括: 判断一封电子邮件是否是垃圾邮件(二元分类) 判断一次金融交易是否涉及欺诈(二元分类) 区分肿瘤

    2024年02月05日
    浏览(43)
  • 吴恩达机器学习2022-Jupyter-用scikitlearn实现线性回归

    有一个开源的、商业上可用的机器学习工具包,叫做 scikit-learn。本工具包包含您将在本课程中使用的许多算法的实现。 您将利用 scikit-learn 以及 matplotlib 和 NumPy 中的函数。 Scikit-learn 的线性回归模型实现了一种封闭式的线性回归。 让我们使用早期实验室的数据——一栋1000平

    2024年02月16日
    浏览(41)
  • 吴恩达机器学习2022-Jupyter-Scikit-Learn教学

    有一个开源的、商业上可用的机器学习工具包,叫做 scikit-learn。本工具包包含您将在本课程中使用的许多算法的实现。 在这个实验室里: 利用 scikit-学习使用线性回归梯度下降法来实现 您将利用 scikit-learn 以及 matplotlib 和 NumPy 中的函数。 Scikit-learn 有一个梯度下降法回归模型

    2024年02月16日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包