机器学习基础(粗学)【未完待续】

这篇具有很好参考价值的文章主要介绍了机器学习基础(粗学)【未完待续】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

卷积神经网络粗学

数学卷积(信号)

卷积:用卷积求系统的存量
机器学习基础(粗学)【未完待续】

卷积,就是把输出函数反转一下。。。。(离谱)

实际不是从物理意义上理解的函数翻转,而是应该从数学意义上,去理解卷积的意义。

在定义卷积时为什么要对其中一个函数进行翻转? - 中微子的回答 - 知乎

图像卷积

图像的卷积操作:图像元素与卷积核一一对应相乘后,相加

f-图像本身,因为图像的像素点是不同的(相当于是系统不稳定的输入)

g-卷积核,因为卷积核是固定的,但g并不是稳定的输出,但g函数是旋转180度之后,才是图像的卷积核

因为f(x,y)*g(m,n) = f(x,y)×g(m-x,n-y),这里的f,和g之间,成相反关系,而卷积核是按顺序对像素点相乘连加
机器学习基础(粗学)【未完待续】

但其实我有个很大困惑,这里似乎根本不需要卷积,只要进行相关函数的计算就可以了
其实,也就是f(x,y)乘g(x-m,y-n)——跟卷积公式很像,很像,很像。

卷积核:设置周围像素点,对当前像素点的影响效果

例如,如果是下列的卷积核,则中间的像素点则等于周围【像素点】的累加可得,这样的效果,是使得中间像素点与周围像素点更均匀平滑,因此成为平滑卷积操作。
机器学习基础(粗学)【未完待续】

卷积操作,是处理一个像素点与周围像素点的关系

但不同的卷积核,可以有不同的作用,可以把周围有用的特征值保留下来。

因此,在使用神经网络对这些特征进行判断后,可以对图像进行分类等智能操作。

机器学习零碎学

感知机:分类工具,线性分类问题

线性函数+判断函数(激活函数、逻辑回归函数)

机器学习基础(粗学)【未完待续】

机器学习基础流程

  1. 建立模型:构造函数模型
  2. 学习模型:将数据应用于模型计算,并不断地根据计算结果,完善模型
  3. 使用模型:将学习后的模型(即训练好的模型),进行实际应用

机器学习的流程,就像是做菜-菠萝炒鸡。

👉建立模型,就像是根据目标,凭经验设计一个做菜的固定步骤。

  • 开火
  • 烧油
  • 放菜
  • 放盐
  • 关火

虽然知道需要什么材料,但这个过程需要多少油,多少盐,多少火力,煮多久——无从知晓!
所以,建立模型时,只知道需要锅碗瓢盆油盐酱醋这些参数,但却不知道参数是多少!!!

👉学习模型,就像是一个鲁莽的菜鸟厨师。
它菜就菜在,不知道这些材料,都需要放多少量(即它也不知道放多少油盐酱醋才好吃)
它莽就莽在,不管三七二十一,先按这个步骤随便放初始量的材料,直接开炒!
每次炒的结果,都由一个试吃小白鼠去尝,如果小白鼠摇摇头不满意,鲁莽的菜鸟厨师就稍微调整一下材料用量

俗话说的好,不怕莽夫莽,就怕莽夫坚持不懈地莽下去。——我人有多俗,这话就有多俗,因为这话就是我这个俗人说的。。。

炒的次数多了,这个材料量自然就会慢慢调整好,小白鼠总有一天会拍灯,为你转身!
于是,鲁莽的菜鸟厨师,经过坚持不懈的尝试与改进,终于含泪掌握了菠萝炒鸡的配方。

其实有点儿“暴力破解法”的思想,就是,我也不知道你什么答案,但我一个个试,总能试出最佳答案!

👉使用模型,就像是鲁莽的菜鸟厨师,拿着配方出去开饭店了!

预测 与分类的关系(个人理解)

分类问题,本质上也是一种预测问题。

预测,可预测实值,也可预测类别。

预测实值可通过线性回归模型,预测出线性的实际数值。

但当预测某个数据的类别(例如男女、老少等非连续的离散值)时,则变为了人们常说的分类问题。

因此,如果非要对预测、分类进行一个严格区分:

『 预测问题是对线性连续值的预测,分类问题是对非线性值的预测 』

1. 建立模型:针对数据集及任务要求,建立函数模型

预测问题:一般采用线性回归模型。

求解线性回归模型参数,即是学习模型的过程

常见的线性回归函数:一元线性回归【y = wx + b】、多元线性回归【y=】

分类问题:通常是引入非线性函数(激活函数),对线性回归结果进行非线性加工计算。

常见的激活函数有逻辑回归

具体的激活函数σ有多种,常见的有sigmoid函数(也叫逻辑回归函数)、Relu函数、softmax函数等。

机器学习基础(粗学)【未完待续】

(sigmoid与softmax实际相通,解释不同)

线性回归预测的结果值,经过逻辑回归,可实现分类效果。

总结来看:

如果要求实现预测,需建立线性回归模型。
如果要求实现分类,需建立逻辑回归模型。

2. 学习模型:求解最优模型

选择损失函数
模型效果如何,是通过判断当前模型计算结果与实际结果拟合程度,拟合效果可通过损失函数来计算。

损失函数:用于判断模型效果。

损失函数有多种,常见的有三种:最小二乘法、极大似然估计法、交叉熵法。

即对应:平方损失函数(最小二乘法)、交叉熵损失函数(极大似然估计法、交叉熵法)

认识常用损失函数:

① 最小二乘法(模型计算结果与实际结果差值的平方和)

Loss = (模型计算结果-实际结果)的平方和

平方损失函数值越小,模型越优

② 极大似然估计法——(即交叉熵法,解释角度不同,但公式相同)

似然值:每个模型下发生的概率,叫做似然值。当似然值越大,表示该概率模型与实际结果概率的分布更接近。

极大似然估计法,就是在挑出似然值越大的那个概率模型。

Loss =

似然值(交叉熵)越大,模型越优。

总结来看:

最小二乘法(平方损失函数值越小,模型越优)

极大似然估计法(似然值越大,模型越优)

计算损失函数的值,并更新模型参数
模型与实际模型的拟合程度通过损失函数计算可得,而损失函数的计算通常有以下两种方法:

求出解析解,得到精确模型——数学计算求极值
求出近似解,逼近较优模型——梯度下降法、牛顿法…

① 求出解析解,更新模型参数

解析法求线性回归(可换为逻辑回归)的平方损失函数极小值

但使用解析法求出线性回归的平方损失函数极小值的前提是,是满秩矩阵

(数据集内容不同,结果可能满秩,也可能不满秩,因此最小二乘法在数据量过大数据内容不确定情况,有可能无法使用最小二乘法,可采用L2正则化进行优化【此知识点难度较大,待更新】,或是数量级差距过大,最小二乘法得出的结果偏差过大)

解析法求交叉熵损失函数的极大值(求解似然最大值)

对交叉熵损失函数求导,使导数为0,计算极值(具体不作详解)

计算平方损失函数、或是交叉熵损失函数的极值后,得到模型参数,即可更新为最终模型。

解析法难以应对大批量的数据集计算,因此实际常用求近似解,逼近较优模型的方式。

② 求出近似解,更新模型参数

求出近似解-梯度下降法:

使用梯度下降法,求解损失函数的值,多次迭代计算出损失函数的值。

停止迭代的方式有两种:

①设置损失函数的阈值,当损失函数小于某阈值,即停止迭代

②设置迭代的次数,当迭代次数超过时,即停止迭代(迭代会收敛,迭代次数越多,则越逼近极值)

多次迭代过程中,不断更新模型参数,使模型在迭代过程中逐渐变优。

牛顿法:

(正在学习中,涉及较多,待更新)

多层神经网络的浅显认识
上述是对单层神经网络的模型进行迭代,更新模型参数。

但当涉及多层神经网络时,中间含有较多隐含层,要如何更新各层模型的参数呢?

若是要训练多层神经网络,可考虑误差反向传播法:

计算当前模型的预测值与实际值的误差,根据误差值反向计算各层的参数

模型优劣指标:R方

R² = ,R²值越大,表示模型越好

当SST = SSR + SSE时,有R² =

SSR:回归值与实际均值的方差,表示线性模型的波动,即回归模型的x变量对实际y变量的相关性程度

SST:实际值与实际均值的方差,表示实际模型的波动,即实际模型的x变量对实际y变量的相关性程度

SSE:实际值与回归值的方差,表示线性模型的回归值对实际模型的值的拟合程度。

这里的SST = SSR + SSE等式之所以成立,是因为有个重要的前提就是拟合值最小,所以我们才可以用两式联立进行求解。如果没有这个条件,即拟合过程中没有取得最值,这个结论是不能保证成立的。

原文链接:https://blog.csdn.net/weixin_43145361/article/details/103546382

为什么不用SSE而用R²来作为模型评价指标?
R² =

因为,SSE一般用于表示回归值与实际值的误差,当SSE越小,可以说明,回归模型可以更好地拟合当前实际数据,但不代表回归模型就是好的。

还需要引进变量x与实际值y之间的相关关系判断。

当实际值与实际均值的差距不大(即SST很小时),我们认为变量x与实际值并没有太大相关性,才导致实际值与均值差距不大。

变量与值相关性不强的模型,即使拟合程度很好,也无法更好地根据变量x进行预测。

因此判断一个模型是否为好的模型,并不应该只是判断它的回归值与实际值的拟合程度,还应该根据实际数据(变量与值)之间的相关性进行综合判断。

相关性不强的数据,进行回归分析

R² = SSR/SST,但SST≠SSR+SSE

R²很小

相关性较强的数据,进行回归分析

R²较大,说明模型较好

【以上均个人理解】文章来源地址https://www.toymoban.com/news/detail-441268.html

到了这里,关于机器学习基础(粗学)【未完待续】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【未完待续】综述:用于视频分割(Video Segmentation)的深度学习

    A Survey on Deep Learning Technique for Video Segmentation 本文回顾视频分割的两条基本研究路线:视频目标分割(object segmentation)和视频语义分割(semantic segmentation)。本文介绍它们各自的task setting、背景概念、感知需求、发展历史以及主要挑战。本文详细概述相关的方法和数据集的代

    2024年02月02日
    浏览(48)
  • 给深度学习研究生的入门建议(未完待续ing)

    诸神缄默不语-个人CSDN博文目录 本文将系统性介绍深度学习方向(准)研究生可供参考的入门建议。 我的背景是浙江大学人工智能专业在读硕士,研究方向是GNN、NLP、司法智能。 (我的CSDN博文基本涵盖了我所有的深度学习知识,建议参考) 选专业、选学校、选导师之类心态

    2023年04月24日
    浏览(63)
  • SCI一区论文阅读小结之深度学习在气象领域应用(未完待续)

    最近文献调研,发现一个研究相近的师兄最近发的几篇文章给的启发性很高,阅读文献的同时也对这几篇文章做个总结,以防自己忘记,也分享给大家。 首先,甩出这位大佬的RG: https://www.researchgate.net/profile/Xuan-Tong-3/research 最近的研究都是将深度学习应用到气象领域的,比如

    2024年02月21日
    浏览(37)
  • 机器学习——支持向量机(数学基础推导篇【未完】)

    在一个周日下午,夏天的雨稀里哗啦地下着 我躺在床上,捧着ipad看支持向量机 睡了好几个觉…支持向量机太好睡了 拉格朗日乘数法太好睡了 几何函数太好睡了 在我看来,支持向量机是目前学下来,最难以理解的内容 希望日后不要太难…脑子不支持的 支持向量积的原理,

    2024年02月12日
    浏览(95)
  • 前端基础(CSS)——css介绍 & 常用样式 & 案例—进化到Bootstrap——进化到Element-UI(未完待续)

    css是什么,层叠样式表, css作用:让html网页有布局,变漂亮 参考w3school 以p标签为例, 序号 位置 优先级 1 写在p标签内 最高 2 写在style内 第二 3 写在link内 最低 (1)标签选择器—div{} 标签选择器,选择html文档中所有的div,对所有的div进行设置 (2)id选择器----#div01{} 符号

    2024年02月08日
    浏览(59)
  • Verilog(未完待续)

    Verilog教程 这个教程写的很好,可以多看看。本篇还没整理完。 什么是FPGA?一种可通过编程来修改其逻辑功能的数字集成电路(芯片) 与单片机的区别?对单片机编程并不改变其地电路的内部结构,只是根据要求实现的功能来编写运行的程序(指令)。 举例:单片机就两个

    2024年03月19日
    浏览(55)
  • Vivado使用记录(未完待续)

    字体大小修改:Setting、Font Quick Start 组包含有 Create Project(创建工程)、 Open Project(打开工程)、 Open Example Project(打开实例工程)。 Tasks 组包含有 Manage IP(管理 IP)、 Open Hardware Manager(打开硬件管理器)、 Xilinx Tcl Store( Tcl 脚本存储库)。 Learning Center 组包含有 Documen

    2024年03月09日
    浏览(46)
  • [DASCTF7月赛](未完待续~)

    misc Coffee desu! hint1: Strange Protocol 经过搜索,发现这个是一种恶搞协议: 自定义了一些请求方式 结合首页英文: 我们需要使用 BREW 向服务器添加 milktea 返回: 这个协议定义了: Accept-Additions 头,于是我们添加上: milktea [外链图片转存失败,源站可能有防盗链机制,建议将图片保

    2024年02月16日
    浏览(40)
  • 卫星下行链路预算模型(未完待续)

    1. 接收端天线模型 简单一些,考虑地球同步卫星多波束通信系统,波束指向固定。波束数量为 N b N_b N b ​ . 波束中心在地面的位置可以用经度向量和纬度向量表示: P ⃗ l g = [ l 1 , l 2 , . . . , l N b ] P ⃗ l a = [ a 1 , a 2 , . . . , a N b ] vec{P}_{lg} = [l_1, l_2,...,l_{N_b}] \\\\ vec{P}_{la} = [a_

    2024年02月03日
    浏览(39)
  • PHP复习资料(未完待续)

    特别鸣谢:@NLER提供雨课堂数据 (未完待续,请持续关注此板块) 【计科三四】雪课堂PHP期末模拟题:https://ks.wjx.top/vm/tUAmjxq.aspx# 【计科一二】PHP第一章练习题 https://ks.wjx.top/vm/QnjHad4.aspx# 【计科一二】PHP第二章练习题 https://ks.wjx.top/vm/h2FvEVI.aspx# 【计科一二】PHP第三章练习题

    2024年02月07日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包