机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10

这篇具有很好参考价值的文章主要介绍了机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Day 10 Genaral GUidance

这节课主要介绍机器学习和深度学习任务中常见的问题分类以及相应的解决之道
机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

这张图总体的概述了一个任务中的大小坎坷,不认得英文? 去Google吧~

training Loss 不够的case

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

Loss on Testing data

over fitting

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

为什么over fitting 留到下下周哦~~ 期待

solve

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

CNN卷积神经网络

Bias-Conplexiy Trade off

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

cross Validation

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

how to split?

N-fold Cross Validation

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

mismatch

机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10,机器学习与深度学习,机器学习,深度学习,笔记

这节课总体听下来比较轻松,二倍速一路刷过去了,看看明天的课还会不会这么轻松吧哈哈,期待,今天实操了一下线性回归的东西 还不错有意思~文章来源地址https://www.toymoban.com/news/detail-854764.html

到了这里,关于机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习李宏毅学习笔记37

    ChatGPT简单原理介绍 Chatgpt以句子为输入,输出这个句子后面接的词汇的概率分布,给每一个可能的符号一个概率,根据这个分布进行sample,每次sample出来的词汇可能都是不一样的,所以答案每次也都不相同。把输出的词汇加在输入给gpt的句子后面,重复上面的过程,直到最后

    2024年02月16日
    浏览(40)
  • 机器学习李宏毅学习笔记39

    大模型+大资料 大模型的顿悟时刻 随数据量增加,模型可以从量变达到质变,从某一刻开始突然学会东西。 当成为大模型时,分数会从0,0突然变成100,完成“顿悟”. 横轴表示分布中产生答案的概率(信心分数),纵轴表示答案正确的概率。可以发现小模型的信心分数跟答案

    2024年02月14日
    浏览(75)
  • 机器学习李宏毅学习笔记33

    神经网络压缩(一) 类神经网络剪枝(pruning) 简化模型,用比较少的参数,但让效能差不多,这就是network compression这件事。有些情况下需要把模型用在resource constrain(资源有限)的情况下,比如说跑在智能手表上、小型无人机上等等。只有比较少的内存和计算能力,这时就

    2024年02月11日
    浏览(88)
  • 李宏毅深度学习self-attentin学习笔记

    self-attention初始也是用于解决 seq2seq 的问题。即input是一堆序列,而output也是一段长度固定或者不固定的序列值。和RNN比较类似。多说一句,从2022年开始李宏毅老师的机器学习课程中已经删除了有关RNN和LSTM的相关内容,因为self-attention完全可以替代RNN,且效果更好。 注意力的

    2024年02月09日
    浏览(35)
  • 机器学习笔记:李宏毅 stable diffusion

     ①:文字变成向量  ②:喂入噪声+文字encoder,产生中间产物  ③:decoder 还原图片  这张图越往右下表示效果越好,可以看到text encoder尺寸越大,对后续生成图片的增益越多  现有一个训练好的CNN 模型,可以生成真实影像和生成图像的representation 这两组表征的分布越近,效

    2024年02月13日
    浏览(53)
  • 李宏毅机器学习课程笔记(更新ing)

    basic Why deep not fat model? 当需要拟合的pattern复杂度很高时,deep model需要的参数量远低于fat model(指数组合与线性组合)。 另外当pattern复杂且有规律时(语音、图像、NLP),deep model通常表现好于fat model。 CNN 为什么AlphaGo可以用CNN?棋盘抽象成图片时需要注意什么? 首先图片有

    2024年02月10日
    浏览(41)
  • 李宏毅机器学习笔记:结构学习,HMM,CRF

    什么是Seq2Seq问题呢?简单来说,就是输入是一个序列,输出也是一个序列。输入和输出的序列可以相等,也可以不相等。在本文中,可以先假设输入输出序列相等。 这里用了一个通俗易懂的例子来解释HMM模型,POS tagging,词性标注。 PN表示专有名词Proper Noun V表示动词 D 定冠

    2024年02月11日
    浏览(42)
  • 机器学习笔记:李宏毅chatgpt 大模型 & 大资料

    Emergent Abilities of Large Language Models,Transactions on Machine Learning Research 2022 模型的效果不是随着模型参数量变多而慢慢变好,而是在某一个瞬间,模型“顿悟”了 这边举的一个例子是,比如让模型回答鸡兔同笼问题  一开始小模型什么都学不到,故而效果不好  随着模型参数量增

    2024年02月13日
    浏览(54)
  • 李宏毅机器学习笔记:RNN循环神经网络

    例如情景补充的情况,根据词汇预测该词汇所属的类别。这个时候的 Taipi 则属于目的地。但是,在订票系统中, Taipi 也可能会属于出发地。到底属于目的地,还是出发地,如果不结合上下文,则很难做出判断。因此,使用传统的深度神经网络解决不了问题,必须引入RNN。 如

    2024年02月10日
    浏览(52)
  • 机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略

    “各个击破”——一个一个生成出来 一步到位,全部生成出来  两种策略 策略1:始终生成固定长度(比如100),如果出现end,那么end后面的部分直接扔掉 策略2:首先输出一个数字n,表示之后我们要输出多长,然后输出n长度的句子    一般文字相关的任务考虑“各个击破”

    2024年02月13日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包