笔记汇总 | 斯坦福 CS229 机器学习

这篇具有很好参考价值的文章主要介绍了笔记汇总 | 斯坦福 CS229 机器学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

本文为斯坦福大学 CS229 机器学习课程学习笔记

本文主体部分转载自黄海广博士,文末已给出链接,大家有兴趣可以直接访问笔记首页,下载对应课程资料及作业代码

课程官网:CS229: Machine Learning (stanford.edu)

课程视频:Stanford CS229: Machine Learning Course, Lecture 1 - Andrew Ng (Autumn 2018) - YouTube

笔记汇总:笔记汇总 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客

课程

全部课程
第1周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第2周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第3周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第4周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第5周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第6周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第7周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第8周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第9周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客
第10周 | 斯坦福 CS229 机器学习_ReturnTmp的博客-CSDN博客

参考文章

fengdu78/Coursera-ML-AndrewNg-Notes: 吴恩达老师的机器学习课程个人笔记 (github.com) 详细版

bighuang624/Andrew-Ng-Machine-Learning-notes: 吴恩达《机器学习》课程笔记 (github.com) 精简版

推荐阅读

Stanford CS229: Machine Learning - CS自学指南 (csdiy.wiki)

ShowMeAI-Hub/awesome-AI-courses-notes-cheatsheets: 知识点笔记与速查表 (github.com)

吴恩达《深度学习》系列课程笔记 (kyonhuang.top)

scruel/Notes-ML-AndrewNg: Coursera吴恩达机器学习课程笔记及资源整理 (github.com)文章来源地址https://www.toymoban.com/news/detail-623791.html

到了这里,关于笔记汇总 | 斯坦福 CS229 机器学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Vicuna:斯坦福开源一个性能相当于90%ChatGPT的聊天机器人

    自从Meta公司发布LLaMA以来,围绕它微调和开发的模型越来越多,这得益于它的性能和效果,2023年3月份发布的草泥马(Alpaca)是由Meta的LLaMA 7B微调而来的全新模型,仅用了52k数据,性能约等于GPT-3.5。斯坦福发布了一个由LLaMA 7B微调的模型Alpaca(羊驼),训练3小时,性能比肩

    2024年02月10日
    浏览(29)
  • 大模型机器人发展史:从VoxPoser、RT2到斯坦福Mobile ALOHA、Google机器人

    23年7月,我在朋友圈评估Google的RT2说道: “大模型正在革新一切领域啊,超帅,通过大模型不仅能理解“人话”,还能对“人话”进行推理,并转变为机器人能理解的指令,从而分阶段完成任务。回头仔细看下论文” 当时便对大模型机器人印象深刻,一直想仔细研究下来着

    2024年02月02日
    浏览(34)
  • 《斯坦福数据挖掘教程·第三版》读书笔记(英文版) Chapter 6 Frequent Itemsets

    来源:《斯坦福数据挖掘教程·第三版》对应的公开英文书和PPT The market-basket model of data is used to describe a common form of many-many relationship between two kinds of objects. On the one hand, we have items , and on the other we have baskets, sometimes called “ transactions .” Each basket consists of a set of items (an items

    2024年02月06日
    浏览(42)
  • 《斯坦福数据挖掘教程·第三版》读书笔记(英文版)Chapter 11 Dimensionality Reduction

    来源:《斯坦福数据挖掘教程·第三版》对应的公开英文书和PPT Let M be a square matrix. Let λ be a constant and e a nonzero column vector with the same number of rows as M . Then λ is an eigenvalue of M and e is the corresponding eigenvector of M if M e = λ e Me = λe M e = λ e . Start with any unit vector v of the appropriate lengt

    2024年02月07日
    浏览(35)
  • 《斯坦福数据挖掘教程·第三版》读书笔记(英文版)Chapter 12 Large-Scale Machine Learning

    来源:《斯坦福数据挖掘教程·第三版》对应的公开英文书和PPT Algorithms called “machine learning” not only summarize our data; they are perceived as learning a model or classifier from the data, and thus discover something about data that will be seen in the future. The term unsupervised refers to the fact that the input data does

    2024年02月10日
    浏览(35)
  • 《斯坦福数据挖掘教程·第三版》读书笔记(英文版) Chapter 2 MapReduce and the New Software Stack

    来源:《斯坦福数据挖掘教程·第三版》对应的公开英文书和PPT Computing cluster means large collections of commodity hardware, including conventional processors (“ compute nodes ”) connected by Ethernet cables or inexpensive switches . The software stack begins with a new form of file system, called a “ distributed file system ,”

    2024年02月04日
    浏览(35)
  • LLaMA模型微调版本:斯坦福 Alpaca 详解

    项目代码:https://github.com/tatsu-lab/stanford_alpaca 博客介绍:https://crfm.stanford.edu/2023/03/13/alpaca.html Alpaca 是 LLaMA-7B 的微调版本,使用Self-instruct[2]方式借用text-davinct-003构建了52K的数据,同时在其构建策略上做了一些修改。 性能上作者对Alpaca进行了评估,与openai的text-davinct-003模型在

    2024年02月16日
    浏览(26)
  • 【LLM系列】00:斯坦福 Alpaca 模型介绍及其复现

    西风吹老洞庭波,一夜湘君白发多。醉后不知天在水,满船清梦压星河。小伙伴好,我是微信公众号《小窗幽记机器学习》的小编:卖核弹的小女孩。更多、更新文章欢迎关注微信公众号:小窗幽记机器学习。后续会持续输出模型推理加速、工程部署、LLM、AI艺术等系列,敬

    2024年02月13日
    浏览(35)
  • 自驱力超强的羊驼?斯坦福微调LLaMa

    大型“指令调优”语言模型在新任务上展现了Zero-shot的卓越能力,但严重依赖于人类编写的指令数据,而这些数据在数量、多样性和创造性方面都是有限的。 斯坦福科研人员引入了self-instruction框架,提高指令遵循能力来自我迭代进化,与InstructGPT的性能相当,相比原始GPT3提

    2024年02月09日
    浏览(31)
  • 斯坦福2023【FrugalGPT】减少大模型的商业化应用成本

    FrugalGPT: How to Use Large Language Models While Reducing Cost and Improving Performance 这篇文章主要是要解决如何降低调用大语言模型的成本(ChatGPT)。大模型API调用成本主要是三方面的:1. prompt cost(输入的prompt);2. generation cost(输出的部分);3. 每次调用的固定开销(网费等)。不用的模型之前的

    2024年02月06日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包