AI-应试-机器学习公式推导与代码实现-预备

这篇具有很好参考价值的文章主要介绍了AI-应试-机器学习公式推导与代码实现-预备。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

AI-应试-机器学习公式推导与代码实现-1预备

(AI算法系列)

1知识点

  • 机器学习
  • 背景
  • 训练过程
  • 应用场景
  • 局限及挑战
  • 未来

2具体内容

2.1机器学习

  • 模型:要学习的决策函数或条件概率分布
  • 策略:决定按什么标准选最优模型-》loss
    • 分类:对数、交叉熵
    • 回归:均方
  • 算法:具体的优化求解算法:梯度下降、牛顿法、拟牛顿法

2.2 核心:从数据中最大程度归纳总结出普遍规律

  • 欠拟合:继续学

  • 过拟合:把噪声也学到了

    • 训练误差
    • 正则化(惩罚项)
    • 正则化参数的同时最小化经验误差
  • 泛化能力:最大程度拟合训练数据,对未知测试数据有好的泛化能力

  • 方法:数据采集、特征工程、算法调优

2.3流程

需求分析-数据采集(自有+爬)-数据清洗-数据分析可视化(探索性)-特征工程(选择与组合)-建模调优-展示输出(基于结果的业务决策分析)-部署上线优化(落地)

2.4性能度量

  • 分类:

    • 混淆矩阵Confusion Matrix

    • 准确率Accuracy

    • 精确率Precision(查准率):精确率针对预测结果而言,表示的是预测为正的样本中有多少是真正的正样本

    • 召回率Recall(查全率):召回率是针对原样本而言,表示的是样本中的正例有多少被预测正确了

    • 精确率Precision(查准率):精确率针对预测结果而言,表示的是预测为正的样本中有多少是真正的正样本

    • F1 Score

    • P-R曲线

    • ROC曲线

    • AUC:area under curve:ROC曲线下面积,随机挑选一个正样本及一个负样本,分类器判定正样本的值高于负样本的概率即AUC

  • 回归:

    • 平均绝对误差MAE
    • 均方误差MSE
    • 均方根误差RMSE(开根号)
    • RSquare
    • 调整RSquare

2.5工具库:

  • Numpy:数组构建、索引与切片、基础运算、维度变换和数组合并与切分
    • 创建数组
    • 索引切片
    • 基础运算
    • 维度变换
    • 合并与切分
  • Scikit-learn:模型和算法实现主要建立在NumPy、SciPy和matplotlib等Python核心库上,对主流的监督学习和无监督学习模型与算法均有较好的支持;六大模块,分类、回归、聚类、降维、模型选择、预处理;
    ###2.6模型体系:
  • 监督
    • 单模型
      • 线性模型
        • 线性回归
        • 对数几率回归logistics
        • LASSO
        • Ridge
        • LDA
      • k近邻
      • 决策树
        • ID3
        • C4.5、C5.0
        • CART
      • NN
        • 感知机
        • 神经网络
      • SVM
        • 线性可分
        • 线性支持
        • 线性不可分
    • 集成模型
      • Boosting
        • GBDT
        • AdaBoost
        • XGBoost
        • LightGBM
        • CatBoost
      • Bagging:随机森林
    • 概率模型
      • CRF
      • HMM
  • 无监督
    • 聚类
      • kNN k均值聚类
      • 层级聚类
      • 谱聚类
    • 降维
      • PCA
      • SVD
  • 概率
    • EM算法
    • MCMC
    • 贝叶斯
      • 朴素贝叶斯
      • 贝叶斯网络
    • 概率图
      • CRF
      • HMM
    • 最大信息熵

3待补充

文章来源地址https://www.toymoban.com/news/detail-436566.html

4Q&A

5code

6参考

  • https://github.com/luwill/Machine_Learning_Code_Implementation

到了这里,关于AI-应试-机器学习公式推导与代码实现-预备的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 贝塞尔曲线(Bezier Curve)原理、公式推导及matlab代码实现

    目录 参考链接 定义 直观理解  公式推导 一次贝塞尔曲线(线性公式) 二次贝塞尔曲线(二次方公式)  三次贝塞尔曲线(三次方公式) n次贝塞尔曲线(一般参数公式) 代码实现 贝塞尔曲线(Bezier Curve)原理及公式推导_bezier曲线-CSDN博客 贝塞尔曲线(Bezier Curve)原理、公

    2024年01月20日
    浏览(47)
  • 【数学建模】常用微分方程模型 + 详细手写公式推导 + Matlab代码实现

    微分方程基本概念 微分方程在数学建模中的应用 微分方程常用模型(人口增长模型、传染病模型) 2022.06.19 微分方程,是指含有未知函数及其导数的关系式。解微分方程就是找出未知函数。 微分方程是伴随着微积分学一起发展起来的。微积分学的奠基人Newton和Leibniz的著作中

    2024年02月09日
    浏览(64)
  • 机器学习之朴素贝叶斯分类器原理详解、公式推导(手推)、面试问题、简单实例(python实现,sklearn调包)

    朴素贝叶斯是一种有监督学习算法,这种算法基于贝叶斯的一个朴素的假设——每对特征和样本数据都是独立同分布的。最终可以推出朴素贝叶斯分类器的判定准则: h n b ( x ) = a r g   m a x c ∈ Υ   P ( c ) ∏ i = 1 d P ( x i   ∣   c ) h_{nb}(x)=mathop{arg max}limits_{cin varUpsilon} P(

    2024年02月08日
    浏览(47)
  • 【机器学习】07. 决策树模型DecisionTreeClassifier(代码注释,思路推导)

    『机器学习』分享机器学习课程学习笔记,逐步讲述从简单的线性回归、逻辑回归到 ▪ 决策树算法 ▪ 朴素贝叶斯算法 ▪ 支持向量机算法 ▪ 随机森林算法 ▪ 人工神经网络算法 等算法的内容。 欢迎关注 『机器学习』 系列,持续更新中 欢迎关注 『机器学习』 系列,持续

    2024年02月05日
    浏览(80)
  • 人工智能_机器学习065_SVM支持向量机KKT条件_深度理解KKT条件下的损失函数求解过程_公式详细推导_---人工智能工作笔记0105

    之前我们已经说了KKT条件,其实就是用来解决 如何实现对,不等式条件下的,目标函数的求解问题,之前我们说的拉格朗日乘数法,是用来对 等式条件下的目标函数进行求解. KKT条件是这样做的,添加了一个阿尔法平方对吧,这个阿尔法平方肯定是大于0的,那么 可以结合下面的文章去

    2024年02月04日
    浏览(40)
  • 【强化学习理论】状态价值函数与动作价值函数系列公式推导

    由于时常对状态价值函数与动作价值函数之间的定义区别、公式关系迷惑不清,此次进行梳理并作记录。 理解公式推导需要先了解基础定义中几个概念。 奖励函数 奖励函数 有两种记法。 ①记作 r ( s ) r(s) r ( s ) ,表示某状态 s s s 的奖励,指:转移到该状态时能够获得的奖励

    2024年02月10日
    浏览(47)
  • 线性回归python实现详解(附公式推导)

    1.1简单线性回归 在简单线性回归中,输入x只有一个特征,通过调整a和b的参数值,来拟合从x到y的线性关系。下图为进行拟合所需要优化的目标,也即是MES(Mean Squared Error),只不过省略了平均的部分(除以m)。 对于简单线性回归,只有两个参数a和b,通过对MSE优化目标求导

    2023年04月11日
    浏览(32)
  • 【深度学习】动手学深度学习(PyTorch版)李沐 2.4.3 梯度【公式推导】

      我们可以连接一个多元函数对其所有变量的偏导数,以得到该函数的 梯度 (gradient)向量。 具体而言,设函数 f : R n → R f:mathbb{R}^{n}tomathbb{R} f : R n → R 的输入是一个 n n n 维向量 x ⃗ = [ x 1 x 2 ⋅ ⋅ ⋅ x n ] vec x=begin{bmatrix} x_1\\\\x_2\\\\···\\\\x_nend{bmatrix} x = ​ x 1 ​ x 2 ​

    2024年01月17日
    浏览(52)
  • 机器学习&&深度学习——预备知识(上)

    深大的夏令营已经结束,筛选入营的保研er就筛选了1/3,280多的入营总人数里面双非只有30左右。 最终虽然凭借机试拿到offer了,但是我感受到了自己的明显短板,比如夏令营的舍友就都有一篇核心论文,甚至还有SCI一区一作的。 既然,学历和没过六级这件事在9月份之前都没

    2024年02月16日
    浏览(42)
  • 【第二十五课】动态规划:完全背包问题(acwing-3 / 公式推导 / 思路理解 / 优化 / c++代码)

    目录 思路 朴素代码 优化 公式推导上  二维代码  一维代码 公式理解上   在开始看完全背包问题之前,可能需要先了解01背包及其解决办法。 指路👇 【第二十五课】动态规划:01背包问题(acwing-2 / 思路 / 含一维数组优化 / c++代码) 这个问题和01背包的区别就是 每件物品可以

    2024年03月19日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包