【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数

这篇具有很好参考价值的文章主要介绍了【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

无监督学习

无监督学习是指在没有标签的数据上进行学习,即没有监督信号的指导下进行模型训练。在无监督学习中,我们主要关注从无标签数据中学习出数据的低维结构和隐藏的模式。

通过无标签数据,我们可以预测以下内容:

  1. 低维结构:通过无监督学习算法如主成分分析(PCA),我们可以发现数据中的主要变化方向和低维表示,帮助我们理解数据的内在结构和进行数据降维。
  2. 集群结构:通过聚类算法如K均值聚类或层次聚类,我们可以将无标签数据划分为不同的组或类别,从而发现数据中的集群结构。
  3. 关联规则:通过关联规则挖掘算法如Apriori算法或FP-growth算法,我们可以发现数据中的频繁项集和关联规则,揭示不同特征之间的关联关系。

聚类(Clustering)

• 将数据对象分组为子集或“簇”:

  • 簇内具有高相似性
  • 簇间具有低相似性

• 聚类是一项常见而重要的任务,在科学、工程、信息科学和其他领域中都有广泛的应用:

  • 对具有相同功能的基因进行分组
  • 对具有相似政治观点的个体进行分组
  • 对具有相似主题的文档进行分类
  • 从图片中识别相似的对象

【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数

输入:输入点的训练集
输出:将每个点分配到一个簇中
其中 D t r a i n = { x 1 , . . . , x n } Dtrain = \{x1, ..., xn\} Dtrain={x1,...,xn}为输入点的训练集
( C ( 1 ) , . . . , C ( n ) ) (C(1), ..., C(n)) (C(1),...,C(n)) 为将每个点分配到的簇,其中 C ( i ) C(i) C(i) 属于 { 1 , . . . , k } \{1, ..., k\} {1,...,k} 表示第 i 个点所属的簇。

K-means聚类(K-means clustering)

K-means的目标是最小化所有数据点与其所属簇中心点之间的欧氏距离的平方和。

K-means的算法过程如下:

  1. 随机选择K个初始簇中心点(质心)。
  2. 将每个数据点分配到与其最近的簇中心点所对应的簇。
  3. 更新每个簇的中心点为该簇中所有数据点的平均值。
  4. 重复步骤2和步骤3,直到簇中心点不再发生明显变化或达到预定的迭代次数。

K-means损失函数

x \textbf{x} x为样本, μ C ( j ) μ_{C(j)} μC(j)表示某个簇 C ( j ) C(j) C(j)的中心,
下式表示将 x j x_j xj分到 C ( j ) C(j) C(j)这个簇上时,到簇中心 μ C ( j ) μ_{C(j)} μC(j)的欧式距离求和
【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数

目标函数

找到如何划分簇 C C C、如何选择簇中心 μ μ μ,使得每个簇的样本到簇中心的欧氏距离和最小
【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数

策略:交替最小化

  • 步骤1:如果知道聚类中心,可以找到最佳 C C C

    • 固定 μ μ μ,优化 C C C
      【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数
      将每个点指定给最近的聚类中心
  • 步骤2:如果知道集簇分配 C C C,可以找到最好的聚类中心 μ μ μ文章来源地址https://www.toymoban.com/news/detail-496999.html

    • 固定 C C C,优化 μ μ μ
      【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数
      解决方案:第 i i i个簇中选择该簇所有点的平均值重新作为簇中心,正好是步骤2(重新选择聚类中心)

到了这里,关于【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【机器学习】K-means聚类算法:原理、应用与优化

    一、引言 1、简述聚类分析的重要性及其在机器学习中的应用   聚类分析,作为机器学习领域中的一种无监督学习方法,在数据探索与知识发现过程中扮演着举足轻重的角色。它能够在没有先验知识或标签信息的情况下,通过挖掘数据中的内在结构和规律,将数据对象自动

    2024年04月13日
    浏览(51)
  • python机器学习——聚类评估方法 & K-Means聚类 & 神经网络模型基础

    1、随机设置K个特征空间内的点作为初始的聚类中心 2、对于其他每个点计算到K个中心的距离,未知的点选择最近的一个聚类中心点作为标记类别 3、接着对着标记的聚类中心之后,重新计算出每个聚类的新中心点(平均值) 4、如果计算得出的新中心点与原中心点一样,那么

    2024年02月12日
    浏览(43)
  • 【机器学习实战】Python基于K均值K-means进行聚类(九)

    1.1 K-means的介绍 K均值( K-means )是一种基于距离度量的聚类算法,其主要思想是将数据集划分为k个不同的簇,每个簇代表一个相似度较高的数据组。该算法通过迭代优化来最小化所有数据点与其所属簇的欧氏距离之和,从而找到最佳的簇划分。 需要区分一下,K-means和KNN是两

    2024年02月06日
    浏览(43)
  • 机器学习实战:Python基于K均值K-means进行聚类(九)

    1.1 K-means的介绍 K均值( K-means )是一种基于距离度量的聚类算法,其主要思想是将数据集划分为k个不同的簇,每个簇代表一个相似度较高的数据组。该算法通过迭代优化来最小化所有数据点与其所属簇的欧氏距离之和,从而找到最佳的簇划分。 需要区分一下,K-means和KNN是两

    2024年02月16日
    浏览(38)
  • 人工智能|机器学习——DBSCAN聚类算法(密度聚类)

    DBSCAN(Density-Based Spatial Clustering of Applications with Noise)是一种基于密度的聚类算法,簇集的划定完全由样本的聚集程度决定。聚集程度不足以构成簇落的那些样本视为噪声点,因此DBSCAN聚类的方式也可以用于异常点的检测。 算法的关键在于样本的‘聚集程度’,这个程度的刻画

    2024年04月10日
    浏览(83)
  • 【人工智能】监督学习、分类问题、决策树、信息增益

    什么是决策树 —— 基本概念 非叶节点:一个属性上的测试,每个分枝代表该测试的输出 叶节点:存放一个类标记 规则:从根节点到叶节点的一条属性取值路径 模型训练:从已有数据中生成一棵决策树 分裂数据的特征,寻找决策类别的路径 相同的数据,根据不同的特征顺

    2024年02月16日
    浏览(58)
  • 【人工智能】— 学习与机器学习、无/有监督学习、强化学习、学习表示

    贝叶斯网络提供了一个自然的表示方式,用于描述(因果引起的)条件独立性。 拓扑结构 + 条件概率表 = 联合分布的紧凑表示。 通常易于领域专家构建。 通过变量消除进行精确推断: 在有向无环图上的时间复杂度是多项式级别的,但在一般图上为 NP-hard。 空间复杂度与时间

    2024年02月07日
    浏览(79)
  • 【聚类】K-Means聚类

    cluster:簇 这边暂时没有时间具体介绍kmeans聚类的原理。简单来说,就是首先初始化k个簇心;然后计算所有点到簇心的欧式距离,对一个点来说,距离最短就属于那个簇;然后更新不同簇的簇心(簇内 所有点的平均值 ,也就是簇内点的 重心 );循环往复,直至 簇心不变 或

    2024年02月09日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包