无监督学习
无监督学习是指在没有标签的数据上进行学习,即没有监督信号的指导下进行模型训练。在无监督学习中,我们主要关注从无标签数据中学习出数据的低维结构和隐藏的模式。
通过无标签数据,我们可以预测以下内容:
- 低维结构:通过无监督学习算法如主成分分析(PCA),我们可以发现数据中的主要变化方向和低维表示,帮助我们理解数据的内在结构和进行数据降维。
- 集群结构:通过聚类算法如K均值聚类或层次聚类,我们可以将无标签数据划分为不同的组或类别,从而发现数据中的集群结构。
- 关联规则:通过关联规则挖掘算法如Apriori算法或FP-growth算法,我们可以发现数据中的频繁项集和关联规则,揭示不同特征之间的关联关系。
聚类(Clustering)
• 将数据对象分组为子集或“簇”:
- 簇内具有高相似性
- 簇间具有低相似性
• 聚类是一项常见而重要的任务,在科学、工程、信息科学和其他领域中都有广泛的应用:
- 对具有相同功能的基因进行分组
- 对具有相似政治观点的个体进行分组
- 对具有相似主题的文档进行分类
- 从图片中识别相似的对象
输入:输入点的训练集
输出:将每个点分配到一个簇中
其中
D
t
r
a
i
n
=
{
x
1
,
.
.
.
,
x
n
}
Dtrain = \{x1, ..., xn\}
Dtrain={x1,...,xn}为输入点的训练集
(
C
(
1
)
,
.
.
.
,
C
(
n
)
)
(C(1), ..., C(n))
(C(1),...,C(n)) 为将每个点分配到的簇,其中
C
(
i
)
C(i)
C(i) 属于
{
1
,
.
.
.
,
k
}
\{1, ..., k\}
{1,...,k} 表示第 i 个点所属的簇。
K-means聚类(K-means clustering)
K-means的目标是最小化所有数据点与其所属簇中心点之间的欧氏距离的平方和。
K-means的算法过程如下:
- 随机选择K个初始簇中心点(质心)。
- 将每个数据点分配到与其最近的簇中心点所对应的簇。
- 更新每个簇的中心点为该簇中所有数据点的平均值。
- 重复步骤2和步骤3,直到簇中心点不再发生明显变化或达到预定的迭代次数。
K-means损失函数
x
\textbf{x}
x为样本,
μ
C
(
j
)
μ_{C(j)}
μC(j)表示某个簇
C
(
j
)
C(j)
C(j)的中心,
下式表示将
x
j
x_j
xj分到
C
(
j
)
C(j)
C(j)这个簇上时,到簇中心
μ
C
(
j
)
μ_{C(j)}
μC(j)的欧式距离求和
目标函数
找到如何划分簇
C
C
C、如何选择簇中心
μ
μ
μ,使得每个簇的样本到簇中心的欧氏距离和最小
策略:交替最小化
-
步骤1:如果知道聚类中心,可以找到最佳 C C C文章来源:https://www.toymoban.com/news/detail-496999.html
- 固定
μ
μ
μ,优化
C
C
C
将每个点指定给最近的聚类中心
- 固定
μ
μ
μ,优化
C
C
C
-
步骤2:如果知道集簇分配 C C C,可以找到最好的聚类中心 μ μ μ文章来源地址https://www.toymoban.com/news/detail-496999.html
- 固定
C
C
C,优化
μ
μ
μ
解决方案:第 i i i个簇中选择该簇所有点的平均值重新作为簇中心,正好是步骤2(重新选择聚类中心)
- 固定
C
C
C,优化
μ
μ
μ
到了这里,关于【人工智能】— 无监督学习、K-means聚类(K-means clustering)、K-means损失函数,目标函数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!