CRF算法(Conditional Random Fields)揭秘

这篇具有很好参考价值的文章主要介绍了CRF算法(Conditional Random Fields)揭秘。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

CRF基本介绍

在机器学习中,建模线性序列结构的方法,除了HMM算法,另一个重要的模型就是CRF。HMM为了降低模型复杂性,对观测变量做了独立假设(即隐状态之间有相关性,而观测变量之间没有相关性),这在某种程度上损害了模型的准确性;CRF弥补了这个缺陷,它同样假设类别变量之间有相关性,但没有对观测变量之间做出任何假设(即可能有相关性,也可能没有相关性)。

CRF除了和HMM形成对比,前者是判别式模型,后者是生成式模型;另一方面,CRF还可看成是对最大熵模型的扩展,即它是一个结构化学习模型,而不是单个位置的分类模型。CRF如何被因子化,CRF公式如何推导,如何建立最大熵模型和CRF的公式联系,以及如何得到CRF图表示结构是本文的几个重点。本文还会提到,一些算法,刚开始被用于HMM,稍作修改也能用于线性链CRF,比如前向-后向算法、维特比算法。另外需要指出,用于线性链CRF的训练和推理算法,不能直接用于任意结构的CRF。

背景知识:条件熵(Conditional entropy)

信息论中,条件熵用于量化描述随机变量Y所需的信息量,在另一个随机变量X已知的情况下,写作H(Y|X),具体形式如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划  (公式1)

其中和CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划表示随机变量X和Y的样本集。注意,这里有可能出现,可以认为等于0,因为CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

直觉上,可以把看成是某个函数的期望,即,其中是条件概率,被定义为:CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

它是公式1中负号放到求和里面后的右半部分。函数可看成当给定变量时,为描述变量需要的额外信息量。因此通过计算所有的数据对的期望值,条件熵就能测量出要想通过变量解码出变量,平均意义上需要多少信息。

现在进一步要问,以上具体怎么来的?首先假设Y的概率密度函数为,那么Y的熵就是,具体为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式2)

其中是当Y取的互信息。因此,已知X为某个取值x时求Y的熵根据条件期望,即代入公式2有:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式3)

注意,表示对求关于所有不同x取值的平均。换言之,是对关于每个x的加权求和,其中权重就是概率,具体如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式4)

上式第1个等号根据定义;第2个等号使用了公式3;第3个等号调整,将两个合并简化;第4个等号利用贝叶斯公式。公式4最后得到公式1

一些基本属性:当且仅当Y完全被X控制。当且仅当Y和X是两个独立的随机变量。

条件熵的链式规则:,即当X的熵已知,那么Y的条件熵可通过联合熵减去得到。它的推导过程如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式5)

上式第1步来自公式4;第2步把log拆成相减的两项;第3步把拆成两项;第4步对第一项套用熵的公式得到,对第二项消去y变量(对y求和);第5步继续套用熵的公式,得到

公式5扩展到多个随机变量,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式6)

可以发现公式6和概率中的链式法则类似,只不过把乘法变为了加法。

条件熵的贝叶斯规则CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划,证明如下:因为有,以及CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划,别忘了,得证。特别的当Y条件独立于Z(当给定X),那么有

最大熵模型(Maximum Entropy Model)

最大熵模型是一个条件概率模型,它基于最大熵原则,意思是,当我们不具备对一个概率分布的完整信息时,唯一的无偏估计假设就是均匀分布。在该假设下,最恰当的概率分布就是在给定约束下的最大化熵的分布。根据公式1,对于条件模型,对应的条件熵为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式一)

其中Z = X ×Y ,包含了所有可能的输入x和输出y。注意:Z不仅包括所有训练数据的样本,也包括所有可能出现的组合。最大熵模型的基本原理是:找到使得条件熵取得最大值,但仍然符合训练数据中的约束信息。目标函数(也叫主问题,即primal problem)如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式二)

其中P是满足训练数据约束条件的所有模型的集合。

我们假设训练样本体现为特征。现在定义二值特征函数(其中),它既依赖输入变量x,也依赖类别变量y,一种可能的函数形式如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式三)

每个特征的期望值是从经验分布估计得到,而经验分布是通过对训练集中不同值的频率进行简单计数得到,具体表达式如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式四)

注意,所有可能的数据对都被统计在内。考虑到所有不被包含在训练集中的数据对的经验概率为0,公式四可以改写为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式五)

其中N是训练集的大小,即。因此可通过对训练数据()统计为1的频率计算得到,当然要除以训练集大小N。

类似于经验分布的特征期望值(即公式四),模型分布的特征期望值为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式六)

注意,由于所有可能的取值非常大,可能无法简单计算。因此可对重写:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式七)

以上把联合概率变为了条件概率乘积。进一步,我们把替换为经验分布,就得到了的近似值:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式八)

类比公式五,上式可进一步转化为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式九)

注意,上式只有出现在训练集中的x被考虑(),以及所有的y取值都被考虑()。很多应用中y的取值只有很少几个可能值,因此对所有y求和是可行的,可以被高效计算。

公式二假设最优模型和训练数据一致,这意味着每个特征在经验分布上的期望值和在特定模型分布上的期望值等价,即有:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十)

另一个约束是,对于条件概率恒有:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十一)

在特定约束下的最优化问题,可以用拉格朗日乘子法解决,对每个约束引入,得到如下拉格朗日函数:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十二)

求解过程如下:

首先与公式八的期望值近似求解类似,公式一的的近似求解为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十三)

上式对的偏导为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十四)

说明:把看成变量,把看成常量,相当于对xlogx的形式求导数,比较简单。

公式十二的第二部分,即前m个约束,对的偏导为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十五)

以上分别将和的表达式(即公式八公式四)代入,注意,减号右边不包含,因此偏导为0,而左边是的线性函数,只需保留其余系数即可。

公式十二的第三部分更简单,它对的偏导就是系数CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划,因此完整的偏导如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十六)

令上式为0,来求解,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

移动右边第一项到左边,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

等式两边除以,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

把上式的1移到右边,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

把log消除,得到的表达式:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十七)

考虑到公式十一有个概率加和约束:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十八)

我们把公式十七代入公式十八,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

等式两边除以左边第一项,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式十九)

公式十九重新代入公式十七,得到:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式二十)

对上式简单改写,就得到著名的最大熵模型

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式二十一)

其中就是公式二十的分母,即:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(公式二十二)

条件随机场(Conditional Random Fields)

条件随机场(即CRF)可看成最大熵模型的序列版本(sequence version),这意味着它们都是判别式模型。CRF与HMM对比,除了后者是生成式模型之外,二者另一个重要的不同点是,CRF不再局限于线性序列结构,而可以是任意结构,当然线性结构是最常见的。

CRF基本原则

CRF是一种计算的概率模型,其中输出向量,对应的输入向量(也叫做观测值)。要知道在无向图中,概率分布可以用称为最大团非负函数的乘积表示,其中每个因子包含来自不同团的节点,这意味着条件独立的节点不会出现在同一个因子中,作为一种无向图,CRF推导的起点一般是以下公式:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式1)

其中是CRF结构图中对应于不同最大团的因子,每个因子对应一个随机变量的势函数,其中势函数一般由观测值的不同特征组合而成。当然,势函数可以是任意的函数,甚至可以不必是概率函数,因此势函数乘积的归一化必不可少,这是为了保证最终得到有意义的概率值。这是通过归一化因子Z来实现的。Z的表达式为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式2)

在参数学习(或模型训练)中对Z的计算是非常重要且具有挑战性的,因为这需要对所有可能的变量进行求和。需要指出,最大熵模型(公式二十一、二十二)也符合式1式2,其中非负势函数取指数函数,而取观测值的不同特征的加权求和。

CRF的条件概率可进行如下推导:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式3)

其中第一步是贝叶斯公式;第二步把展开成对求和的形式,故需引入变量,从而变为联合概率;第三步对分子和分母分别套用式1,其中随机变量用输入变量和输出变量分开表示。

当然也可以直接把式1表示成如下形式:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式4)

其中归一化因子的表达式可参考式3的第三步的分母,为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式5)

注意:到目前为止都是CRF的通用形式,而不只表示线性结构。

线性链CRF(Linear-chain CRFs)

作为CRF的特例,线性链CRF把输出变量建模成序列数据,我们把式4写成如下形式:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式6)

其中也作相应调整:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式7)

我们假设每个因子符合如下形式(和最大熵模型类似,但更为复杂):

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式8)

假设观测序列的长度为n+1,即有n+1个y节点,那么因子数就是n(因为相邻的两个位置变量和被合并为一个因子),那么线性链CRF可重写为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式9)

上式通过结合式6式8,把对指数函数的累乘改写成对其肩上数字的累加得到。与最大熵模型最大的区别是,式9公式二十一多了一层对j的累加,这是因为CRF不再只是预测单标签,而是要预测标签序列。在式9中,j指定了输入序列的位置下标。而权重完全不依赖位置下标j。

类似的,为了归一化条件概率到[0,1]区间,对应的分母为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式10)

上式是对所有可能的标签序列求和,目的是最终得到可行的概率值。

式9可以进行三种变形,分别是:

1) 将代表序列位置的j求和移动到exp前面,如下所示:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式11)

2) 将代表不同特征的i求和移动到exp前面,如下所示:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式12)

对于式12,因子不再在序列流动构造,而是在特征流动构造

3) 同时将i和j的求和移动到exp前面,如下所示:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式13)

需要指出,式11的因子一般基于最大团,而式12式13不需要满足这个要求。一般来说,因子化时如果不是用最大团,会导致某种程度的不准确,因为并不是所有的依赖都被正确考虑到,有时会导致冗余计算。后面会基于式11进行分析。

和HMM的三个基本问题相似,线性链CRF也有两个基本问题,分别是:

1. 给定观测值和CRF模型M,求最有可能的标签序列

2. 给定标签序列​​CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划,​​​​和观测序列,求CRF模型M的参数,使得最大

其中问题1是CRF最常见的应用,而问题2是如何训练来调整模型参数,尤其是特征权重。注意:在判别式模型中,概率不需要建模,而HMM中是需要的。

训练过程

在训练集上进行最大似然估计,目标函数为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式14)

为了避免过拟合,一般要加上惩罚项,注意这个技术细节也能用在最大熵模型中。

推导过程如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式15)

第1步对式14加上惩罚项;第2步将log的分子分母转化成相减的形式,并把第一项的log和exp抵消掉,但保留第二项;第3步将第一项不必要的括号省略,并记做A,将第二项记做B,其中log的内容记为,将第三项(即惩罚项)记做C。注意:A项、B项、C项都包含特征权重!

A项、B项、C项对权重(或)的偏导可以分开计算。其中A项的偏导计算很简单,如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式16)

B项的偏导计算过程较为复杂,如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式17)

其中第一步是对求偏导,利用链式求导法则;第二步继续求对的偏导,利用链式求导法则,以及exp指数的导数是它自己;第三步将移动到第二层求和以内,并与exp项一起合并为,具体见式9;第四步就是最终结果。

C项的偏导计算很简单,如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式18)

注意,式15所示的似然函数是凹函数,这是因为:第一项关于(或)是线性的,见式16;第二项由于log是凹函数,而内部的是线性的,不改变凹凸性,所以还是凹函数;第三项是开口向下的二次函数,也是凹函数;所以整体还是凹函数。

式16(A项的偏导)从含义上,其实就是特征的经验分布的期望值(可类比公式五),具体如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式19)

式17(B项的偏导)从含义上是模型分布的期望值(可类比公式九),具体如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式20)

因此对权重(或)的偏导可看成:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式21)

式19式20分别与最大熵模型公式五公式九对应,其中最大区别是因子的消失,而这一点对于通过近似推导找最大值是不相关的。需要注意:线性链CRF中直接计算是不可行的,因为存在大量可能的序列标注;而在最大熵模型中这点是可行的,因为输出变量y的不同值比较少。CRF中输出序列存在巨大的组合复杂性,因此需要一个DP算法,也就是HMM中的前向-后向算法,只需要简单的修改即可。

首先定义一个函数用于将输入位置为j的单个状态s映射到位置为j+1的下一个状态的集合,再定义一个逆函数将所有可能的下一个状态的集合映射回s。特殊状态和分别表示序列的开始和结束。前向和后向分别用和表示,可看成线性链CRF中的消息传递,递推公式如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

式8势函数定义一致,特征被定义在特定状态(如和)之上,例如:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

函数将消息从链头传递到链尾,相反。二者初始化如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

有了和的初始值和递推关系,就能非常高效的计算模型分布的期望值,具体如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式26)

其中下划线部分可看成在计算状态序列的所有组合构成的势函数。一个可视化的网格图如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(图1)

其中每一列表示一个序列位置j的多个状态s,每一行表示不同序列位置,所有可能的消息传递路径被描绘出来。每个和一次迭代计算后被保存,因此只需要计算一次。归一化因子的公式为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式27)

前向-后向算法时间复杂度为,即与序列长度线性相关,而与状态数是二次相关。

推理过程

推理是为了找到给定观测序列对应的最有可能的状态序列,与HMM的解码类似,这里不是为了找到每个单独最有可能的状态,而是为了最大化预测正确的状态数。所以这里同样要用维特比算法(Viterbi algorithm)。维特比算法和前向-后向算法类似,只不过将求和改为最大化

定义一个函数表示在位置j以状态s结束的序列概率的最高分,即有:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式28)

它的递推关系表示为:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式29)

用函数用来跟踪j和s的值,整个算法流程如下:

1. 初始化。将起始状态到所有可能的第一个状态s的函数值设为对应的因子值,并将起始状态保存到函数中,具体如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式30)

2. 迭代过程。下一步的值通过当前值计算得到,具体如下:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式31)

3. 终止结果:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划

4. 路径回溯,利用重新计算最优路径,找到状态序列:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式34)

仔细观察,前3步非常像前向-后向算法。总的来说,维特比算法先在网格中填充最优值,然后第4步在网格中读取最优路径。

任意结构CRF(Arbitrarily structured CRFs)

任意结构CRF指的是树或者网格结构,从线性链结构CRF转到任意结构CRF需要丢掉一些团构建的约束条件,因此需要更通用的训练和推理算法。比如有文献提出了Skip Chain结构,如下图b:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(图2)

可以看到,b图和a图的区别是,相邻的位置可能没有连接,而不相邻的节点可能有连接,有点像深度学习的残差网络(也许比它更早出现)。

对于线性链CRF(图2a),它的势函数来自以下团模板(clique templates)

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式35)

这个单一的模板意味着,线性链CRF只能连接两个相邻的位置j和j-1.

对于跳跃链CRF(图2b),它的势函数来自两个团模板:

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(式36)

可以看到,C1模板和式35一样,而C2模板的两个节点和可以不相邻,即它们都只要满足在全域范围内即可,当然也可以另外规定b是a的整数倍等等。注意:C1和C2模板是或的关系,即只需满足一个就要建立连接。比如,有5个节点的跳跃链CRF,输入序列,根据C1模板,2和3、3和4、4和5、5和6都要建立连接,而根据C2模板(即b是a的整数倍),就有2和4、2和6、3和6建立连接,那么就得到如下结构图因子图

CRF算法(Conditional Random Fields)揭秘,算法,人工智能,机器学习,动态规划(图3)

在训练和推理时,序列结构(无论HMM还是线性链CRF)都采用前向-后向算法和维特比算法,即通过往链上的两个方向发送消息来实现。而对于树结构的CRF甚至任意结构CRF,一般采用最大和(max-sum)算法sum-product算法。具体见《PRML》的8.4节。

参考资料

  条件熵,维基百科。

《Classical Probabilistic Models and Conditional Random Fields》,2007 年。

《模式识别与机器学习》,2006 年。

《统计学习方法》,2012年。文章来源地址https://www.toymoban.com/news/detail-837055.html

到了这里,关于CRF算法(Conditional Random Fields)揭秘的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 揭秘人工智能:探索智慧未来

    🌈个人主页: 聆风吟 🔥系列专栏: 数据结构、网络奇遇记 🔖少年有梦不应止于心动,更要付诸行动。 人工智能是一种模拟人类智能的技术,目的是让计算机可以像人类一样进行学习、推理、感知、理解和创造等活动。近年来,人工智能技术已经在各个领域取得了显著进

    2024年02月03日
    浏览(98)
  • <AIGC>揭秘人工智能生成内容的核心概念

    什么是AIGC? AIGC基于什么技术实现? 什么是向量库? 什么是数据集? 各领域成熟的AIGC产品? 本篇文章内容80%来自一个名为AIGC领域专家的GPT,由我进行整理和优化其输出的内容。 他的Prompt设置为 你拥有多年的AIGC领域经验,请以AIGC领域专家的角度尽可能全面的回答我的相关问题。

    2024年02月10日
    浏览(95)
  • 【必看】揭秘AI革命背后的力量!550篇人工智能核心论文深度解析

    大家好,我是你们的知识探索者,今天我带来了一个前所未有的宝藏分享——一份涵盖了550篇人工智能领域核心论文的终极指南!这不仅仅是一份文档,而是一扇通往人工智能世界深处的大门。 ** ** 🌟 为什么这550篇论文至关重要? 在人工智能的浪潮中,无数的研究和实验层

    2024年02月21日
    浏览(68)
  • 年度大盘点:AIGC、AGI、GhatGPT震撼登场!揭秘人工智能大模型的奥秘与必读书单

    在2023年,人工智能领域经历了一场前所未有的大爆发,特别是在语言模型领域。新的概念和英文缩写如AIGC、AGI、GhatGPT等频繁出现,给人们带来了极大的困惑和好奇。这些突如其来的名词和缩写不仅让人摸不着头脑,还引发了对人工智能发展的种种猜测与疑问。 本文将为您带

    2024年02月04日
    浏览(45)
  • #风向标# 探索AI学习之路:从零基础到入门,详细揭秘人工智能的成长路径分享“

    1. 确定学习动机和兴趣 确定你学习AI的原因,是为了职业发展、解决现实问题还是满足兴趣爱好。明确动机可以帮助你更有目标地学习。 2. 学习基础数学知识 了解基础的数学概念,包括线性代数、概率统计等,这些是理解机器学习和深度学习原理的基础。 3. 学习编程语言

    2024年01月18日
    浏览(47)
  • 【ChatGPT】万字长文揭秘 GPT 背后:为何“大模型” 就一下子成为了引领人工智能 AI2.0时代热门技术?

    GPT (Generative Pre-trained Transformer) ,生成式预训练Transformer: 是一种基于 深度学习 的 自然语言处理模型 ,GPT 由 OpenAI 开发。 GPT 是一种基于 Transformer 模型的语言模型,可以通过大量的文本数据进行训练,从而学习到语言的规律和模式,进而生成自然流畅的语言文本。 本文将详

    2023年04月19日
    浏览(58)
  • 从 人工智能学派 视角来看 人工智能算法

    当今人工智能的算法纷繁复杂:神经网络、卷积神经网络CNN、遗传算法、进化策略、知识图谱、贝叶斯网络、支持向量机SVM、强化学习、生成对抗网络GAN,自编码器… 如果你把每个算法独立看待简直是眼花缭乱,头都是大的。这次我就带你理理这些算法,有些算法其实是可以

    2024年03月15日
    浏览(62)
  • 【人工智能】深入了解人工智能的核心算法与应用实践

    人工智能知识对于当今的互联网技术人来说已经是刚需。但人工智能的概念、流派、技术纷繁复杂,选择哪本书入门最适合呢? 这部被誉为人工智能“百科全书”的《人工智能(第3版)》,可以作为每个技术人进入 AI 世界的第一本书。 这本书是美国人工智能领域的权威经典

    2024年02月03日
    浏览(70)
  • 【人工智能】遗传算法

    可以把遗传算法类比成一个游戏,我们需要通过这个游戏来找到最佳的解决方案。 首先,我们需要创建一些角色(也就是种群),每个角色有自己的装备和技能(染色体),但是我们并不知道哪个角色更加强大。 然后,我们让这些角色相互竞争,通过升级、打怪等方式来获

    2024年02月02日
    浏览(48)
  • 人工智能分类算法概述

    人工智能分类算法是用于将数据划分为不同类别的算法。这些算法通过学习数据的特征和模式,将输入数据映射到相应的类别。分类算法在人工智能中具有广泛的应用,如图像识别、语音识别、文本分类等。以下是几种常见的人工智能分类算法的详细讲解过程: 决策树 决策

    2024年04月11日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包