【语音识别】- 声学,词汇和语言模型

这篇具有很好参考价值的文章主要介绍了【语音识别】- 声学,词汇和语言模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、说明

        语音识别是指计算机通过处理人类语言的音频信号,将其转换为可理解的文本形式的技术。也就是说,它可以将人类的口语语音转换为文本,以便计算机能够进一步处理和理解。它是自然语言处理技术的一部分,被广泛应用于语音识别助手,语音交互系统,语音搜索等领域。

二、语音识别的意图和实现

        语音识别可以被视为根据声学、发音词典和语言模型找到最佳单词序列 (W)。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        在上一篇文章中,我们学习了HMM和GMM的基础知识。现在是时候将它们放在一起来构建这些模型了。

词汇

发音词典对单词的电话序列进行建模。通过使用滑动窗口分割音频剪辑,我们生成一系列音频帧。对于每一帧,我们提取了 39 个 MFCC 特征。即,我们生成一系列特征向量 Xx₁ x₂, ..., xi ...),其中 xi 包含 39 个特征。似然 pX|W) 可以根据词典和声学模型近似。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

发音词典是用马尔可夫链建模的。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

HMM 模型中的自循环将电话与观察到的音频帧对齐。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

这为处理发音的时间变化提供了灵活性。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

给定一个经过训练的HMM模型,我们对观察结果进行解码以找到内部状态序列。这可以通过下面的格子可视化。下面的箭头演示了可能的状态转换。给定一系列观察值X,我们可以使用维特比算法来解码最佳电话序列(比如下面的红线)。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

源代码修改

在本文中,我们不会重复有关HMM和GMM的背景信息。如果您需要,这是关于这两个主题的上一篇文章。它包括维特比算法,用于寻找最佳状态序列。

但是,手机不是同质的。频率的幅度从开始到结束都在变化。为了反映这一点,我们进一步将手机细分为三种状态:手机的开头、中间和结束部分。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

源代码修改

这是我们从每部手机的一个状态更改为三个状态的HMM。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

来源(“六”字)

        每个内部状态的可观察量将由GMM建模。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        我们可以通过在弧中写入输出分布来简化 HMM 拓扑的绘制方式。因此,弧上的标签表示输出分布(观测值),而不是将观测值绘制为节点(状态)。以下是单词“two”的 HMM 拓扑,其中包含 2 部电话,每部电话具有三种状态。弧的标签表示声学模型 (GMM)。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        给定电话 W 的观测值 X 的可能性是根据所有可能路径的总和计算得出的。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        对于每个路径,概率等于路径的概率乘以给定内部状态的观测值的概率。第二种概率将由 m 分量 GMM 建模。所以所有路径的总概率相等

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        在实践中,我们使用对数似然(log(Px|w)))来避免下溢问题。这是HMM模型,每个电话使用三种状态来识别数字。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        为了处理演讲中的沉默、噪音和填充的停顿,我们可以将它们建模为 SIL,并将其视为另一部手机。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        然而,这些静音声音更难捕捉。我们可以用 5 个内部状态而不是 <> 个来建模它。对于某些 ASR,我们还可能使用不同的手机进行不同类型的静音和填充暂停。

        我们还可以引入跳过弧,即具有空输入 (ε) 的弧,以对话语中的跳过声音进行建模。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

三、上下文相关电话

        关节取决于之前和之后的电话(共关节)。声音根据单词内或单词之间的周围上下文而变化。例如,同位素(音素的声学实现)可能是跨词边界共发音的结果。相邻电话对语音变化的影响很大。例如,如果我们把手放在嘴前,当我们发音 /p/ 代表“旋转”和 /p/ 代表“pin”时,我们会感觉到气流的差异。

        在构建复杂的声学模型时,我们不应该独立于其上下文来处理手机。音频帧的标签应包括电话及其上下文。如下图所示,对于音素 /eh/,频谱图在不同的上下文下是不同的。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

因此,给定下面的音频帧,我们应该将它们分别标记为 /eh/,上下文 (/w/, /d/)、(/y/, /l/) 和 (/eh/, /n/)。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        这称为三音器

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

        从源代码修改

        三音 s-iy+l 表示电话 /iy/ 前面是 /s/,后跟 /l/。如果忽略上下文,则前面的所有三个音频帧都引用 /iy/。但在上下文相关的方案中,这三个帧将被归类为三个不同的 CD 电话。但请注意,三音符有很多符号。即使对于这个系列,也使用了几种不同的符号。

        以下是分别使用电话和三音器表示“杯子”一词的示例。手机或三部电话都将由三种内部状态建模。我们不会增加表示“电话”的状态数量。我们只是扩展标签,以便我们可以以更高的粒度对它们进行分类。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

源代码修改

然而,这有一个主要缺点。比如说,我们最初有 50 部手机。HMM 模型将有 50 × 3 个内部状态(每部手机的开始、中间和结束状态)。对于三音器,我们有 50³ × 3 个三音器状态,即每部电话 50² 个三音器。状态的分解数变得无法管理。

国家捆绑

幸运的是,三音器的某些组合很难与频谱图区分开来。实际上,可能的三音位数大于观察到的三音位数。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

因此,某些州可以共享相同的GMM模型。这称为状态绑定

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

要找到这样的聚类,我们可以参考电话的表达方式:停止、鼻音、咝咝声、元音、侧音等......我们创建了一个决策树来探索对可以共享相同GMM模型的三音器进行聚类的可能方法。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

通常,我们使用训练数据构建此语音决策树。让我们探索构建树的另一种可能性。以下是在不同语境下说 /p/ 的不同方式。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

对于每部手机,我们创建一个决策树,其中包含基于左右上下文的决策树桩。树的叶子聚集了可以用相同的GMM模型建模的三音器。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

我们可以应用决策树技术来避免过度拟合。例如,我们可以限制叶节点的数量和/或树的深度。我们的训练目标是最大限度地提高最终GMM模型训练数据的可能性。以下是我们如何使用状态绑定从手机演变为三音机。对于每部手机,我们现在有更多的子类别(三音器)。我们使用GMM而不是简单的高斯来建模它们。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

四、连续语音识别

        单字语音识别的概念可以通过HMM模型扩展到连续语音。我们在HMM中添加弧线以将单词连接在一起。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

五、语言模型

        即使音频剪辑在语法上可能不完美或跳过了单词,我们仍然假设我们的音频剪辑在语法和语义上是合理的。因此,如果我们在解码中包含语言模型,我们可以提高 ASR 的准确性。

双格拉姆模型

语言模型计算单词序列的可能性。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

在双语(又名 2 克)语言模型中,当前单词仅取决于最后一个单词。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

例如

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

让我们看一下马尔可夫链,如果我们将双字母语言模型与发音词典集成在一起。下面的三个词典分别用于单词一、二和零。然后我们用双元语言模型将它们连接在一起,转移概率像p(one|two)。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

计算 P(“零”|”二“),我们抓取语料库(例如来自包含 23M 字的《华尔街日报》语料库)并计算

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

如果语言模型依赖于最后 2 个单词,则称为三元组。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

源代码修改

n-gram 取决于最后的 n-1 个单词。这是双元组和三元组的状态图。对于三元组模型,每个节点表示具有最后两个单词的状态,而不仅仅是一个单词。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

这是使用三元组语言模型的可视化。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

六、平滑

即使23M个单词听起来也很多,但语料库仍然可能包含合法的单词组合。对于三元组或其他 n-gram,这种情况变得更糟。通常,三元组或 n 元语法模型的数据很少。如果我们将《华尔街日报》的尸体分成两半,一组数据中36.6%的三卦(4.32M / 11.8M)将不会在另一半中看到。这很糟糕,因为我们训练模型说这些合法序列的概率为零。

加一平滑

让我们先从 unigram 看问题。我们问题的一个解决方案是在所有计数中添加一个偏移量 k(比如 1)以调整 PW) 的概率,这样即使我们没有在语料库中看到它们,P(W) 也会都是正数。以下是平滑计数和人为喷射计数后的平滑概率。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

源代码修改

但是很难确定k的正确值。但是让我们考虑一下平滑的原理是什么。如果我们没有足够的数据来做出估计,我们会回退到与原始统计数据密切相关的其他统计数据,并显示出更准确。然后,我们根据这些统计数据插值我们的最终答案。例如,如果在语料库中没有观察到双元词,我们可以从出现一次的双元词中借用统计数据。

良好的图灵平滑

让我们回到 n-gram 模型进行讨论。平滑的一般思想是重新插值训练数据中看到的计数,以伴随测试数据中看不见的单词组合。在这个过程中,我们重新洗牌计数并压缩看到的单词的概率,以适应看不见的n元语法。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

一种可能性是将平滑计数 r* 和概率 p 计算为:

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

源代码修改

直观地说,我们用具有“r + 1”计数的上层n元语法来平滑概率质量

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

对于看不见的 n 元语法,我们通过使用具有单次出现的 n 元语法数 (n₁) 来计算其概率。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

但在某些情况下,上层 (r+1) 的 n 元语法为零。我们将首先应用插值 S 来平滑计数。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

目前,我们不需要进一步详细说明。我们将继续介绍另一种更有趣的平滑方法。但是,如果您对此方法感兴趣,可以阅读本文以获取更多信息。

卡茨平滑

Katz 平滑是在数据稀疏时平滑统计信息的常用方法之一。对于双元模型,平滑计数和概率的计算公式为:

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

此方法基于折扣概念,我们降低某些类别的计数,以将计数重新分配给训练数据集中计数为零的单词。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

如果计数高于阈值(例如 5),则折扣 d 等于 1,即我们将使用实际计数。他们有足够的数据,因此相应的概率是可靠的。对于计数较低的单词组合,我们希望折扣 d 与好图灵平滑成正比。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

此外,我们希望从折扣中保存的计数等于 n₁,Good-Tuuring 将其分配给零计数。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

为了满足这两个限制,折扣变为

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

在良图灵平滑中,每个具有零计数的 n 元语法都具有相同的平滑计数。对于 Katz 平滑,我们会做得更好。α的选择是这样

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

因此,在重新洗牌计数后,双字母中第一个单词给出的总体统计数据将与统计数据相匹配。我们将平滑计数计算为:

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

因此,即使训练数据集中不存在单词对,如果第二个单词 wi 很受欢迎,我们将平滑计数调整得更高。

α等于

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

直观地说,如果有许多低计数的单词对以相同的第一个单词开头,则平滑计数会增加。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

在这种情况下,我们预计(或预测)具有相同第一个单词的许多其他对将出现在测试中,而不是训练中。实证结果表明,Katz 平滑能够很好地平滑稀疏数据概率。同样,如果您想更好地了解平滑,请参阅本文。

退避模型

Katz 平滑是一个退避模型,当我们找不到任何 n 元语法的出现时,我们回退,即如果我们找不到 n-gram 的任何出现,我们用 n-1 克估计它。但是在 n-1 克中也没有出现,我们不断回落,直到找到非零出现计数。退避概率的计算公式为:

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

其中 α 和 P 定义为:

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

每当我们回退到较低跨度的语言模型时,我们都需要用α来缩放概率,以确保所有概率的总和为 1。

让我们举一个例子来阐明这个概念。假设我们从未在我们的训练语料库中找到 5 克的“第 10 个符号是 obelus”。因此,我们必须回退到 4 克模型来计算概率。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

P(Obelus | 符号为 an) 通过计算以下相应的出现次数来计算:

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

最后,我们计算α来重新规范概率。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

这是最终的平滑计数和概率。

【语音识别】- 声学,词汇和语言模型,语音识别,语言模型,人工智能

七、接下去的内容

        现在,我们知道如何对 ASR 进行建模。但是,我们如何使用这些模型来解码话语呢?文章来源地址https://www.toymoban.com/news/detail-613986.html

到了这里,关于【语音识别】- 声学,词汇和语言模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【Elsevier旗下】1区SCI,5天见刊!稳定检索36年,大数据、人工智能、机器学习、语音、语言、会话、情绪识别等领域

    近日 国自然预计将在下周8月20日之前公布 ,想必申请过国自然基金作者都知道,需要有研究基础,说白了就是需要有文章支持。那么稿子写好了,选择一本靠谱优质期刊也是一门学问。 本期小编推荐2本Elsevier 旗下审稿快刊,各项指标优秀,实为评职晋升、申报基金之首选

    2024年02月13日
    浏览(51)
  • 迈向通用听觉人工智能!清华电子系、火山语音携手推出认知导向的听觉大语言模型SALMONN

    日前,清华大学电子工程系与火山语音团队携手合作,推出认知导向的开源听觉大语言模型SALMONN (Speech Audio Language Music Open Neural Network)。 大语言模型 SALMONN LOGO 相较于仅仅支持语音输入或非语音音频输入的其他大模型,SALMONN对语音、音频事件、音乐等各类音频输入都具有感知

    2024年02月12日
    浏览(62)
  • 人工智能技术基础系列之:语音识别与语音处理

    作者:禅与计算机程序设计艺术 语音识别(英语:Speech recognition)是一个广义上的概念,泛指在不同场景、不同的条件下通过语言或口头获取信息并转换成文字的能力。具体来说,语音识别就是把人类的声音或者说话转化成计算机可以理解的文字、数字信号。语音识别技术应

    2024年02月05日
    浏览(64)
  • 语音识别与VC维:改变人工智能的未来

    语音识别(Speech Recognition)是一种人工智能技术,它旨在将人类的语音信号转换为文本或其他形式的数据。这项技术在过去几年中得到了巨大的发展,并成为人工智能领域的一个关键技术。VC维(Vocabulary Coverage Dimension)是一种数学模型,用于描述语言模型的表达能力。在本文中,

    2024年02月19日
    浏览(61)
  • 人工智能-语音识别技术paddlespeech的搭建和使用

    PaddleSpeech是百度飞桨(PaddlePaddle)开源深度学习平台的其中一个项目,它基于飞桨的语音方向模型库,用于语音和音频中的各种关键任务的开发,包含大量基于深度学习前沿和有影响力的模型。PaddleSpeech支持语音识别、语音翻译(英译中)、语音合成、标点恢复等应用示例。

    2024年02月02日
    浏览(64)
  • 【人工智能】科大讯飞语音识别应用开发(第三集)

    这次需要对科大讯飞语音识别接口进行语音识别应用开发,前两次都是通过WebAPI调用接口,这次换一下,通过SDK调用接口 下面是开发的详细记录过程(基于前两次的基础上) 网址:https://www.xfyun.cn/services/voicedictation 不领服务量为500且该包免费( 貌似是不同应用都可以免费领

    2024年02月13日
    浏览(54)
  • 智能语音识别在人工智能应用中的重要性

    作者:禅与计算机程序设计艺术 随着计算机的发展、移动互联网的普及和互联网服务的快速发展,语音识别技术也逐渐走入人们的视野中。相对于手写文字或是拼音方式输入的方式,语音输入的方式带来的便利、准确率提高的效果,使得越来越多的人开始喜欢用语音的方式来

    2024年02月07日
    浏览(68)
  • 人工智能技术在智能音箱中的应用:智能语音识别与智能交互

    作者:禅与计算机程序设计艺术 引言 1.1. 背景介绍 智能音箱作为智能家居的重要组成部分,近年来得到了越来越多的用户青睐。随着人工智能技术的不断发展,智能音箱的核心功能之一——智能语音识别与智能交互也越来越受到人们的关注。智能语音识别技术可以让用户更

    2024年02月07日
    浏览(59)
  • 极速进化,光速转录,C++版本人工智能实时语音转文字(字幕/语音识别)Whisper.cpp实践

    业界良心OpenAI开源的Whisper模型是开源语音转文字领域的执牛耳者,白璧微瑕之处在于无法通过苹果M芯片优化转录效率,Whisper.cpp 则是 Whisper 模型的 C/C++ 移植版本,它具有无依赖项、内存使用量低等特点,重要的是增加了 Core ML 支持,完美适配苹果M系列芯片。 Whisper.cpp的张量

    2024年02月02日
    浏览(68)
  • 谷歌发布基于声学建模的无限虚拟房间增强现实鲁棒语音识别技术

    声学室模拟允许在AR眼镜上以最少的真实数据进行训练,用于开发鲁棒的语音识别声音分离模型。 随着增强现实(AR)技术的强大和广泛应用,它能应用到各种日常情境中。我们对AR技术的潜能感到兴奋,并持续不断地开发和测试新技术与体验。其中一个研究方向是探索语音模

    2024年04月25日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包