语音处理——Pyannote使用学习

这篇具有很好参考价值的文章主要介绍了语音处理——Pyannote使用学习。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

引言

  • 在进行AD检测的模型中,原来使用的是whisper进行的语音转换,但是whisper只能实现ASR任务,并不能检测出不同说话者,所以需要学习一下SpeechBrain,实现说话者检测和情绪分类等不同的语音任务,以进一步完善当前的任务。

  • 这里发现SpeechBrain实现起来比较费劲,自由度比较高,并不能拿来直接用。后来还是换成了pyannote,但是这中间也经过了很多异常情况。这里写一篇文章,记录一下整体过程。

  • 出现这么多问题,是因为我的开发ide,pycharm并不能正常地科学上网,即使本地打开了vpn也不行,所以很多东西只能手动下载到本地,然后在一点点配置。

  • 最有效的配置就是设置好pycharm的代理工具,使之能够顺利访问huggingface,下载相关的模型,而不是向网上现在说的一些,替换镜像源,这没有任何作用,毕竟有很多工具在国内的镜像上都是没有的。

正文

Pyannote的介绍

  • 这是一个开源的声音处理工具,已经广泛应用于很多公司的生产中,除此之外,这个模型的性能也很棒。这个模型可以干如下一些任务:

    1. 话者变化检测(Speaker Change Detection)
      自动检测音频流中说话者变化的时刻。这对于后续的说话者分割和识别任务至关重要。
    2. 说话者嵌入(Speaker Embedding)
      提取说话者的声音特征表示,这些特征可以用于比较和识别不同说话者的身份。
    3. 说话者识别(Speaker Identification)
      确定音频中说话者的身份,通常需要一个已知说话者身份的数据库来匹配和识别。
    4. 说话者验证(Speaker Verification)
      确认一个声音样本是否属于某个特定的说话者,常用于生物特征认证系统。
    5. 声音活动检测(Voice Activity Detection, VAD)
      识别音频中的语音段和非语音段,这是处理语音信号的基础步骤之一。
    6. 重叠说话者检测(Overlapped Speech Detection)
      检测音频中存在两个或多个人同时说话的情况,对于会议记录和多人对话分析特别有用。
    7. 说话者二分化(Diarization)
      将音频流分割成不同说话者的语音段,并标识每个段落的说话者。这被广泛应用于会议记录、法庭记录和新闻采访等场景。
  • 这里只需要使用他的说话者二分化,区分出医生和病人说话的时间段即可。

Pyannote安装

  • 安装很简单,直接通过PyPI指令进行安装即可,具体如下。
pip install pyannote.audio

语音处理——Pyannote使用学习,学习,语音识别,人工智能

Pyannote使用

  • 这里直接访问pyannote对应的huggingface即可,会有相关的使用实例代码
    • 链接如下:Speaker Diarization
    • 具体使用代码如下
from pyannote.audio import Pipeline
import utils

# 创建对应pipeline管道模型,调用预训练模型,这里是指定了调用模型的相关路径。
pipeline = Pipeline.from_pretrained(r"F:\FeatureEngineer\pyannote\speaker-diarization-3.0\config.yaml")
# run the pipeline on an audio file
diarization = pipeline("test.wav")

# dump the diarization output to disk using RTTM format
with open("audio.rttm", "w") as rttm:
    diarization.write_rttm(rttm)
  • 下述图片为huggingface使用样例的代码截图
    语音处理——Pyannote使用学习,学习,语音识别,人工智能

配置文件

  • 上图红框为指定的模型的路径,如果不是一个文件,他会默认在远端huggingface仓库中下载对应的模型,需要能够访问huggingface网站,否则还是推荐将相关模型下载到本地。
  • 这里给出对应的配置文件路径——config.yaml文件
    语音处理——Pyannote使用学习,学习,语音识别,人工智能
version: 3.0.0

pipeline:
  name: pyannote.audio.pipelines.SpeakerDiarization
  params:
    clustering: AgglomerativeClustering
    embedding: hbredin/wespeaker-voxceleb-resnet34-LM   # 提取embedding的网络模型路径
#    embedding: F:\FeatureEngineer\pyannote\speaker-diarization-3.0\wespeaker-voxceleb-resnet34-LM\pytorch_model.bin
#    embedding: F:\FeatureEngineer\pyannote\speaker-diarization-3.0\wespeaker-voxceleb-resnet34-LM\speaker-embedding.onnx
    embedding_batch_size: 32
    embedding_exclude_overlap: true
    segmentation: F:\FeatureEngineer\pyannote\pytorch_model.bin   # 提取segmentation的网络模型路径
    segmentation_batch_size: 32

params:
  clustering:
    method: centroid
    min_cluster_size: 12
    threshold: 0.7045654963945799
  segmentation:
    min_duration_off: 0.0

注意!!

  • 一般来说对应网络模型的files and versions都是存放着相关的模型参数文件,直接下载到本地,然后进行访问就行了。但是这个speaker-diarization任务只给出了对应config文件,过程中需要的一些模型,还是会调用相关的网络连接进行下载。具体来说是segmentationembedding两个关键字对应的模型,这里给出相关的链接,自己下载,并将config.yaml文件中相关参数替换为本地文件。

语音处理——Pyannote使用学习,学习,语音识别,人工智能

  • segmentation链接

  • embedding链接

  • 将上述两个文件下载后,指定对应的路径即可。
    语音处理——Pyannote使用学习,学习,语音识别,人工智能

问题总结

SSLError

语音处理——Pyannote使用学习,学习,语音识别,人工智能文章来源地址https://www.toymoban.com/news/detail-834742.html

  • 这个需要重新配置网络,不过我试过了很多次,都不行,还是找到了原来的模型,下载到了本地。

总结

  • 这个问题我弄了三天,当然有一部分原因是假期,我的工作效率慢,还有一部分是因为我来回换,最终还是使用pyannote。
  • 这个和正常的huggingface模型不一样,还需要自己读一下代码,下载相关的模型。

到了这里,关于语音处理——Pyannote使用学习的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【人工智能124种任务大集合】-集齐了自然语言处理(NLP),计算机视觉(CV),语音识别,多模态等任务

    大家好,我是微学AI,今天给大家介绍一下人工智能124种任务大集合,任务集合主要包括4大类:自然语言处理(NLP)、计算机视觉(CV)、语音识别、多模态任务。 我这里整理了124种应用场景任务大集合,每个任务目录如下: 句子嵌入(Sentence Embedding):将句子映射到固定维

    2024年02月13日
    浏览(76)
  • 【Elsevier旗下】1区SCI,5天见刊!稳定检索36年,大数据、人工智能、机器学习、语音、语言、会话、情绪识别等领域

    近日 国自然预计将在下周8月20日之前公布 ,想必申请过国自然基金作者都知道,需要有研究基础,说白了就是需要有文章支持。那么稿子写好了,选择一本靠谱优质期刊也是一门学问。 本期小编推荐2本Elsevier 旗下审稿快刊,各项指标优秀,实为评职晋升、申报基金之首选

    2024年02月13日
    浏览(51)
  • 第14章-Python-人工智能-语言识别-调用百度语音识别

            百度语音识别API是可以免费试用的,通过百度账号登录到百度智能云,在语音技术页面创建的应用,生成一个语音识别的应用,这个应用会给你一个APIKey和一个Secret Key,如图14.1所示。  我们在自己的程序中用 API Key 和 Secret Key 这两个值获取 Koken,然后再通过 Token 调

    2024年02月08日
    浏览(65)
  • 语音识别与VC维:改变人工智能的未来

    语音识别(Speech Recognition)是一种人工智能技术,它旨在将人类的语音信号转换为文本或其他形式的数据。这项技术在过去几年中得到了巨大的发展,并成为人工智能领域的一个关键技术。VC维(Vocabulary Coverage Dimension)是一种数学模型,用于描述语言模型的表达能力。在本文中,

    2024年02月19日
    浏览(61)
  • 【人工智能】科大讯飞语音识别应用开发(第三集)

    这次需要对科大讯飞语音识别接口进行语音识别应用开发,前两次都是通过WebAPI调用接口,这次换一下,通过SDK调用接口 下面是开发的详细记录过程(基于前两次的基础上) 网址:https://www.xfyun.cn/services/voicedictation 不领服务量为500且该包免费( 貌似是不同应用都可以免费领

    2024年02月13日
    浏览(54)
  • 智能语音识别在人工智能应用中的重要性

    作者:禅与计算机程序设计艺术 随着计算机的发展、移动互联网的普及和互联网服务的快速发展,语音识别技术也逐渐走入人们的视野中。相对于手写文字或是拼音方式输入的方式,语音输入的方式带来的便利、准确率提高的效果,使得越来越多的人开始喜欢用语音的方式来

    2024年02月07日
    浏览(68)
  • 人工智能技术在智能音箱中的应用:智能语音识别与智能交互

    作者:禅与计算机程序设计艺术 引言 1.1. 背景介绍 智能音箱作为智能家居的重要组成部分,近年来得到了越来越多的用户青睐。随着人工智能技术的不断发展,智能音箱的核心功能之一——智能语音识别与智能交互也越来越受到人们的关注。智能语音识别技术可以让用户更

    2024年02月07日
    浏览(59)
  • 极速进化,光速转录,C++版本人工智能实时语音转文字(字幕/语音识别)Whisper.cpp实践

    业界良心OpenAI开源的Whisper模型是开源语音转文字领域的执牛耳者,白璧微瑕之处在于无法通过苹果M芯片优化转录效率,Whisper.cpp 则是 Whisper 模型的 C/C++ 移植版本,它具有无依赖项、内存使用量低等特点,重要的是增加了 Core ML 支持,完美适配苹果M系列芯片。 Whisper.cpp的张量

    2024年02月02日
    浏览(68)
  • 自然语言处理的未来:从语音助手到人工智能

    自然语言处理(NLP)是人工智能(AI)领域的一个重要分支,它涉及到计算机理解、生成和处理人类语言的能力。自从2010年左右,NLP技术在深度学习和大数据技术的推动下发生了巨大的变革,这使得许多之前只能由专业人士完成的任务现在可以由计算机自动完成。 在过去的几年里

    2024年02月21日
    浏览(95)
  • 【10个适合新手的人工智能项目 - 02】手写数字识别:使用Python和机器学习算法,编写一个手写数字识别程序,能够识别手写数字图像并将其转换为数字。

    为了编写一个手写数字识别程序,我们需要使用Python编程语言和一些机器学习算法。在这个项目中,我们将使用深度学习神经网络模型,它被广泛应用于图像识别任务。 以下是手写数字识别程序的基本步骤: 首先,我们需要一个数据集,用于训练和测试我们的模型。一个常

    2024年02月03日
    浏览(57)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包