中文语音标注工具FunASR(语音识别)

这篇具有很好参考价值的文章主要介绍了中文语音标注工具FunASR(语音识别)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

全称 A Fundamental End-to-End Speech Recognition Toolkit(一个语音识别工具)

可能大家用过whisper(openAi),它【标注英语的确很完美】,【但中文会出现标注错误】或搞了个没说的词替换上去,所以要人工核对,麻烦。

FunASR作用:能【准确】识别语音,并转成【文字、标出声调】


他的原理,就不讲了,俺是搞大数据的,python这东西就勉强能写个爬虫和接口,机器学习和ai相关的算法是0基础。


直接实战吧

首先,冲他这句话,我要给他点个赞!!!很是感动。

docker funasr,语音识别,人工智能

分2个步骤,安装和模型

安装:

docker funasr,语音识别,人工智能

目前只支持cpu方式(等gpu版本出来了,那速度更上一层楼)

我们这里是用作标注,标注是对每一句进行标注,所以很,就【采用实时模型】。

ps:离线的模型太牛了,可以一次性标注几十小时的,感觉适合翻译有声阅读,感觉应用场景比较少

中文实时语音听写服务CPU版本部署

docker安装,不是我吹,docker是目前世界上最好的部署方法。

我建了一个文件夹fun_asr_docker_service 所有的命令默认都在这个文件夹下操作

有docker的同学-可以忽略下面这个

1.安装docker(可以忽略)
curl -O https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/shell/install_docker.sh
sudo bash install_docker.sh
2.启动docker镜像

拉取镜像(大概将近4GB)

sudo docker pull \
  registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-online-cpu-0.1.5

名字挺长的,改个名

sudo docker tag registry.cn-hangzhou.aliyuncs.com/funasr_repo/funasr:funasr-runtime-sdk-online-cpu-0.1.5 fun_asr

建立模型文件夹(对项目不熟悉的新手别乱改名哈--这个是阿里教程里的

mkdir -p ./funasr-runtime-resources/models

启动镜像(命令会进去镜像里面)

sudo docker run -p 10096:10095 -it --privileged=true \
  -v $PWD/funasr-runtime-resources/models:/workspace/models \
  fun_asr
3.启动服务

然后在docker镜像里面执行

cd FunASR/runtime
nohup bash run_server_2pass.sh \
  --download-model-dir /workspace/models \
  --vad-dir damo/speech_fsmn_vad_zh-cn-16k-common-onnx \
  --model-dir damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-onnx  \
  --online-model-dir damo/speech_paraformer-large_asr_nat-zh-cn-16k-common-vocab8404-online-onnx  \
  --punc-dir damo/punc_ct-transformer_zh-cn-common-vad_realtime-vocab272727-onnx \
  --itn-dir thuduj12/fst_itn_zh \
  --certfile 0 \
  --hotword /workspace/models/hotwords.txt > log.out 2>&1 &
服务参数说明(具体是啥意思,看这个表)
# 如果您想关闭ssl,增加参数:--certfile 0
# 如果您想使用时间戳或者nn热词模型进行部署,请设置--model-dir为对应模型:
#   damo/speech_paraformer-large-vad-punc_asr_nat-zh-cn-16k-common-vocab8404-onnx(时间戳)
#   damo/speech_paraformer-large-contextual_asr_nat-zh-cn-16k-common-vocab8404-onnx(nn热词)
# 如果您想在服务端加载热词,请在宿主机文件./funasr-runtime-resources/models/hotwords.txt配置热词(docker映射地址为/workspace/models/hotwords.txt):
#   每行一个热词,格式(热词 权重):阿里巴巴 20
--download-model-dir 模型下载地址,通过设置model ID从Modelscope下载模型
--model-dir  modelscope model ID 或者 本地模型路径
--online-model-dir  modelscope model ID 或者 本地模型路径
--quantize  True为量化ASR模型,False为非量化ASR模型,默认是True
--vad-dir  modelscope model ID 或者 本地模型路径
--vad-quant   True为量化VAD模型,False为非量化VAD模型,默认是True
--punc-dir  modelscope model ID 或者 本地模型路径
--punc-quant   True为量化PUNC模型,False为非量化PUNC模型,默认是True
--itn-dir modelscope model ID 或者 本地模型路径
--port  服务端监听的端口号,默认为 10095
--decoder-thread-num  服务端线程池个数(支持的最大并发路数),
                      脚本会根据服务器线程数自动配置decoder-thread-num、io-thread-num
--io-thread-num  服务端启动的IO线程数
--model-thread-num  每路识别的内部线程数(控制ONNX模型的并行),默认为 1,
                    其中建议 decoder-thread-num*model-thread-num 等于总线程数
--certfile  ssl的证书文件,默认为:../../../ssl_key/server.crt,如果需要关闭ssl,参数设置为0
--keyfile   ssl的密钥文件,默认为:../../../ssl_key/server.key
--hotword   热词文件路径,每行一个热词,格式:热词 权重(例如:阿里巴巴 20),
            如果客户端提供热词,则与客户端提供的热词合并一起使用,服务端热词全局生效,客户端热词只针对对应客户端生效。

启动成功

docker funasr,语音识别,人工智能

4.客户端测试

下载测试的打包文件(这里面包含了所有的客户端demo源文件)

wget https://isv-data.oss-cn-hangzhou.aliyuncs.com/ics/MaaS/ASR/sample/funasr_samples.tar.gz

python测试

先在本地跑,然后要安装web-socket和pyauidio

python funasr_wss_client.py --host "ip" --port 10095 --mode 2pass --audio_in audio.wav

windows参考:---下面的第三种【 语音问题 】解决在win 32/64上无法安装 pyaudio ?_pyaudio安装 windows-CSDN博客

docker funasr,语音识别,人工智能

其他测试demo方法参考:

https://github.com/alibaba-damo-academy/FunASR/blob/main/runtime/docs/SDK_tutorial_online_zh.md#html-client

模型:

中文模型有【2个常用】

paraformer-zh(非实时,会生成时间戳)

paraformer-zh-online(实时,不会生成时间戳)

docker funasr,语音识别,人工智能

参考:

GitHub - alibaba-damo-academy/FunASR: A Fundamental End-to-End Speech Recognition Toolkit and Open Source SOTA Pretrained Models.

阿里达摩院开源大型端到端语音识别工具包FunASR | 弥合学术与工业应用之间的差距 - 知乎文章来源地址https://www.toymoban.com/news/detail-766302.html

到了这里,关于中文语音标注工具FunASR(语音识别)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 两分钟克隆你的声音,支持替换电影和视频里面的声音,免费使用支持docker一键部署,集成工具包括声音伴奏分离、自动训练集分割、中文自动语音识别(ASR)和文本标注

    两分钟克隆你的声音,支持替换电影和视频里面的声音,免费使用支持docker一键部署,集成工具包括声音伴奏分离、自动训练集分割、中文自动语音识别(ASR)和文本标注。 查看我们的介绍视频 demo video 中国地区用户可使用 AutoDL 云端镜像进行体验:https://www.codewithgpu.com/i/RVC-

    2024年02月20日
    浏览(29)
  • 关于python环境下的语音转文本,whisper或funASR

            因为前阵子,有需求要将语音转为文本再进行下一步操作。感觉这个技术也不算是什么新需求,但是一搜,都是大厂的api,或者是什么什么软件,由于想要免费的,同时也要嵌入在代码中,所以这些都不能用。、         一筹莫展的时候,突然搜到whisper,这是个o

    2024年02月08日
    浏览(29)
  • FunASR服务器安装

    请注意安装环境,根据官网中快速开始不可以使用,需要先安装conda,官方文档: https://alibaba-damo-academy.github.io/FunASR/en/installation/installation_zh.html 执行命令: wget https://repo.continuum.io/miniconda/Miniconda3-latest-Linux-x86_64.sh 继续执行命令: sh Miniconda3-latest-Linux-x86_64.sh 执行此命令后会

    2024年04月28日
    浏览(15)
  • ubuntu使用whisper和funASR-语者分离-二值化

    这个镜像可以 python -m pip install --upgrade pip 我在另一篇博客也写道,互相交流学习 whisper-深入-语者分离 2.1.1安装基础包 2.1.2安装依赖 代码调用 创建key https://huggingface.co/settings/tokens 创建代码 cache_dir:模型啥的下载后存放位置 use_auth_token :创建的key 报错ModuleNotFoundError: No module

    2024年02月05日
    浏览(31)
  • 开源(离线)中文语音识别ASR(语音转文本)工具整理

    开源(离线)中文语音识别ASR(语音转文本)工具整理 Open AI在2022年9月21日开源了号称其英文语音辨识能力已达到人类水准的Whisper神经网络,且它亦支持其它98种语言的自动语音辨识。 Whisper系统所提供的自动语音辨识(Automatic Speech Recognition,ASR)模型是被训练来运行语音辨识与翻

    2024年02月13日
    浏览(37)
  • 中文自然语言处理(NLP)的命名实体识别(NER)任务常见序列标注方法

    中文NLP的NER任务中的数据集序列标注方法,主要有以下几种常用的标注方案: BIO标注法(Begin-Inside-Outside) : B (Begin)表示实体的开始部分。 I (Inside)表示实体的中间部分。 O (Outside)表示非实体部分。 例如,“北京是中国的首都”,如果要标注“北京”为地名,会标

    2024年01月23日
    浏览(36)
  • 人工智能技术基础系列之:语音识别与语音处理

    作者:禅与计算机程序设计艺术 语音识别(英语:Speech recognition)是一个广义上的概念,泛指在不同场景、不同的条件下通过语言或口头获取信息并转换成文字的能力。具体来说,语音识别就是把人类的声音或者说话转化成计算机可以理解的文字、数字信号。语音识别技术应

    2024年02月05日
    浏览(37)
  • 【语音识别】HMM中文语音识别【含GUI Matlab源码 1385期】

    获取代码方式1: 完整代码已上传我的资源:【语音识别】基于matlab GUI HMM中文语音识别【含Matlab源码 1385期】 点击上面蓝色字体,直接付费下载,即可。 获取代码方式2: 付费专栏Matlab语音处理(初级版) 备注: 点击上面蓝色字体 付费专栏Matlab语音处理(初级版) ,扫描

    2024年02月20日
    浏览(26)
  • 第14章-Python-人工智能-语言识别-调用百度语音识别

            百度语音识别API是可以免费试用的,通过百度账号登录到百度智能云,在语音技术页面创建的应用,生成一个语音识别的应用,这个应用会给你一个APIKey和一个Secret Key,如图14.1所示。  我们在自己的程序中用 API Key 和 Secret Key 这两个值获取 Koken,然后再通过 Token 调

    2024年02月08日
    浏览(39)
  • 中文连续视觉语音识别挑战赛

    视觉语音识别,也称唇语识别,是一项通过口唇动作来推断发音内容的技术。该技术在公共安全、助老助残、视频验真等领域具有重要应用。当前,唇语识别的研究方兴未艾,虽然在独立词、短语等识别上取得了长足进展,但在大词表连续识别方面仍面临巨大挑战。特别是对

    2024年02月06日
    浏览(29)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包