1 简介
Whisper 是 OpenAI 的语音识别系统(几乎是最先进),它是免费的开源模型,可供本地部署。
2 docker
https://hub.docker.com/r/onerahmet/openai-whisper-asr-webservice
3 github
https://github.com/ahmetoner/whisper-asr-webservice文章来源:https://www.toymoban.com/news/detail-751788.html
4 运行
nvidia-docker run -d --gpus all -p 9000:9000 -e ASR_MODEL=base -e ASR_ENGINE=openai_whisper onerahmet/openai-whisper-asr-webservice:latest-gpu
image 大小:11.5G
运行后,即可在9000端口通过swagger调用,我先用手机录了一些简单的中文,识别效果还不错,除了第一次调用时可能是下载和加载模型时间比较长,后面再调用速度就很快。
又用它识别了一个25分钟的mp3(约27M),是一位小哥哥B站视频对应的音频文件,识别时间约为不到1分钟,使用GPU内存占用在1G之内,尽管有一小部分乱码和一些重复,但整体效果不错。
我觉得速度和效果都相当美丽,绝对可以作为一些收费产品的平替了~~文章来源地址https://www.toymoban.com/news/detail-751788.html
5 注意事项
- 上传的音频文件使用时尽量不要用中文文件名
到了这里,关于本地部署_语音识别工具_Whisper的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!