本地部署 Whisper 及 WhisperDesktop

这篇具有很好参考价值的文章主要介绍了本地部署 Whisper 及 WhisperDesktop。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 什么是 Whisper

Whisper 是一个通用的语音识别模型。它是在一个大型的不同音频数据集上训练出来的,也是一个多任务模型,可以进行多语言语音识别(multilingual speech recognition)、语音翻译(speech translation)和语言识别(language identification)。

2. Github 地址

https://github.com/openai/whisper

3. 创建虚拟环境

conda create -n whisper python==3.10.6
conda activate whisper 

4. 安装 ffmpeg

sudo apt update && sudo apt install ffmpeg

5. 部署 Whisper

克隆代码库,

git clone https://github.com/openai/whisper.git; cd whisper/

安装依赖,

pip3 install -r requirements.txt
pip3 install -U openai-whisper
pip3 install git+https://github.com/openai/whisper.git 
pip3 install --upgrade --no-deps --force-reinstall git+https://github.com/openai/whisper.git
pip3 install setuptools-rust

(可选)我使用的是 WSL-Ubuntu 22.04,安装的 CUDA Toolkit 11.8,将 pytorch、torchvision、torchaudio 更新为兼容 CUDA Toolkit 11.8 的版本。

pip3 uninstall pytorch torchvision torchaudio && pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

6. 使用 Whisper

这里我录制了一句中文,测试一下效果,

whisper demo.wav --model medium --language Chinese

输出如下,

本地部署 Whisper 及 WhisperDesktop

(20230514追加)Windows 本地部署 WhisperDesktop

下载 WhisperDesktop

访问 https://github.com/Const-me/Whisper/releases,下载最新版 WhisperDesktop,

本地部署 Whisper 及 WhisperDesktop
将下载的文件解压,例如,D:\ProgramGreen\WhisperDesktop 目录下,

本地部署 Whisper 及 WhisperDesktop

下载语音模型

访问 https://huggingface.co/datasets/ggerganov/whisper.cpp/tree/main,下载语音模型,

本地部署 Whisper 及 WhisperDesktop

使用 WhisperDesktop

双击打开 WhisperDesktop.exe,加载刚刚下载的语音模型,

本地部署 Whisper 及 WhisperDesktop
找一个视频文件测试一下,
本地部署 Whisper 及 WhisperDesktop
生成文本的一部分截屏如下,
本地部署 Whisper 及 WhisperDesktop

完结!文章来源地址https://www.toymoban.com/news/detail-482613.html

到了这里,关于本地部署 Whisper 及 WhisperDesktop的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 本地部署 闻达:一个LLM调用平台

    闻达:一个 LLM 调用平台。为小模型外挂知识库查找和设计自动执行动作,实现不亚于于大模型的生成能力。 针对特定环境的内容生成是LLM使用中的一项重要应用,实现这一目的,主要有全量微调、lora 微调、和本项目方法。但个人没有做全量微调的,lora 微调只能牺牲基础能

    2024年02月11日
    浏览(43)
  • 本地部署 Chatbot UI,一个开源的 ChatGPT UI

    Chatbot UI 是一个用于 AI 模型的开源聊天 UI。适用于 OpenChat 模型。 画面效果展示如下, https://github.com/imoneoi/openchat-ui 安装 nvm, 激活 nvm, 安装 node, 克隆代码, 安装依赖项, 创建配置文件, 启动应用, 访问应用,使用浏览器打开 http://localhost:3000/, Environment Variable Default

    2024年02月16日
    浏览(57)
  • 部署一个本地的聊天机器人-基于ChatGLM3

    理论上来说 8G及以上显存的英伟达GPU 笔者的设备 RTX 4060Ti (16G显存) Archlinux Python 3.10.10 ChatGLM3 代码版本 33953b119e7 ChatGLM3 是智谱AI几周前才开源的模型, 6B大小的话只是个人用的话算是完全免费的. 这个相比之前的2感觉是prompt优化了一些(不过也复杂了一些), 可以直接用来让机器人

    2024年02月05日
    浏览(50)
  • 如何使用Docker本地部署一个开源网址导航页并分享好友公网使用

    💝💝💝欢迎来到我的博客,很高兴能够在这里和您见面!希望您在这里可以感受到一份轻松愉快的氛围,不仅可以获得有趣的内容和知识,也可以畅所欲言、分享您的想法和见解。 推荐:kwan 的首页,持续学习,不断总结,共同进步,活到老学到老 导航 檀越剑指大厂系列:全面总

    2024年02月03日
    浏览(61)
  • 【Python】本地版 Whisper 自动转录器(附源码网址)

    目   录 一、实时自动语音转录器简介              二、开源Whisper实时转录器              三、pyinstaller 打包发布exe应用程序 四、修改版源代码                              一、实时自动语音转录器简介 实时自动语音转录器是一种能够自动将语音信号转换为文字

    2024年02月16日
    浏览(46)
  • vue项目本地开发完成后部署到服务器后报404是什么原因

    前后端分离开发模式下,前后端是独立布署的,前端只需要将最后的构建物上传至目标服务器的 web 容器指定的静态目录下即可 我们知道 vue 项目在构建后,是生成一系列的静态文件 常规布署我们只需要将这个目录上传至目标服务器即可 让web容器跑起来,以 nginx 为例 配置完

    2024年01月22日
    浏览(49)
  • vue项目本地开发完成后部署到服务器后报404是什么原因呢?

    前后端分离开发模式下,前后端是独立布署的,前端只需要将最后的构建物上传至目标服务器的 web 容器指定的静态目录下即可 我们知道 vue 项目在构建后,是生成一系列的静态文件 常规布署我们只需要将这个目录上传至目标服务器即可 让 web 容器跑起来,以 nginx 为例 配置

    2024年03月09日
    浏览(39)
  • Whisper——部署fast-whisper中文语音识别模型

    whisper:https://github.com/openai/whisper/tree/main 参考文章:Whisper OpenAI开源语音识别模型 需要其他版本的可以自己下载:https://huggingface.co/openai 原始中文语音模型: 微调后的中文语音模型: 补下一个: tokenizer.json 模型转换 float16 : int8 :

    2024年01月22日
    浏览(43)
  • whisper部署与使用

    Whisper由OpenAI发布于2022/9/21相较于ChatGPT(2022/11/30)早了两个半月。虽然影响力无法匹敌ChatGPT,但是其内在价值仍不可忽视。 Whisper的核心功能是语音识别,对应生活中可以有很多应用场景。虽然效果显著,但是其核心仅仅简单粗暴的使用了Transformer。具体细节这里不展开,可以

    2024年02月13日
    浏览(32)
  • whisper 语音识别项目部署

    1.安装anaconda软件 在如下网盘免费获取软件: 链接:https://pan.baidu.com/s/1zOZCQOeiDhx6ebHh5zNasA 提取码:hfnd 2.使用conda命令创建python3.8环境 3.进入whisper虚拟环境 4.安装cuda10.0的PyTorch环境 5.使用命令安装whisper库包 6.简单使用命令识别一段语音: 6.安装和配置ffmpeg软件 在如下网盘免费

    2024年02月11日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包