whisper large-v3 模型文件下载链接

这篇具有很好参考价值的文章主要介绍了whisper large-v3 模型文件下载链接。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

#源码里找到的

_MODELS = {
    "tiny.en": "https://openaipublic.azureedge.net/main/whisper/models/d3dd57d32accea0b295c96e26691aa14d8822fac7d9d27d5dc00b4ca2826dd03/tiny.en.pt",
    "tiny": "https://openaipublic.azureedge.net/main/whisper/models/65147644a518d12f04e32d6f3b26facc3f8dd46e5390956a9424a650c0ce22b9/tiny.pt",
    "base.en": "https://openaipublic.azureedge.net/main/whisper/models/25a8566e1d0c1e2231d1c762132cd20e0f96a85d16145c3a00adf5d1ac670ead/base.en.pt",
    "base": "https://openaipublic.azureedge.net/main/whisper/models/ed3a0b6b1c0edf879ad9b11b1af5a0e6ab5db9205f891f668f8b0e6c6326e34e/base.pt",
    "small.en": "https://openaipublic.azureedge.net/main/whisper/models/f953ad0fd29cacd07d5a9eda5624af0f6bcf2258be67c92b79389873d91e0872/small.en.pt",
    "small": "https://openaipublic.azureedge.net/main/whisper/models/9ecf779972d90ba49c06d968637d720dd632c55bbf19d441fb42bf17a411e794/small.pt",
    "medium.en": "https://openaipublic.azureedge.net/main/whisper/models/d7440d1dc186f76616474e0ff0b3b6b879abc9d1a4926b7adfa41db2d497ab4f/medium.en.pt",
    "medium": "https://openaipublic.azureedge.net/main/whisper/models/345ae4da62f9b3d59415adc60127b97c714f32e89e936602e85993674d08dcb1/medium.pt",
    "large-v1": "https://openaipublic.azureedge.net/main/whisper/models/e4b87e7e0bf463eb8e6956e646f1e277e901512310def2c24bf0e11bd3c28e9a/large-v1.pt",
    "large-v2": "https://openaipublic.azureedge.net/main/whisper/models/81f7c96c852ee8fc832187b0132e569d6c3065a3252ed18e56effd0b6a73e524/large-v2.pt",
    "large-v3": "https://openaipublic.azureedge.net/main/whisper/models/e5b1a55b89c1367dacf97e3e19bfd829a01529dbfdeefa8caeb59b3f1b81dadb/large-v3.pt",
    "large": "https://openaipublic.azureedge.net/main/whisper/models/e5b1a55b89c1367dacf97e3e19bfd829a01529dbfdeefa8caeb59b3f1b81dadb/large-v3.pt",
}

加速下载
apt install aria2

aria2c -x 16 https://openaipublic.azureedge.net/main/whisper/models/e5b1a55b89c1367dacf97e3e19bfd829a01529dbfdeefa8caeb59b3f1b81dadb/large-v3.pt --all-proxy=http://host.docker.internal:7890

我这是在容器里用代理,代理选项可去除

这是gpt4给我的代码:

我想写一个python程序,在我发出“过”的语音时,打印“过”(实际上是执行某种操作,我会将它嵌入到其他程序中,目前只打印字符串),在我发出“下一个”的语音时,打印“下一个”,我想使用https://huggingface.co/openai/whisper-large-v3实现文章来源地址https://www.toymoban.com/news/detail-755233.html

import whisper
import sounddevice as sd
import numpy as np

# 录音设置
duration = 5  # 录音时长(秒)
samplerate = 16000  # 采样率


def record_audio(duration, samplerate):
    """录制音频"""
    recording = sd.rec(
        int(duration * samplerate), samplerate=samplerate, channels=1, dtype="float32"
    )
    sd.wait()
    return recording


def transcribe_audio(audio, model):
    """使用Whisper模型转录音频"""
    audio = np.squeeze(audio)  # 确保音频是一维的
    result = model.transcribe(audio)
    return result["text"]


def main():
    # 加载Whisper模型
    model = whisper.load_model("large-v3")

    while True:
        print("开始录音...")
        audio = record_audio(duration, samplerate)
        print("录音结束,正在识别...")

        # 识别语音
        text = transcribe_audio(audio, model)

        # 根据识别结果执行操作
        if "过" in text:
            print("过")
        elif "下一个" in text:
            print("下一个")
        else:
            print("未识别到指令")
            print(text)


if __name__ == "__main__":
    main()

到了这里,关于whisper large-v3 模型文件下载链接的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 跨域问题问题小结(vue3)---处理http文件链接下载失败

    请求后端 提供的链接居然是一个http的文件链接 首先对这个地址做了正则判断替换成https 这样做的原因是 浏览器会认为在https下打开的http链接是不安全操作,所以会进行拦截,或者访问不成功 替换后运行报错 错误信息告诉我们 混合请求 (两个地址域名不一致)是被浏览器

    2024年02月08日
    浏览(57)
  • Python批量爬虫下载文件——把Excel中的超链接快速变成网址

    本文的背景是:大学关系很好的老师问我能不能把Excel中1000个超链接网址对应的pdf文档下载下来。虽然可以手动一个一个点击下载,但是这样太费人力和时间了。我想起了之前的爬虫经验,给老师分析了一下可行性,就动手实践了。    没想到刚开始就遇到了困难,Excel中的

    2024年02月12日
    浏览(38)
  • Python实现将pdf,docx,xls,doc,wps链接下载并将文件保存到本地

    前言 本文是该专栏的第31篇,后面会持续分享python的各种干货知识,值得关注。 在工作上,尤其是在处理爬虫项目中,会遇到这样的需求。访问某个网页或者在采集某个页面的时候,正文部分含有docx,或pdf,或xls,或doc,或wps,或ofd,或xlsx,或zip等链接。需要你使用python自

    2024年02月16日
    浏览(56)
  • Python实现将pdf,docx,xls,doc,wps,zip,xlsx,ofd链接下载并将文件保存到本地

    前言 本文是该专栏的第31篇,后面会持续分享python的各种干货知识,值得关注。 在工作上,尤其是在处理爬虫项目中,会遇到这样的需求。访问某个网页或者在采集某个页面的时候,正文部分含有docx,或pdf,或xls,或doc,或wps,或ofd,或xlsx,或zip等链接。需要你使用python自

    2024年02月17日
    浏览(65)
  • [NLP]Huggingface模型/数据文件下载方法

    作为一名自然语言处理算法人员,hugging face开源的transformers包在日常的使用十分频繁。在使用过程中,每次使用新模型的时候都需要进行下载。如果训练用的服务器有网,那么可以通过调用from_pretrained方法直接下载模型。但是就本人的体验来看,这种方式尽管方便,但还是会

    2024年02月16日
    浏览(58)
  • 上传、下载huggingface仓库文件(模型、数据等)

    例如,想要从huggingface hub下载llama-13b模型文件到本地: 可以用如下命令, local_dir 就是你想要下载到的本地文件夹: 上述命令等价于 git clone ,更多参数, 例如过滤、指定文件,建立符号链接等,详见官网教程: Download files from the Hub 想要上传文件,例如模型权重的话,首先得

    2024年02月12日
    浏览(116)
  • day3:基于UDP模型的简单文件下载

    思维导图 tftp文件下载客户端实现

    2024年01月17日
    浏览(37)
  • git lfs使用(huggingface下载大模型文件)

    Git LFS:(Large File Storage,解决git大文件存储问题)把音乐、图片、视频等指定的任意文件存在 Git 仓库之外,而在 Git 仓库中用一个占用空间 1KB 不到的文本指针来代替文件的存在,通过把大文件存储在 Git 仓库之外,可以减小 Git 仓库本身的体积,使克隆 Git 仓库的速度加快,也

    2024年02月08日
    浏览(61)
  • 高速下载VisualGLM模型文件的解决方案

      大家好,我是爱编程的喵喵。双985硕士毕业,现担任全栈工程师一职,热衷于将数据思维应用到工作与生活中。从事机器学习以及相关的前后端开发工作。曾在阿里云、科大讯飞、CCF等比赛获得多次Top名次。现为CSDN博客专家、人工智能领域优质创作者。喜欢通过博客创作

    2024年02月12日
    浏览(37)
  • 如何批量下载hugging face模型和数据集文件

    目前网上关于下载hugging face模型文件大多都是一个一个下载,无法做到批量下载,但有些模型或数据集包含文件太多,不适用一个一个下载。本文将会介绍如何使用git进行批量下载。 由于Hugging Face的部分模型和数据集在国外服务器,不使用代理比较慢,所以要先配置git代理。

    2024年02月11日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包