电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因

这篇具有很好参考价值的文章主要介绍了电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.msvcp140.dll丢失的解决方方法

进入电脑的程序和功能只要是像下面图片的全部点击修复或者重新安装再或者从网上下载缺少的vc运行库文件放进自己的C:\Windows\System里,您的系统是64位的请将文源件复制到C:\Windows\SysWOW64目录。

电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因,gpt-3,人工智能

 2.由于llama运行旧的模型需要的版本和llama的版本需要兼容,所以在2023年5月12日以后的llama.cpp才能使用新的权重。

3报错“tok_embeddings.weight

你的ggml模型与ggml.cpp不兼容。

4.这种报错电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因,gpt-3,人工智能

 你的模型下载后被你改了名字因此找不到GGML了。

5.如果你的llama的版本太高运行不了旧版本在pip这样输入

pip install --force-reinstall --ignore-installed --no-cache-dir llama-cpp-python==0.1.48 -i https://pypi.tuna.tsinghua.edu.cn/simple

成功更换如下

电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因,gpt-3,人工智能

 6.error loading model: unknown (magic, version) combination: 67676a74, 00000003; is this really a GGML file? llama_init_from_file: failed to load model这种报错

查看自己下载模型的文件名称,如下面我自己的的三种他们分别是小羊驼训练出来的13B(9G),13B中文整合(25G),最大最新的65B(47G)。

电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因,gpt-3,人工智能

 据我所知现在的模型有三种格式分别是ggml 是 llama.cpp 格式,gptq 格式是一种将大部分 16 位权重减少到 4 位的量化技术。从 huggingface (hf)格式是纯格式模型,没有 ggml 也没有 gptq

这三种。在这里能直接使用的是GPTQ也就是我的第三种模型,hf需要转换和量化你可以使用最新的“convert.py”脚本和“quantize”程序进行转换和量化成功后就是我的第二种模型。如果你想使用第一种模型你须使用 v3的 ggml 模型。目前 oobabooga 或 llama-cpp-python 似乎不支持 v3 ggml 模型。

7.67676a74, 00000002; is this really a GGML file? llama_init_from_file: failed to load model

这种报错和第二种一样都是版本的原因,打开你的 text-generation-webui/requirements.txt文件

llama-cpp-python==0.1.50; platform_system != "Windows"
https://github.com/abetlen/llama-cpp-python/releases/download/v0.1.50/llama_cpp_python-0.1.50-cp310-cp310-win_amd64.whl; platform_system == "Windows"

把上面的代码复制进去,或者想办法把你的llama-cpp-python版本  升到0.1.50 。

用cpu成功运行的模型非常的慢大概1秒2-3个字而且非常吃内存,运行30G以上的模型运行内存必须达到64G。

电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因,gpt-3,人工智能

电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因,gpt-3,人工智能 

最后我的建议是使用Linux去搭建环境文章来源地址https://www.toymoban.com/news/detail-682892.html

到了这里,关于电脑部署本地类似ChatGPT3.5的AI模型Vicuna的常见错误和原因的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 本地化部署AI语言模型RWKV指南,ChatGPT顿时感觉不香了。

    之前由于ChatGpt处处受限,又没法注册的同学们有福了,我们可以在自己电脑上本地化部署一套AI语言模型,且对于电脑配置要求也不是非常高,对它就是 RWKV 。 RWKV是一个开源且允许商用的大语言模型,灵活性很高且极具发展潜力,它是一种纯 RNN 的架构,能够进行语言建模,

    2024年02月08日
    浏览(55)
  • 【ChatGPT】Web LLM:你的本地的ChatGPT —— 完全在您的浏览器中运行 vicuna-7b 大型语言模型,它非常令人印象深刻

    目录 Web LLM—— 完全在您的浏览器中运行 vicuna-7b 大型语言模型,它非常令人印象深刻 指示 聊天演示 链接 免责声明 Instructions Chat Demo Links Disclaimer

    2024年02月05日
    浏览(55)
  • Vicuna本地部署的实战方案

      大家好,我是herosunly。985院校硕士毕业,现担任算法研究员一职,热衷于机器学习算法研究与应用。曾获得阿里云天池比赛第一名,CCF比赛第二名,科大讯飞比赛第三名。拥有多项发明专利。对机器学习和深度学习拥有自己独到的见解。曾经辅导过若干个非计算机专业的

    2024年02月09日
    浏览(60)
  • 对标ChatGPT3.5,支持手机电脑网页使用,无需魔法

    说到 Claude 是什么,大家可能没听说过。 但是说到 OpenAI,说到 ChatGPT,相信大家一定听说过,玩过。 PS:关于 Claude 网页版的注册教程,我之前已经写过文章了,现在额外介绍如何使用手机App和电脑软件来玩 Claude。 Claude ,这是一支由前 OpenAI 的研究员和工程师组成的团队创建

    2024年02月06日
    浏览(48)
  • Vicuna- 一个类 ChatGPT开源 模型

    Meta 开源 LLaMA(大羊驼)系列模型为起点,研究人员逐渐研发出基于LLaMA的Alpaca(羊驼)、Alpaca-Lora、Luotuo(骆驼)等轻量级类 ChatGPT 模型并开源。 google提出了一个新的模型:Vicuna(小羊驼)。该模型基于LLaMA,参数量13B。Vicuna-13B 通过微调 LLaMA 实现了高性能的对话生成 Vicun

    2024年02月04日
    浏览(92)
  • [AI]ChatGPT4 与 ChatGPT3.5 区别有多大

    ChatGPT 3.5 注册已经不需要手机了,直接邮箱认证就可以,这可真算是好消息,坏消息是 ChatGPT 4 还是要收费。 那么 GPT-3.5 与 GPT-4 区别有多大呢,下面简单测试一下。 以从 TDengine 订阅数据为例,TDengine 算是不太小众的数据库,如果连这个都能搞定,说明GPT 还是蛮厉害的。 这

    2024年02月03日
    浏览(42)
  • python一个请求chatgpt3.5模型例子

    当然可以!你可以使用OpenAI的 `openai.ChatCompletion.create()` 方法来请求 ChatGPT 3.5 模型的回复。以下是一个使用Python进行请求的示例代码: 在上面的代码中,你需要将 `\\\'YOUR_API_KEY\\\'` 替换为你的OpenAI API密钥。然后,代码通过 `send_message()` 函数将用户的输入发送给模型,并获取模型的

    2024年02月12日
    浏览(57)
  • 关于ChatGPT3.5模型的使用(java)

    最近网上关于ChatGPT的内容特别多,但是浏览大多数文章,能够完整拿来即用的代码却少之又少,索性自己写了一份以** gpt-3.5-turbo ** 模型为基础的demo,技术有限,仅供参考,不喜勿喷! 想要进行利用chatGPT进行开发,前提是要申请OpenAI账号,拿到自己的秘钥。这一步劝退了大

    2024年02月16日
    浏览(50)
  • ChatGPT3 Transformer 的多模态全能语言模型

    \\\"Transformer 的多模态全能语言模型\\\" 指的是一种融合了多种输入模态(如文本、图像、声音等)的语言模型,具有广泛的应用能力,可以理解和生成多种类型的信息。 \\\"Transformer的多模态全能语言模型\\\"  包含了多个概念。让我先解释一下这些概念: Transformer :Transformer是一种深

    2024年02月09日
    浏览(67)
  • 使用llama.cpp在本地搭建vicuna 13B语言模型

    有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置 3900X 32G内存。 https://github.com/mps256/vicuna.ps1

    2024年02月11日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包