有人做了windows下的脚本放到github上了,直接运行就可以了。我在本机试了一下13B的模型能运行,但生成速度非常慢,回复一个问题基本上要花5分钟以上的时间。我的机器配置 3900X 32G内存。
https://github.com/mps256/vicuna.ps1文章来源:https://www.toymoban.com/news/detail-509196.html
文章来源地址https://www.toymoban.com/news/detail-509196.html
到了这里,关于使用llama.cpp在本地搭建vicuna 13B语言模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!