GitHub:GitHub - ymcui/Chinese-LLaMA-Alpaca: 中文LLaMA&Alpaca大语言模型+本地CPU/GPU训练部署 (Chinese LLaMA & Alpaca LLMs)文章来源:https://www.toymoban.com/news/detail-609791.html
中文LLaMA模型
中文LLaMA模型在原版的基础上扩充了中文词表,使用了中文通用纯文本数据进行二次预训练。文章来源地址https://www.toymoban.com/news/detail-609791.html
模型名称 | 训练数据 | 重构模型[1] | 大小[2] | LoRA下载[3] |
---|---|---|---|---|
Chinese-LLaMA-7B | 通用20G | 原版LLaMA-7B | 770M |
[百度网盘] [Google Drive] |
Chinese-LLaMA-Plus-7B ⭐️ | 通用120G | 原版LLaMA-7B | 790M |
到了这里,关于LLM-LLaMA中文衍生模型:Chinese-LLaMA-Alpaca【扩充词表、Lora部分参数预训练、微调】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!