开源大语言模型是否可以商用的调查报告

这篇具有很好参考价值的文章主要介绍了开源大语言模型是否可以商用的调查报告。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0. 背景

ChatGPT 火起来了,很多企业想用 ChatGPT,但是又由于企业数据的保密性,所以本地部署开源大语言模型是不二之选。

各个企业本地部署大语言模型的第一步,就是调研哪些开源大语言模型可以商用。

本文对模型是否可以商用,主要调查了各个开源模型的许可内容及Model许可内容。

读者如果发现调查结果有需要修正的地方,欢迎在评论区留言或者发私信给我。

**免责声明:**由于作者知识和判断能力有限,此调查结果仅供参考,并不对调查结果负有任何责任。企业如果想使用某个开源模型,还请自行调查和判断。

1. 调查结果

1.1 基础大模型(LLM)

大规模基础模型:表格中只罗列出参数量大于7B以上模型。

模型 大小 时间 语言 领域 下载 项目地址 机构/个人 结构 文献 备注 模型是否可以商用
Baichuan-7B 7B 2023-06 中英 ckpt baichuan-7B 百川智能 Decoder baichuan-7B 支持商用。如果将 baichuan-7B 模型或其衍生品用作商业用途,请您按照如下方式联系许可方,以进行登记并向许可方申请书面授权:联系邮箱:opensource@baichuan-inc.com, 具体许可协议可见《baichuan-7B 模型许可协议》。
Chinese-Falcon-7B 7B 2023-06 中英 ckpt Linly 深圳大学计算机视觉研究所 Decoder Blog 模型以 Apache License 2.0 协议开源,支持商业用途。
AquilaCode-7B-TS 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。
Aquila-7B 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。
Chinese-LLaMA-33B 33B 2023-06 中英 ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。
TigerBot-7b-base 7B 2023-06 多语 ckpt TigerBot 虎博科技 Decoder 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。
Panda-OpenLLaMA-7B 7B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 可商用
Panda-13B 13B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 不可商用
Panda-7B 7B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 不可商用
OpenLLaMA-13B 13B 2023-05 中英 ckpt Linly 深圳大学计算机视觉研究所 Decoder Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0
LaWGPT-7B 7B 2023-05 中英 法律 ckpt LawGPT Pengxiao Song Decoder 本项目任何资源仅供学术研究使用,严禁任何商业用途。
BiLLa-7B-LLM 7B 2023-05 中英 ckpt BiLLa Zhongli Li Decoder 本项目相关资源仅供学术研究,不得用于商业用途。
Ziya-LLaMA-7B-Reward 7B 2023-05 中英 ckpt Fengshenbang-LM IDEA研究院 Decoder Apache License 2.0 (作者注:并未明确表明禁止商用)
YuYan 11B 2023-04 中文 ckpt / 网易伏羲 Decoder Paper -
Chinese-LLaMA-33B 33B 2023-04 中文 ckpt Linly 深圳大学计算机视觉研究所 Decoder Blog LLaMA 原始模型权重基于 GNU General Public License v3.0 协议,仅供研究使用,不能用于商业目的。
Chinese-LLaMA-13B 13B 2023-04 中文 ckpt Linly 深圳大学计算机视觉研究所 Decoder Blog LLaMA 原始模型权重基于 GNU General Public License v3.0 协议,仅供研究使用,不能用于商业目的。
Chinese-LLaMA-7B 7B 2023-04 中文 ckpt Linly 深圳大学计算机视觉研究所 Decoder Blog LLaMA 原始模型权重基于 GNU General Public License v3.0 协议,仅供研究使用,不能用于商业目的。
OpenChineseLLaMA 7B 2023-04 中英 ckpt OpenChineseLLaMA OpenLMLab Decoder Non-commercial bespoke license
MOSS-003 16B 2023-04 中英 ckpt MOSS 复旦大学 Decoder 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。
BBT-2-13B-Text 13B 2023-04 中文 申请下载 BBT-FinCUGE-Applications 超对称 Decoder Paper 未记述许可内容
BBT-2-12B-Text 12B 2023-04 中文 申请下载 BBT-FinCUGE-Applications 超对称 Decoder Paper 未记述许可内容
Chinese-LLaMA-13B 13B 2023-04 中英 ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。
flan-ul2 20B 2023-03 多语 ckpt ul2 Google encoder-decoder Paper 未记述许可内容
CPM-Bee 10B 2023-01 中英 ckpt-10B ckpt-5B CPM-Live OpenBMB Decoder 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力!
BLOOM 176B 2022-11 多语 ckpt-95000 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
BLOOMZ 176B 2022-11 多语 ckpt-498 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
flan-t5-xxl 11B 2022-11 多语 ckpt t5x Google encoder-decoder paper Apache-2.0 license
CPM-Ant+ 10B 2022-10 中英 ckpt CPM-Live OpenBMB Decoder blog 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力!
GLM 130B 2022-10 中英 申请下载 GLM-130B 清华大学 Decoder paper You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
CPM-Ant 10B 2022-09 中文 ckpt CPM-Live OpenBMB Decoder blog 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力!
GLM 10B 2022-09 中文 ckpt GLM 清华大学 Decoder paper You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
CodeGeeX 13B 2022-06 多语 申请下载 CodeGeeX 清华大学 Decoder blog You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
源1.0 245B 2021-09 中文 API申请 Yian-1.0 浪潮 Decoder paper 未记述许可内容
CPM-2 11B 2021-06 中文 申请下载 CPM 智源研究院 encoder-decoder paper 未记述许可内容
CPM-2 10B 2021-06 中英 申请下载 CPM 智源研究院 encoder-decoder paper 未记述许可内容
CPM-2 200B 2021-06 中英 申请下载 CPM 智源研究院 encoder-decoder,MOE paper 未记述许可内容
PanGu-Alpha 13B 2021-05 中文 ckpt PanGu-Alpha 鹏城实验室 Decoder paper Apache License 2.0
PanGu-Alpha 200B 2021-05 中文 待发布 PanGu-Alpha 鹏城实验室 Decoder paper Apache License 2.0
PLUG 27B 2021-04 中文 申请下载 AliceMind 阿里巴巴 encoder-decoder Apache-2.0 license
GPT-3 13B 2021-04 中文 待发布 GPT-3 达摩院 Decoder Apache-2.0 license
GPT-3 30B 2021-04 中文 待发布 GPT-3 达摩院 Decoder Apache-2.0 license

1.2 对话大模型(ChatLLM)

具备问答和对话等功能的大型语言模型。

模型 大小 时间 语言 领域 下载 项目地址 机构/个人 结构 文献 模型是否可以商用
Yayi 7B 2023-06 中英 安全、舆情、治理等 ckpt Yayi 中科闻歌 Decoder You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
BayLing-13B 13B 2023-06 中英 通用 ckpt BayLing 中国科学院 Decoder 模型权重(增量版本)和推理代码在 GNU 通用公共许可证 v3.0(GPLv3)下发布。在线演示系统仅作为研究预览,供非商业用途使用,并受到 LLaMA 的模型许可、OpenAI 生成数据的使用条款、ShareGPT 的隐私条例以及 WMT22 的数据许可的约束。
BayLing-7B 7B 2023-06 中英 通用 ckpt BayLing 中国科学院 Decoder 模型权重(增量版本)和推理代码在 GNU 通用公共许可证 v3.0(GPLv3)下发布。在线演示系统仅作为研究预览,供非商业用途使用,并受到 LLaMA 的模型许可、OpenAI 生成数据的使用条款、ShareGPT 的隐私条例以及 WMT22 的数据许可的约束。
MeChat 6B 2023-06 中文 心理 ckpt smile qiuhuachuan Encoder-Decder CC0-1.0 license(本项目开源的中文心理健康支持通用模型由 ChatGLM-6B LoRA 16-bit 指令微调得到。)
ziya-13b-medical 13b 2023-06 中英 医学 ckpt MedicalGPT Ming Xu Decoder 基于以上模型局限性,我们要求开发者仅将我们开源的模型权重及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。
ZhiXi-13B-Diff 13B 2023-06 中英 通用 ckpt KnowLLM 浙江大学 Decoder 基于Llama
Anima 33B 2023-06 中文 通用 ckpt Anima Gavin Li Decoder Apache-2.0 license
OpenLLaMA-Chinese-13B 13B 2023-06 中文 通用 ckpt OpenLLaMA-Chinese FittenTech Decoder We adopt the Apache License, following OpenLLaMA’s license.
OpenLLaMA-Chinese-3B 3B 2023-06 中文 通用 ckpt OpenLLaMA-Chinese FittenTech Decoder We adopt the Apache License, following OpenLLaMA’s license.
OpenLLaMA-Chinese-7B 7B 2023-06 中文 通用 ckpt OpenLLaMA-Chinese FittenTech Decoder We adopt the Apache License, following OpenLLaMA’s license.
Taoli 7B 2023-06 中英 教育 待开源 taoli 北京语言大学 Decoder 本项目内容仅供用于学术研究,不得用于商业以及其他会对社会带来危害的用途。
Lawyer-llama 13B 2023-06 中英 法律 ckpt lawyer-llama Quzhe Huang Decoder 本项目内容仅供用于学术研究,不得用于商业以及其他会对社会带来危害的用途。
QiZhen-CaMA-13B 13B 2023-06 中英 医学 ckpt-3600 ckpt-6000 QiZhenGPT 浙江大学 Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
扁鹊-2.0 6B 2023-06 中文 医学 ckpt BianQue 华南理工大学 Encoder-Decder **扁鹊-2.0(BianQue-2.0)**使用了ChatGLM-6B 模型的权重,需要遵循其MODEL_LICENSE,因此,本项目仅可用于您的非商业研究目的
SoulChat 6B 2023-06 中文 心理 ckpt SoulChat 华南理工大学 Encoder-Decder 本项目使用了ChatGLM-6B 模型的权重,需要遵循其MODEL_LICENSE,因此,本项目仅可用于您的非商业研究目的
openbuddy-falcon-7b-v1.5 7B 2023-06 多语 通用 ckpt OpenBuddy OpenBuddy Decoder OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License.
AtomGPT_8k_chat 13B 2023-06 中英 通用 ckpt AtomGPT 原子回声 Decoder 本项目遵循apache-2.0的开源协议。使用涉及第三方代码的部分时,请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响,本项目不对其准确性作出保证。对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。
AquilaChat-7B 7B 2023-06 中英 通用 ckpt Aquila 智源研究院 Decoder 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。
YuLan-Chat-65B 65B 2023-06 中英 通用 lora-ckpt YuLan-Chat 中国人民大学 Decoder YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes.
YuLan-Chat-13B 13B 2023-06 中英 通用 lora-ckpt YuLan-Chat 中国人民大学 Decoder YuLan-Chat uses MIT License. All data and code in this project can only be used for academic purposes.
Chinese-Alpaca-33B 33B 2023-06 中文 通用 lora-ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。
TigerBot-sft 180B 2023-06 多语 通用 ckpt TigerBot 虎博科技 Decoder 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。
TigerBot-sft 7B 2023-06 多语 通用 ckpt TigerBot 虎博科技 Decoder 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。
ChatYuan-7B 7B 2023-06 中英 通用 ckpt ChatYuan-7B ClueAI Decoder 不允许商业用途和其他潜在有害的使用场景。
Panda-Instruct-13B 13B 2023-05 中英 通用 ckpt pandallm dandelionsllm Decoder 我们要求开发者不得将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于任何商业(开源可商用版本OpenPandaLLM除外)以及为社会带来危害的用途。
Panda-Instruct-7B 7B 2023-05 中英 通用 ckpt pandallm dandelionsllm Decoder 我们要求开发者不得将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于任何商业(开源可商用版本OpenPandaLLM除外)以及为社会带来危害的用途。
BiLLa-7B-SFT 7B 2023-05 中英 通用 ckpt BiLLa Zhongli Li Decoder 本项目相关资源仅供学术研究,不得用于商业用途。
QiZhen-ChatGLM-6B 6B 2023-05 中英 医学 ckpt-2500 QiZhenGPT 浙江大学 Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
QiZhen-Chinese-LLaMA-7B 7B 2023-05 中英 医学 ckpt-3500 ckpt-6000 QiZhenGPT 浙江大学 Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
ChatMed-Consult 7B 2023-05 中英 医学 ckpt ChatMed michael-wzhu Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
LaWGPT-7B-beta1.1 7B 2023-05 中英 法律 ckpt LawGPT Pengxiao Song Decoder 本项目任何资源仅供学术研究使用,严禁任何商业用途。
LaWGPT-7B-beta1.0 7B 2023-05 中英 法律 ckpt LawGPT Pengxiao Song Decoder 本项目任何资源仅供学术研究使用,严禁任何商业用途。
Cornucopia 7B 2023-05 中英 金融 ckpt-linly-llama Cornucopia-LLaMA-Fin-Chinese yuyangmu Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
Cornucopia 7B 2023-05 中英 金融 ckpt-ori-fb Cornucopia-LLaMA-Fin-Chinese yuyangmu Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
HuatuoGPT 7B 2023-05 中文 医学 ckpt HuatuoGPT 香港中文大学 Decoder Paper Apache-2.0 license
LexiLaw 6B 2023-05 中文 法律 ckpt LexiLaw Haitao Li Decoder Paper 本项目任何资源仅供学术研究使用,严禁任何商业用途。
XuanYuan 176B 2023-05 中文 金融 申请下载 XuanYuan 度小满 Decoder Paper 轩辕作为一个开源的中文金融对话模型,仅限于非商业用途的目的。
Ziya-LLaMA-13B-v1 13B 2023-05 中英 通用 ckpt Fengshenbang-LM IDEA研究院 Decoder Blog 基于 LLaMA
BLOOMChat V1.0 176B 2023-05 多语 通用 ckpt bloomchat SambaNova Systems Decoder Blog 不太明确
BiLLa 7B 2023-05 中英 通用 ckpt BiLLa Zhongli Li Decoder 本项目相关资源仅供学术研究,不得用于商业用途。
Bactrian-X 13B 2023-05 多语 通用 lora-ckpt bactrian-x MBZUAI Decoder Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes.
Bactrian-X 7B 2023-05 多语 通用 lora-ckpt bactrian-x MBZUAI Decoder Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes.
Bactrian-ZH 7B 2023-05 中文 通用 lora-ckpt bactrian-x MBZUAI Decoder Bactrian-X is intended and licensed for research use only. The dataset is CC BY NC 4.0 (allowing only non-commercial use) and models trained using the dataset should not be used outside of research purposes.
LawGPT 6B 2023-05 中文 法律 lora-ckpt LAW-GPT hongchengliu Encoder-Decder 预训练模型是基于大量语料库和算法模型进行训练的,并且在训练过程中可能存在偏差、错误和不完整的信息。因此,本项目提供的预训练模型仅供参考和研究使用,并不能保证其准确性和可靠性。使用预训练模型产生的结果可能存在误差和偏差,不能用于实际应用或决策。本项目不对使用预训练模型所产生的结果承担任何责任,也不对因使用预训练模型所产生的任何损失承担责任。使用者在使用预训练模型时应自行承担风险并进行自我验证。
ChatFlow-13B 13B 2023-05 中英 通用 ckpt Linly 深圳大学计算机视觉研究所 Decoder Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0
ChatFlow-7B 7B 2023-05 中英 通用 ckpt Linly 深圳大学计算机视觉研究所 Decoder Our code and documents are released under Apache Licence 2.0 Following LLaMA, our pre-trained weights are released under GNU General Public License v3.0
OpenBuddy 7B 2023-05 多语 通用 ckpt OpenBuddy OpenBuddy Decoder OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License.
OpenBuddy 13B 2023-05 多语 通用 ckpt OpenBuddy OpenBuddy Decoder OpenBuddy-LLaMA series models are strictly prohibited for commercial use and are intended for research purposes only. For more information, please refer to the LLaMA License.
YuYan-dialogue 11B 2023-04 中文 通用 ckpt / 网易伏羲 Decoder paper
扁鹊-1.0 0.7B 2023-04 中文 医学 ckpt BianQue scutcyr Encoder-Decder 本项目仅可用于您的非商业研究目的
Moss-moon-003-sft-plugin 16B 2023-04 中英 通用 ckpt MOSS 复旦大学 Decoder 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。
moss-moon-003-sft 16B 2023-04 中英 通用 ckpt MOSS 复旦大学 Decoder 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。
RWKV-4-Raven 3/7/14B 2023-04 中英 通用 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license
Phoenix-inst-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大学 Decoder Apache-2.0 license,DATA_LICENSE有限制
Phoenix-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大学 Decoder Apache-2.0 license,DATA_LICENSE有限制
ChatPLUG 3.7B 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
ChatPLUG 240M 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
ChatGLM-Med 6B 2023-04 中文 医学 ckpt Med-ChatGLM 哈尔滨工业大学 Encoder-Decder 基于 ChatGLM-6B
BenTsao 7B 2023-04 中文 医学 lora-ckpt Huatuo-Llama-Med-Chinese 哈尔滨工业大学 Decder 基于 LLaMA
DoctorGLM 6B 2023-04 中文 医学 待更新 DoctorGLM xionghonglin Encoder-Decder 基于 ChatGLM-6B
Firefly-7b1 7B 2023-04 中文 通用 ckpt Firefly Yang JianXin Decoder 未记述许可内容,应该是可以商用
Firefly-2b6 2B 2023-04 中文 通用 ckpt Firefly Yang JianXin Decoder 未记述许可内容,应该是可以商用
firefly-1b4 1B 2023-04 中文 通用 ckpt Firefly Yang JianXin Decoder 未记述许可内容,应该是可以商用
Chinese-Alpaca-13B 13B 2023-04 中文 通用 lora-ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
BELLE-LLAMA-13B-2M 13B 2023-04 中文 通用 ckpt BELLE 贝壳 Decoder 基于 LLaMA
LLaMA-65B-tuned 65B 2023-04 中文 通用 待更新 LMFlow 香港科技大学 Decoder 基于 LLaMA
LLaMA-33B-tuned 33B 2023-04 中文 通用 ckpt LMFlow 香港科技大学 Decoder 基于 LLaMA
LLaMA-13B-tuned 13B 2023-04 中文 通用 ckpt LMFlow 香港科技大学 Decoder 基于 LLaMA
LLaMA-7B-tuned 7B 2023-04 中文 通用 ckpt LMFlow 香港科技大学 Decoder 基于 LLaMA
Chinese-Vicuna 13B 2023-03 中文 通用 ckpt Chinese-Vicuna Facico Decoder Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。
Chinese-Vicuna 7B 2023-03 中文 通用 ckpt Chinese-Vicuna Facico Decoder Facebook官方发布的LLaMA模型禁止商用,并且官方没有正式开源模型权重(虽然网上已经有很多第三方的下载地址)。为了遵循相应的许可,目前暂时无法发布完整的模型权重,敬请各位理解(目前国外也是一样)。Facebook完全开放模型权重之后,本项目会及时更新相关策略。这里发布的是LoRA权重,可以理解为原LLaMA模型上的一个“补丁”,两者进行合并即可获得完整版权重。以下中文LLaMA/Alpaca LoRA模型无法单独使用,需要搭配原版LLaMA模型。请参考本项目给出的合并模型步骤重构模型。
ChatYuan-V2 0.7B 2023-03 中英 通用 ckpt ChatYuan 元语智能 Encoder-Decder 您不得将软件全部或部分用于任何商业、军事或非法目的,包括使用、复制、修改、合并、出版、分发、复制或创建软件的衍生作品。
Chinese-Alpaca-7B 7B 2023-03 中文 通用 lora-ckpt Chinese-LLaMA-Alpaca Yiming Cui Decoder 本项目相关资源仅供学术研究之用,严禁用于商业用途。
Luotuo 7B 2023-03 中文 通用 ckpt Chinese-alpaca-lora 华中师范大学 Decoder Apache-2.0 license、基于 LLaMA?
BELLE-LLAMA 7B 2023-03 中英 通用 ckpt BELLE 贝壳 Decoder 基于以上模型局限性,我们要求开发者仅将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。
BELLE-BLOOM 7B 2023-03 中英 通用 ckpt BELLE 贝壳 Decoder 基于以上模型局限性,我们要求开发者仅将我们开源的代码、数据、模型及后续用此项目生成的衍生物用于研究目的,不得用于商业,以及其他会对社会带来危害的用途。
ChatGLM-6B 6B 2023-03 中英 通用 ckpt ChatGLM-6B 清华大学 Encoder-Decder You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.
ChatRWKV 7B 2023-01 中英 小说 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license

1.3 多模态对话大模型(MultiModal-ChatLLM)

收集包含中文的多模态大模型,具备对话等功能。

模型 大小 时间 语言模型 视觉模型 语言 领域 下载 项目地址 机构/个人 文献 模型是否可以商用
Ziya-BLIP2-14B-Visual-v1 14B 2023-06 LLaMA-13B BLIP2 中英 通用 ckpt Fengshenbang-LM IDEA研究院 基于 LLaMA
Video-LLaMA-BiLLA 7B 2023-05 BiLLa-7B MiniGPT-4 中英 通用 ckpt Video-LLaMA 达摩院多语言NLP Paper 基于 LLaMA
Video-LLaMA-Ziya 13B 2023-05 Ziya-13B MiniGPT-4 中英 通用 ckpt Video-LLaMA 达摩院多语言NLP Paper 基于 LLaMA
XrayGLM 6B 2023-05 ChatGLM-6B BLIP2-Qformer 中英 医学 ckpt-300 ckpt-3000 XrayGLM 澳门理工大学 本项目相关资源仅供学术研究之用,严禁用于商业用途。
VisualGLM-6B 6B 2023-05 ChatGLM-6B BLIP2-Qformer 中英 通用 ckpt VisualGLM-6B 清华大学 You will not use, copy, modify, merge, publish, distribute, reproduce, or create derivative works of the Software, in whole or in part, for any commercial, military, or illegal purposes.

2. 可商用开源模型总结

2.1 基础大模型(LLM)

大规模基础模型:表格中只罗列出参数量大于7B以上模型。

模型 大小 时间 语言 领域 下载 项目地址 机构/个人 结构 文献 备注 模型是否可以商用
Baichuan-7B 7B 2023-06 中英 ckpt baichuan-7B 百川智能 Decoder baichuan-7B 支持商用。如果将 baichuan-7B 模型或其衍生品用作商业用途,请您按照如下方式联系许可方,以进行登记并向许可方申请书面授权:联系邮箱:opensource@baichuan-inc.com, 具体许可协议可见《baichuan-7B 模型许可协议》。
Chinese-Falcon-7B 7B 2023-06 中英 ckpt Linly 深圳大学计算机视觉研究所 Decoder Blog 模型以 Apache License 2.0 协议开源,支持商业用途。
AquilaCode-7B-TS 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。
Aquila-7B 7B 2023-06 中英 ckpt Aquila 智源研究院 Decoder 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。
TigerBot-7b-base 7B 2023-06 多语 ckpt TigerBot 虎博科技 Decoder 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。
Panda-OpenLLaMA-7B 7B 2023-05 中英 ckpt pandallm dandelionsllm Decoder 可商用
CPM-Bee 10B 2023-01 中英 ckpt-10B ckpt-5B CPM-Live OpenBMB Decoder 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力!
BLOOM 176B 2022-11 多语 ckpt-95000 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
BLOOMZ 176B 2022-11 多语 ckpt-498 Megatron-DeepSpeed BigScience Decoder Paper The BigScience RAIL License
flan-t5-xxl 11B 2022-11 多语 ckpt t5x Google encoder-decoder paper Apache-2.0 license
CPM-Ant+ 10B 2022-10 中英 ckpt CPM-Live OpenBMB Decoder blog 模型训练完成后,你可以在开放使用许可下自由下载模型参数。CPM-Live使用的是包括商业化许可的开放许可。通过模型压缩和推理加速工具,你可以在自己的电脑上体验大模型的威力!
源1.0 245B 2021-09 中文 API申请 Yian-1.0 浪潮 Decoder paper 未记述许可内容
CPM-2 11B 2021-06 中文 申请下载 CPM 智源研究院 encoder-decoder paper 未记述许可内容
CPM-2 10B 2021-06 中英 申请下载 CPM 智源研究院 encoder-decoder paper 未记述许可内容
CPM-2 200B 2021-06 中英 申请下载 CPM 智源研究院 encoder-decoder,MOE paper 未记述许可内容
PanGu-Alpha 13B 2021-05 中文 ckpt PanGu-Alpha 鹏城实验室 Decoder paper Apache License 2.0
PanGu-Alpha 200B 2021-05 中文 待发布 PanGu-Alpha 鹏城实验室 Decoder paper Apache License 2.0
PLUG 27B 2021-04 中文 申请下载 AliceMind 阿里巴巴 encoder-decoder Apache-2.0 license
GPT-3 13B 2021-04 中文 待发布 GPT-3 达摩院 Decoder Apache-2.0 license
GPT-3 30B 2021-04 中文 待发布 GPT-3 达摩院 Decoder Apache-2.0 license

2.2 对话大模型(ChatLLM)

具备问答和对话等功能的大型语言模型。

模型 大小 时间 语言 领域 下载 项目地址 机构/个人 结构 文献 模型是否可以商用
Anima 33B 2023-06 中文 通用 ckpt Anima Gavin Li Decoder Apache-2.0 license
AtomGPT_8k_chat 13B 2023-06 中英 通用 ckpt AtomGPT 原子回声 Decoder 本项目遵循apache-2.0的开源协议。使用涉及第三方代码的部分时,请严格遵循相应的开源协议。模型生成的内容受模型计算、随机性和量化精度损失等因素影响,本项目不对其准确性作出保证。对于模型输出的任何内容,本项目不承担任何法律责任,亦不对因使用相关资源和输出结果而可能产生的任何损失承担责任。
AquilaChat-7B 7B 2023-06 中英 通用 ckpt Aquila 智源研究院 Decoder 支持开源商用许可。Aquila系列模型的源代码基于 Apache 2.0 协议,模型权重基于《智源Aquila系列模型许可协议》,使用者在满足许可限制的情况下,可用于商业目的。
TigerBot-sft 180B 2023-06 多语 通用 ckpt TigerBot 虎博科技 Decoder 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。
TigerBot-sft 7B 2023-06 多语 通用 ckpt TigerBot 虎博科技 Decoder 如需将模型公开使用或者商用,模型服务所产生的不良影响或者有害言论由服务方负责,本项目开发者不承担任何因使用本项目(包含但不限于数据、模型、代码等)导致的危害或损失。
HuatuoGPT 7B 2023-05 中文 医学 ckpt HuatuoGPT 香港中文大学 Decoder Paper Apache-2.0 license
BLOOMChat V1.0 176B 2023-05 多语 通用 ckpt bloomchat SambaNova Systems Decoder Blog 不太明确
LawGPT 6B 2023-05 中文 法律 lora-ckpt LAW-GPT hongchengliu Encoder-Decder 预训练模型是基于大量语料库和算法模型进行训练的,并且在训练过程中可能存在偏差、错误和不完整的信息。因此,本项目提供的预训练模型仅供参考和研究使用,并不能保证其准确性和可靠性。使用预训练模型产生的结果可能存在误差和偏差,不能用于实际应用或决策。本项目不对使用预训练模型所产生的结果承担任何责任,也不对因使用预训练模型所产生的任何损失承担责任。使用者在使用预训练模型时应自行承担风险并进行自我验证。
Moss-moon-003-sft-plugin 16B 2023-04 中英 通用 ckpt MOSS 复旦大学 Decoder 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。
moss-moon-003-sft 16B 2023-04 中英 通用 ckpt MOSS 复旦大学 Decoder 本项目所含代码采用Apache 2.0协议,数据采用CC BY-NC 4.0协议,模型权重采用GNU AGPL 3.0协议。如需将本项目所含模型用于商业用途或公开部署,请签署本文件并填写此问卷取得授权,商用情况仅用于记录,不会收取任何费用。
RWKV-4-Raven 3/7/14B 2023-04 中英 通用 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license
Phoenix-inst-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大学 Decoder Apache-2.0 license,DATA_LICENSE有限制
Phoenix-chat-7b 7B 2023-04 中文 通用 ckpt LLMZoo 香港中文大学 Decoder Apache-2.0 license,DATA_LICENSE有限制
ChatPLUG 3.7B 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
ChatPLUG 240M 2023-04 中文 通用 ckpt ChatPLUG 阿里巴巴 Encoder-Decder Paper Apache-2.0 license
Luotuo 7B 2023-03 中文 通用 ckpt Chinese-alpaca-lora 华中师范大学 Decoder Apache-2.0 license、基于 LLaMA?
ChatRWKV 7B 2023-01 中英 小说 ckpt ChatRWKV BlinkDL RNN Blog Apache-2.0 license

完结!文章来源地址https://www.toymoban.com/news/detail-496468.html

到了这里,关于开源大语言模型是否可以商用的调查报告的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于web的问卷调查系统的设计与实现 毕业设计开题报告

     博主介绍 :《Vue.js入门与商城开发实战》《微信小程序商城开发》图书作者,CSDN博客专家,在线教育专家,CSDN钻石讲师;专注大学生毕业设计教育和辅导。 所有项目都配有从入门到精通的基础知识视频课程,免费 项目配有对应开发文档、开题报告、任务书、PPT、论文模版

    2024年02月04日
    浏览(22)
  • 【AI实战】开源且可商用的 40B 大语言模型 Falcon 40B

    官网 https://www.tii.ae/news/uaes-technology-innovation-institute-launches-open-source-falcon-40b-large-language-model Abu Dhabi-UAE: 25 May, 2023 – The Technology Innovation Institute (TII), a leading global scientific research center and the applied research pillar of Abu Dhabi’s Advanced Technology Research Council (ATRC), today strengthened its gro

    2024年02月07日
    浏览(22)
  • 中文版开源Llama 2同时有了语言、多模态大模型,完全可商用

    可以说,AI 初创公司 LinkSoul.Al 的这些开源项目让海外开源大模型在国内的普及和推广速度与国际几乎保持了一致。 7 月 19 日,Meta 终于发布了免费可商用版本 Llama 2,让开源大模型领域的格局发生了巨大变化。 Llama 2 模型系列包含 70 亿、130 亿和 700 亿三种参数变体,相比上

    2024年02月14日
    浏览(16)
  • 【AI实战】开源可商用的中英文大语言模型baichuan-7B,从零开始搭建

    baichuan-7B 是由百川智能开发的一个开源可商用的大规模预训练语言模型。基于 Transformer 结构,在大约1.2万亿 tokens 上训练的70亿参数模型,支持中英双语,上下文窗口长度为4096。在标准的中文和英文权威 benchmark(C-EVAL/MMLU)上均取得同尺寸最好的效果。 GitHub: https://github.c

    2024年02月09日
    浏览(29)
  • 【大模型】更强的开源可商用的中英文大语言模型baichuan2来了,从零开始搭建

    baichuan-7B 可以查看这篇文章: 【AI实战】开源可商用的中英文大语言模型baichuan-7B,从零开始搭建 Baichuan 2 是百川智能推出的第二代开源大语言模型,采用 2.6 万亿 Tokens 的高质量语料训练。 Baichuan 2 在多个权威的中文、英文和多语言的通用、领域 benchmark 上取得同尺寸最佳的

    2024年02月09日
    浏览(20)
  • 开发中需要注意的问 github中的开源软件可以用来商用吗

    首先抛出问题,为什么要注意对开源项目的使用 github篇 看开源协议!看开源协议!看开源协议! 一般开源协议会有具体的软件使用说明。

    2024年02月11日
    浏览(19)
  • 一文汇总开源大语言模型,人人都可以拥有自己的ChatGPT

    OpenAI发布的ChatGPT火爆全球以来,全球互联网大厂陆续跟进,纷纷宣布了自家的Chat产品,如Google的Bard,百度的文心一言,阿里的通义千问等等。 这些Chat产品背后都是依赖的大语言模型(Large Language Model)。 如果是做一个垂直领域的Chat产品,有2种方案: 直接使用商业化产品,前

    2024年02月05日
    浏览(34)
  • Meta发布升级大模型LLaMA 2:开源可商用

    论文地址 :https://ai.meta.com/research/publications/llama-2-open-foundation-and-fine-tuned-chat-models/  Github 地址 :https://github.com/facebookresearch/llama LLaMA 2介绍       Meta之前发布自了半开源的大模型LLaMA,自从LLaMA发布以来,基于它的扩展模型就层出不穷,尤其是羊驼系列,我最近正在总结这

    2024年02月16日
    浏览(18)
  • 650亿参数大模型预训练方案开源可商用,LLaMA训练加速38%

    650亿参数大模型的预训练方案,发布即开源。 训练速度较传统方案提升38%。 这就是由Colossal-AI最新发布的类LLaMA基础大模型预训练方案。 要知道,在“百模大战”背景下,谁拥有自家大模型,往往被视为核心竞争力。 在这个节点下,愿意开源大模型的公司少之又少。 但自己

    2024年02月16日
    浏览(23)
  • 阿里云开源通义千问720亿参数模型,性能超越大部分商用闭源大模型

    12月1日,阿里云举办通义千问发布会,开源通义千问720亿参数模型Qwen-72B。Qwen-72B在10个权威基准测评创下开源模型最优成绩,成为业界最强开源大模型,性能超越开源标杆Llama 2-70B和大部分商用闭源模型。未来,企业级、科研级的高性能应用,也有了开源大模型这一选项。 通

    2024年02月03日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包