最近正在学习chatGPT相关大模型,整理相关资料如下,本文仍在修改中,如有侵权,请联系删除文章来源地址https://www.toymoban.com/news/detail-430588.html
一、相关论文
- chatGPT-1: Improving Language Understanding by Generative Pre-Training
- chatGPB-2: Language Models are Unsupervised Multitask Learners
- chatGPT-3: Language Models are Few-Shot Learners
二、与chatGPT类似的大模型开源链接
模型名称 | 开发者 | 模型介绍 | 介绍资料 | 模型代码链接 |
---|---|---|---|---|
LLaMA | Meta | LLaMA: Open and Efficient Foundation Language Models | https://github.com/facebookresearch/llama | |
Alpaca | stanford | A Strong, Replicable Instruction-Following Model | https://github.com/tatsu-lab/stanford_alpaca | |
Alpace-LoRA | stanford | LoRA(low-rank adaptation)技术复现了 Alpaca 的结果 | https://www.thepaper.cn/newsDetail_forward_22455425 | https://github.com/tloen/alpaca-lora |
Vicuna | UC Berkeley, CMU, Stanford, and UC San Diego | 是在alpaca上改进的,能90%复现chat-gpt4 | https://hub.baai.ac.cn/view/25175 | https://github.com/lm-sys/FastChat |
Chinese-Vicuna | A Chinese Instruction-following LLaMA-based Model —— 一个中文低资源的llama+lora方案 | https://github.com/Facico/Chinese-Vicuna | ||
chatGLM | 清华大学 | https://github.com/THUDM/ChatGLM-6B | ||
BLOOM-1b3 | https://huggingface.co/bigscience/distill-bloom-1b3 | |||
BELLE | Bloom上优化的 | https://github.com/LianjiaTech/BELLE | ||
BLoom | 100+研究人员 | 在46种自然语言和13种编程语言 | ||
Koala |
文章来源:https://www.toymoban.com/news/detail-430588.html
到了这里,关于自然语言处理 | 大模型|类似chatGPT的开源大模型整理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!