最新开源!更擅长推理的LLaMA大模型,支持中文

这篇具有很好参考价值的文章主要介绍了最新开源!更擅长推理的LLaMA大模型,支持中文。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

最新开源!更擅长推理的LLaMA大模型,支持中文

©PaperWeekly 原创 · 作者 | 李忠利

研究方向 | 自然语言处理

跟大家介绍一下自己最近训练的 LLaMA 模型——BiLLa: A Bilingual LLaMA with Enhanced Reasoning Ability.

Github 地址: 

https://github.com/Neutralzz/BiLLa 

HuggingFace 模型: 

https://huggingface.co/Neutralzz/BiLLa-7B-LLM(语言模型 BiLLa-7B-LLM) 

https://huggingface.co/Neutralzz/BiLLa-7B-SFT(指令微调模型 BiLLa-7B-SFT) 

注:因 LLaMa 的使用限制,权重下载后不能直接使用,需通过脚本 [1] 转换

BiLLa 是开源的推理能力增强的中英双语 LLaMA 模型。模型的主要特性有: 

  • 较大提升 LLaMA 的中文理解能力,并尽可能减少对原始 LLaMA 英文能力的损伤; 

  • 训练过程增加较多的任务型数据,利用 ChatGPT 生成解析,强化模型理解任务求解逻辑;

  • 全量参数更新,追求更好的生成效果。

因个人精力有限,我未能将 BiLLa 与当前主流的开源大模型进行充分的对比评测。以下是经过有限的评测分析得出的结论: 

  • BiLLa-7B-LLM 中英语言建模能力显著优于 Chinese-LLaMA-7B [2];

  • BiLLa-7B-SFT 中文推理能力显著优于 BELLE-LLaMA-Ext-7B [3] 等模型;

  • 由 GPT4 打分,BiLLa-7B-SFT 在英文指令上得分显著高于 ChatGLM-6B [4],中文得分持平,但解题与代码得分更高。 

最新开源!更擅长推理的LLaMA大模型,支持中文

模型训练

该模型以原始 LLaMa 模型为基础,进行了如下三个阶段的训练。

  • 第一阶段:扩充中文词表,使用中文预训练语料 Wudao [5]、英文预训练语料 PILE [6]、翻译语料 WMT [7] 的中英数据进行二次预训练。 

  • 第二阶段:训练数据在第一阶段基础上增加任务型数据,训练过程中两部分数据保持 1:1 的比例混合。任务型数据均为 NLP 各任务的主流开源数据,包含有数学解题、阅读理解、开放域问答、摘要、代码生成等,利用 ChatGPT API 为数据标签生成解析,用于训练提升模型对任务求解逻辑的理解。 

  • 第三阶段:保留第二阶段任务型数据,并转化为对话格式,增加其他指令数据(如 Dolly 2.0 [8]、Alpaca GPT4 [9]、COIG [10] 等),进行对齐阶段的微调。

借鉴 BELLE 之前的工作 [11],三阶段的训练均为全量参数的更新,未使用 LoRA。

目前开源的模型,BiLLa-7B-LLM 是第二阶段训练完成的语言模型,BiLLa-7B-SFT 是第三阶段训练完成的指令微调模型。


最新开源!更擅长推理的LLaMA大模型,支持中文

模型评测

2.1 语言建模

通过 Conditional Generation 评估模型的语言建模能力,在纯英文和中英混合的测试集上计算模型的 Perplexity 指标。

纯英文测试集为 1000 条 PILE 语料,中英混合测试集为 1000 条 PILE 加 1000 条 WuDao 语料,测试集数据均未参与 BiLLa 的训练,评测指标如下(数值越低越好):

最新开源!更擅长推理的LLaMA大模型,支持中文

2.2 GPT4打分

将 BiLLa-7B-SFT 和 ChatGLM-6B [4] 的模型结果放在一起,由 GPT4 对比两模型结果进行打分。该评测代码基本复用了 FastChat 的评测代码 [12]。

英文评测数据来源于 FastChat 的 80 条问题 [13],中文评测数据来源于 BELLE 的 1000 条问题 [14],评测指标如下(数值越高越好):

最新开源!更擅长推理的LLaMA大模型,支持中文

▲ GPT4打分结果

2.3 中文复杂推理

这里非常感谢学弟锴锴(PandaLLM [15] 作者)协助完成复杂推理的评测工作!

评测集采用 LogiQA-v2 [16] 与 C3 [17],两数据集均未参与 BiLLa 的训练,评测指标如下(数值越高越好):

最新开源!更擅长推理的LLaMA大模型,支持中文

最新开源!更擅长推理的LLaMA大模型,支持中文

生成示例

4.1 Case 1

Human:女朋友对男朋友说,我都和你说了 200 次了,你也不长记性,又乱买东西。请问女生对男朋友说了多少次?


Assistant:我不知道具体的数量,但是我可以告诉你,当一个人多次向另一个人表达相同的想法或建议时,他们可能会感到沮丧或失望。如果你希望能够与你的女朋友建立良好的沟通,那么最好的方法可能是倾听她的想法和感受,并尽力理解她的立场。这样,你们就可以一起合作,解决问题,并且在未来更好地沟通。

4.2 Case 2

Human:鸡兔同笼,头共有 10,足共有 28,请问鸡和兔各多少只?


Assistant:设鸡的数量为 x,兔的数量为 y,则有以下两个方程式:

x+y=10(因为总数为 10)


2x+4y=28(因为每只鸡有 2 只脚,每只兔有 4 只脚)

将第一个方程式改写为 x=10-y,代入第二个方程式中:

2(10-y) + 4y = 28 

化简得 

-2y+20=28 

-2y=-8 

y=4

将 y 的值代入 x = 10-y,得到

x = 6

所以鸡的数量为 6 只,兔的数量为 4 只。

答案为 6、4。

4.3 Case 3

Human:用 Python 写一个冒泡排序算法


Assistant:这是一个简单的冒泡排序算法的 Python 实现:

def bubble_sort(arr):
    n = len(arr)
    for i in range(n):
        for j in range(0, n-i-1):
            if arr[j] > arr[j+1]:
                arr[j], arr[j+1] = arr[j+1], arr[j]

arr = [3, 5, 2, 8, 1, 6]

bubble_sort(arr)
print("排序后的数组:")
for i in range(len(arr)):
    print("%d" %arr[i])

输出结果为:

排序后的数组:
1
2
3
5
6
8

上面的代码中,我们定义了一个名为 bubble_sort 的函数,它接受一个整数数组作为输入。函数中,我们首先定义了一个 n 变量,用于表示数组的长度。


然后我们使用一个嵌套循环来遍历数组中的每个元素。在每一次循环中,我们将当前元素与下一个元素进行比较,如果当前元素大于下一个元素,则交换这两个元素的位置。最后,我们返回排序后的数组。


在主程序中,我们定义了一个包含若干个整数的数组,然后调用 bubble_sort 函数来对这个数组进行排序。最后,我们将排序后的数组打印出来。

最新开源!更擅长推理的LLaMA大模型,支持中文

模型局限性

当前 BiLLa 模型未经 RLHF 训练,泛化性有待观望。

BiLLa 训练过程中使用了较多的任务型数据,建议减少常识类的、时事类的提问。

BiLLa 训练数据中包含了多轮对话摘要数据,但未直接包含多轮对话的生成数据,因此模型多轮对话能力可能较差。

最新开源!更擅长推理的LLaMA大模型,支持中文


最后

欢迎各位 NLPers 试用 BiLLa,更希望能协助完善 BiLLa 评测!

最新开源!更擅长推理的LLaMA大模型,支持中文

参考文献

最新开源!更擅长推理的LLaMA大模型,支持中文

[1] https://github.com/Neutralzz/BiLLa/blob/main/embedding_convert.py

[2] https://github.com/ymcui/Chinese-LLaMA-Alpaca

[3] https://github.com/LianjiaTech/BELLE

[4] https://github.com/THUDM/ChatGLM-6B

[5] https://www.sciencedirect.com/science/article/pii/S2666651021000152

[6] https://arxiv.org/abs/2101.00027

[7] https://www.statmt.org/wmt22/translation-task.html

[8] https://github.com/databrickslabs/dolly

[9] https://github.com/Instruction-Tuning-with-GPT-4/GPT-4-LLM

[10] https://huggingface.co/datasets/BAAI/COIG

[11] https://arxiv.org/abs/2304.07854

[12] https://github.com/lm-sys/FastChat/tree/main/fastchat/eval

[13] https://github.com/lm-sys/FastChat/blob/main/fastchat/eval/table/question.jsonl

[14] https://github.com/LianjiaTech/BELLE/blob/main/eval/eval_set.json

[15] https://github.com/dandelionsllm/pandallm

[16] https://github.com/csitfun/LogiQA2.0

[17] https://dataset.org/c3/

更多阅读

最新开源!更擅长推理的LLaMA大模型,支持中文

最新开源!更擅长推理的LLaMA大模型,支持中文

最新开源!更擅长推理的LLaMA大模型,支持中文

最新开源!更擅长推理的LLaMA大模型,支持中文

#投 稿 通 道#

 让你的文字被更多人看到 

如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。

总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。 

PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学术热点剖析科研心得竞赛经验讲解等。我们的目的只有一个,让知识真正流动起来。

📝 稿件基本要求:

• 文章确系个人原创作品,未曾在公开渠道发表,如为其他平台已发表或待发表的文章,请明确标注 

• 稿件建议以 markdown 格式撰写,文中配图以附件形式发送,要求图片清晰,无版权问题

• PaperWeekly 尊重原作者署名权,并将为每篇被采纳的原创首发稿件,提供业内具有竞争力稿酬,具体依据文章阅读量和文章质量阶梯制结算

📬 投稿通道:

• 投稿邮箱:hr@paperweekly.site 

• 来稿请备注即时联系方式(微信),以便我们在稿件选用的第一时间联系作者

• 您也可以直接添加小编微信(pwbot02)快速投稿,备注:姓名-投稿

△长按添加PaperWeekly小编

🔍

现在,在「知乎」也能找到我们了

进入知乎首页搜索「PaperWeekly」

点击「关注」订阅我们的专栏吧

·

·

最新开源!更擅长推理的LLaMA大模型,支持中文文章来源地址https://www.toymoban.com/news/detail-486007.html

到了这里,关于最新开源!更擅长推理的LLaMA大模型,支持中文的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • LLaMA 2:开源的预训练和微调语言模型推理引擎 | 开源日报 No.86

    Stars: 36.0k License: NOASSERTION LLaMA 2 是一个开源项目,用于加载 LLaMA 模型并进行推理。 该项目的主要功能是提供预训练和微调后的 LLaMA 语言模型的权重和起始代码。这些模型参数范围从 7B 到 70B 不等。 以下是该项目的关键特性和核心优势: 支持多种规模 (7B、13B 和 70B) 的语言模

    2024年02月04日
    浏览(33)
  • 《实战AI模型》——赶上GPT3.5的大模型LLaMA 2可免费商用,内含中文模型推理和微调解决方案

    目录 准备环境及命令后参数导入: 导入模型: 准备LoRA: 导入datasets: 配置

    2024年02月16日
    浏览(43)
  • Llama 3 开源!手把手带你进行大模型推理,部署,微调和评估

    节前,我们组织了一场算法岗技术面试讨论会,邀请了一些互联网大厂朋友、参加社招和校招面试的同学,针对算法岗技术趋势、大模型落地项目经验分享、新手如何入门算法岗、该如何准备、面试常考点分享等热门话题进行了深入的讨论。 基于大模型实践和技术交流,我们

    2024年04月26日
    浏览(26)
  • 中文LLaMa和Alpaca大语言模型开源方案 | 扩充中文词表 & 针对中文语料进行高效编码

    欢迎关注『CVHub』官方微信公众号! Title: Efficient and Effective Text Encoding for Chinese Llama and Alpaca PDF: https://arxiv.org/pdf/2304.08177v1.pdf Code: https://github.com/ymcui/Chinese-LLaMA-Alpaca 大型语言模型 LLM ,如ChatGPT和GPT-4,已经彻底改变了自然语言处理研究。然而, LLMs 的昂贵训练和部署对于透明

    2024年02月09日
    浏览(41)
  • 使用 Docker 快速上手中文版 LLaMA2 开源大模型

    本篇文章,我们聊聊如何使用 Docker 容器快速上手朋友团队出品的中文版 LLaMA2 开源大模型,国内第一个真正开源,可以运行、下载、私有部署,并且支持商业使用。 感慨于昨天 Meta LLaMA2 模型开放下载之后,GitHub 上出现了许多“只有 Readme 文档” 的开源模型项目,并一时间在

    2024年02月16日
    浏览(40)
  • 最新本地大模型进展#Chinese-LLaMA-2支持16k长上下文

    ‍‍ Hi,今天为大家介绍最新的本地中文语言模型进展。 [2023/08/25] Chinese-LLaMA-2发布了新的更新: 长上下文模型Chinese-LLaMA-2-7B-16K和Chinese-LLaMA-2-13B-16K,支持16K上下文,并可通过NTK方法进一步扩展至24K+。 这意味着在使用这些模型时,你可以获得更长的上下文信息,从而提高模

    2024年02月10日
    浏览(47)
  • 中文大模型 Chinese-LLaMA-Alpaca-2 开源且可以商用

    “  Meta 开源 LLAMA2 后,国内出现了不少以此为基座模型训练的中文模型,这次我们来看看其中一个不错的中文模型:Chinese-LLaMA-Alpaca-2 。 ” 01 — 目前在开源大模型中,比较有名的是Meta的LLAMA模型系列和清华的ChatGLM模型。 特别是在中文领域上,ChatGLM模型经过中文问答和对

    2024年02月06日
    浏览(35)
  • GPT-SoVITS:开源跨语言音色克隆模型,支持TTS和跨语言推理

    探索GPT-SoVITS,一款受欢迎的开源音色克隆模型,支持少量语音转换、文本到语音功能,跨语言支持英文、中文、日文。快速获得80%~95%的音色相似度,仅需提供5秒样本。项目已获4.1k Star,备受推崇!

    2024年01月25日
    浏览(44)
  • 使用代码下载开源的大模型文件示例以及中文微调llama资源汇总:

    一、下载示例  二、资源汇总 Chinese Llama 2 7B 链接:LinkSoul/Chinese-Llama-2-7b · Hugging Face OpenBuddy-LLaMA2-13B 链接:OpenBuddy/openbuddy-llama2-13b-v8.1-fp16 · Hugging Face firefly-llama2-13b 链接:GitHub - yangjianxin1/Firefly: Firefly(流萤): 中文对话式大语言模型(全量微调+QLoRA),支持微调Llma2、Llama、Qwen、

    2024年02月13日
    浏览(33)
  • 哈工大团队开源医学智能问诊大模型 | 华佗: 基于中文医学知识的LLaMa指令微调模型

    本文首发至微信公众号:CVHub,不得以任何形式转载或售卖,仅供学习,违者必究! Title: HuaTuo: Tuning LLaMA Model with Chinese Medical Knowledge PDF: https://arxiv.org/pdf/2304.06975v1.pdf Code: https://github.com/scir-hi/huatuo-llama-med-chinese 在生物医学领域, LLM 模型(如 LLaMa , ChatGLM )因为缺乏一定的

    2024年02月13日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包