国内最大Llama开源社区发布首个预训练中文版Llama2

这篇具有很好参考价值的文章主要介绍了国内最大Llama开源社区发布首个预训练中文版Llama2。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画

"
7月31日,Llama中文社区率先完成了国内首个真正意义上的中文版Llama2-13B大模型,从模型底层实现了Llama2中文能力的大幅优化和提升。毋庸置疑,中文版Llama2一经发布将开启国内大模型新时代!

| 全球最强,但中文短板

Llama2是当前全球范围内最强的开源大模型,但其中文能力 亟待提升 Meta不负众望,于7月19日凌晨开源了第一代LLaMA的升级版:Llama2,7B、13B和70B三种大小的模型全开放并且可免费商用。 作为AI领域最强大的开源大模型,Llama2基于2万亿token数据预训练,并在100万人类标记数据上微调得到对话模型。在包括推理、编程、对话和知识测试等许多基准测试中效果显著优于MPT、Falcon以及第一代LLaMA等开源大语言模型,也第一次媲美商用GPT-3.5,在一众开源模型中独树一帜。 国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画虽然Llama2的预训练数据相对于第一代扩大了一倍,但是中文预训练数据的比例依然非常少,仅占 0. 13% ,这也导致了原版Llama2的中文能力较弱 我们对于一些中文问题进行提问,发现大多数情况下Llama2都不能以中文回答,或者以中英文混杂的形式回答问题。因此, 需要基于大规模中文数据对Llama2进行优化,使Llama2具备更好的中文能力。 国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画

为此国内顶尖高校大模型博士团队创办了Llama中文社区,开启了Llama2中文大模型训练征程。

| 最领先的Llama中文社区

Llama中文社区是国内 最领先的开源大模型中文社区 ,Github在两周内即达到 2.4k star,由清华、交大以及浙大博士团队领衔,汇聚了60+AI领域高级工程师以及各行业2000+顶级人才。

国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画

社区链接
https://github.com/FlagAlpha/Llama2-Chinese
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画

 社区历程:

国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画

| 首个预训练中文版Llama2模型发布!文章来源地址https://www.toymoban.com/news/detail-647114.html

不是微调!而是基于200B中文语料预训练!

7月31日,Llama中文社区率先完成了国内首个真正意义上的中文版13B Llama2模型:Llama2-Chinese-13B,从模型底层实现了Llama2中文能力的大幅优化和提升。 Llama2的中文化可以采用大致两种路线: 1.   基于已有的中文指令数据集,对预训练模型进行指令微调,使得基座模型能够对齐中文问答能力。这种路线的优势在于成本较低,指令微调数据量小,需要的算力资源少,能够快速实现一个中文Llama的雏形。 但缺点也显而易见,微调只能激发基座模型已有的中文能力,但由于Llama2的中文训练数据本身较少,所以能够激发的能力也有限,治标不治本,从根本上增强Llama2模型的中文能力还是需要从预训练做起。 2. 基于大规模中文语料进行预训练。这种路线的缺点在于成本高不仅需要大规模高质量的中文数据,也需要大规模的算力资源。但是优点也显而易见,就是能从模型底层优化中文能力,真正达到治本的效果,从内核为大模型注入强大的中文能力 为了从内核实现一个彻底的中文大模型 我们选择了第二条路线! 我们汇集了一批高质量的中文语料数据集,从预训练开始优化Llama2大模型。部分预训练数据数据如下: 类型 描述网络数据互联网上公开的网络数据,挑选出去重后的高质量中文数据,涉及到百科、书籍、博客、新闻、公告、小说等高质量长文本数据Wikipedia中文Wikipedia的数据悟道中文悟道开源的200G数据ClueClue开放的中文预训练数据,进行清洗后的高质量中文长文本数据竞赛数据集近年来中文自然语言处理多任务竞赛数据集,约150个MNBVCMNBVC 中清洗出来的部分数据集 首期 Llama2-Chinese-13B 模型的预训练数据包含 200B token,未来,我们将持续不断地迭代更新 Llama2-Chinese,逐步将预训练数据提升到1T token。除此以外,我们也将逐步开放70B模型的中文预训练版本,敬请期待!
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画我们从通用知识、语言理解、创作能力、逻辑推理、代码编程、工作技能等不同方面提问大模型,得到了令人满意的效果  部分效果展示如下:
  • 通用知识
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画
  • 语言理解
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画
  • 创作能力
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画
  • 逻辑推理
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画
  • 代码编程
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画
  • 工作技能
国内最大Llama开源社区发布首个预训练中文版Llama2,插件,chatgpt,AI,llama,pytorch,AI编程,AI写作,AI作画


到了这里,关于国内最大Llama开源社区发布首个预训练中文版Llama2的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 比亚迪发布璇玑AI大模型;微软推出Copilot Pro;国内首个MoE模型上线

    比亚迪发布璇玑 AI 大模型 1 月 16 日,在 2024 比亚迪梦想日活动上,比亚迪正式发布了整车智能化架构「璇玑」及「璇玑 AI 大模型」。 比亚迪产品规划及汽车新技术研究院院长杨冬生称,「璇玑」是行业首个智电融合的智能化架构,让汽车拥有了智能化的「大脑」和「神经网

    2024年01月18日
    浏览(44)
  • 开源软件介绍——国内和国际主要开源社区

    我是荔园微风,作为一名在IT界整整25年的老兵,今天我们来看一看国内和国际上有哪些主要开源社区。 开源社区又称为开放源代码社区,一般由拥有共同兴趣爱好的人组成。根据相应的开源软件许可证协议公布软件源代码的网络平台,同时也为网络成员提供一个自由学习和

    2024年02月10日
    浏览(24)
  • 深度求索开源国内首个 MoE 大模型 | DeepSeekMoE:在专家混合语言模型中实现终极专家专业化

    🍉 CSDN 叶庭云 : https://yetingyun.blog.csdn.net/ 在大语言模型时代,混合专家模型(MoE)是一种很有前途的架构,用于在扩展模型参数时管理计算成本。然而,传统的 MoE 架构(如 GShard)会激活 N 位专家中的 top-K 专家,但在确保专家专业化(即每位专家获取的知识不重叠且重点突

    2024年01月22日
    浏览(40)
  • 国内首家!百度智能云宣布支持Llama3全系列训练推理

    继18日Llama3的8B、70B大模型发布后,百度智能云千帆大模型平台19日宣布在国内首家推出针对Llama3全系列版本的训练推理方案,便于开发者进行再训练,搭建专属大模型,现已开放邀约测试。 目前,百度智能云千帆大模型平台中各种尺寸模型定制工具ModelBuilder已预置了最全面最

    2024年04月22日
    浏览(19)
  • Llama 3下月正式发布,继续开源!

    4月10日,Techcrunch消息,Meta在本周伦敦举办的一场活动中确定,下个月将正式发布Llama 3并且继续开源。 Meta全球事务总裁Nick Clegg表示,我们希望在下个月,甚至更短的时间内,正式推出新一代基础模型Llama 3。它将有很多个版本,而且功能也各不相同。 根据Meta的AI副总裁Joel

    2024年04月14日
    浏览(32)
  • [AI Meta Llama-3] 最强开源大模型Llama 3发布!

    最强开源大模型Llama 3发布!我们看下重点: 今天,我们介绍Meta Llama 3,这是我们最先进的开源大型语言模型的下一代。 Llama 3模型很快将在AWS、Databricks、Google Cloud、Hugging Face、Kaggle、IBM WatsonX、Microsoft Azure、NVIDIA NIM和Snowflake上提供,并得到AMD、AWS、戴尔、英特尔、NVIDIA和高

    2024年04月23日
    浏览(39)
  • 650亿参数大模型预训练方案开源可商用,LLaMA训练加速38%

    650亿参数大模型的预训练方案,发布即开源。 训练速度较传统方案提升38%。 这就是由Colossal-AI最新发布的类LLaMA基础大模型预训练方案。 要知道,在“百模大战”背景下,谁拥有自家大模型,往往被视为核心竞争力。 在这个节点下,愿意开源大模型的公司少之又少。 但自己

    2024年02月16日
    浏览(33)
  • ChatGPT全球最大开源平替OpenAssistant:基于Pythia和LLaMA微调而来

    论文地址:https://drive.google.com/file/d/10iR5hKwFqAKhL3umx8muOWSRm7hs5FqX/view 项目地址:https://github.com/LAION-AI/Open-Assistant 数据集地址:https://huggingface.co/datasets/OpenAssistant/oasst1 体验地址:https://open-assistant.io/chat 观看公告视频:https://youtu.be/ddG2fM9i4Kk OpenAssistant介绍 最近火爆的ChatGPT使用如

    2024年02月15日
    浏览(29)
  • 新测试基准发布,最强开源Llama 3尴尬了

    梦晨 发自 凹非寺 量子位 | 公众号 QbitAI 如果试题太简单,学霸和学渣都能考90分,拉不开差距…… 随着Claude 3、Llama 3甚至之后GPT-5等更强模型发布,业界急需一款 更难、更有区分度的基准测试 。 大模型竞技场背后组织LMSYS推出下一代基准测试 Arena-Hard ,引起广泛关注。 Ll

    2024年04月27日
    浏览(22)
  • 免费商用 Meta 发布开源大语言模型 Llama 2

    Meta 和微软深度合作,正式推出下一代开源大语言模型  Llama 2 ,并宣布免费提供给研究和商业使用。   Llama 2 论文地址:Llama 2: Open Foundation and Fine-Tuned Chat Models 据介绍,相比于 Llama 1, Llama 2 的训练数据多了 40%,上下文长度是 Llama 1 的 2 倍 ,并采用了分组查询注意力机制。

    2024年02月15日
    浏览(33)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包