TinyLlama-1.1B(小羊驼)模型开源-Github高星项目分享

这篇具有很好参考价值的文章主要介绍了TinyLlama-1.1B(小羊驼)模型开源-Github高星项目分享。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

简介

TinyLlama项目旨在在3万亿tokens上进行预训练,构建一个拥有11亿参数的Llama模型。经过精心优化,我们"仅"需16块A100-40G的GPU,便可在90天内完成这个任务🚀🚀。训练已于2023-09-01开始。项目地址:https://github.com/jzhang38/TinyLlama/tinyllama部署,AIGC,AI,人工智能,AIGC,人工智能

特点

采用了与Llama 2完全相同的架构和分词器。这意味着TinyLlama可以在许多基于Llama的开源项目中即插即用。此外,TinyLlama只有1.1B的参数,体积小巧,适用于需要限制计算和内存占用的多种应用。

发布时间表

tinyllama部署,AIGC,AI,人工智能,AIGC,人工智能需要注意的是,由于我们的现在模型还处于训练初期,学习率并没有完全稳定下来,为了更好的体验我们的模型,您可以下载我们 聊天模型 或者通过 chat demo 来尝试我们的模型。

潜在场景

小型但强大的语言模型对许多应用都很有用。以下是一些潜在的场景:

  • 帮助对大型模型进行speculative decoding。
  • 在边缘装置上运行,比如离线的实时机器翻译 (TinyLlama的4比特量化版本的模型权重只需要550MB的内存)。
  • 在游戏中实现实时对话生成(因为还得给游戏本身留显存所以模型要小)。

此外,我们的代码可以给初学者做一个入门预训练的简洁参考。如果你要训练50亿以下参数的语言模型, 你其实不需要Megatron-LM。

训练细节

tinyllama部署,AIGC,AI,人工智能,AIGC,人工智能我们的代码库支持以下特性:

  • multi-gpu and multi-node distributed training with FSDP.
  • flash attention 2.
  • fused layernorm.
  • fused swiglu.
  • fused cross entropy loss .
  • fused rotary positional embedding.

Credit: flash attention 2, fused layernorm, fused cross entropy loss, and fused rotary positional embedding are from the FlashAttention repo. Fused swiglu is from xformers.有了这些优化, 我们可以达到24k tokens/秒/A100的训练速度,也就是56%的MFU(在A100-80G上的MFU会更高)。这个速度可以让你可以在8个A100上用32小时训练一个chinchilla-optimial的模型(11亿参数,220亿token)。这些优化也大大减少了显存占用, 我们可以把11亿参数的模型塞入40GB的GPU里面还能同时维持16k tokens的per-gpu batch size。只需要把batch size改小一点, 你就可以在RTX 3090/4090上面训练TinyLlama。下面是我们的代码库与Pythia和MPT的训练速度的比较。ModelA100 GPU hours taken on 300B tokensTinyLlama-1.1B3456Pythia-1.0B4830MPT-1.3B7920Pythia的数字来自他们的论文。MPT的数字来自这里,作者说MPT-1.3B"was trained on 440 A100-40GBs for about half a day" on 200B tokens。TinyLlama是一个相对较小的模型, 同时我们用了GQA, 这意味着它在推理期间也很快。以下是我们测量的一些推理速度:FrameworkDeviceSettingsThroughput (tokens/sec)Llama.cppMac M2 16GB RAMbatch_size=1; 4-bit inference71.8vLLMA40 GPUbatch_size=100, n=107094.5

预训练 TinyLlama

已安装 CUDA 11.8

安装Pytorch

pip install --index-url https://download.pytorch.org/whl/nightly/cu118 --pre 'torch>=2.1.0dev'源构建 XFormers注意:截至 2023 年 9 月 2 日,xformers 不提供 torch 2.1 的预构建二进制文件。您必须从源代码构建它。pip uninstall ninja -y && pip install ninja -Upip install -v -U git+https://github.com/facebookresearch/xformers.git@main#egg=xformers安装 Flash-Attention 2git clone https://github.com/Dao-AILab/flash-attentioncd flash-attentionpython setup.py installcd csrc/rotary && pip install .cd ../layer_norm && pip install .cd ../xentropy && pip install .cd ../.. && rm -rf flash-attention安装依赖pip install -r requirements.txt tokenizers sentencepiece安装其他依赖项。构建 xformers/flash-attention 可能需要 >= 5 分钟。如果进程似乎停滞或终端打印出许多警告,请不要担心。

数据准备

下载数据集

将 Slimpajama 和 Starcoderdata 数据集下载到您选择的目录。cd /path/to/datasetgit lfs installgit clone https://huggingface.co/datasets/cerebras/SlimPajama-627Bgit clone https://huggingface.co/datasets/bigcode/starcoderdataSlimPajama 数据集占用 893GB 磁盘空间,starcoderdata 占用 290GB

标记数据

python scripts/prepare_starcoder.py --source_path /path/to/starcoderdata/ --tokenizer_path data/llama --destination_path data/slim_star_combined --split train --percentage 1.0python scripts/prepare_slimpajama.py --source_path /path/to/SlimPajama --tokenizer_path data/llama --destination_path data/slim_star_combined --split validation --percentage 1.0python scripts/prepare_slimpajama.py --source_path /path/to/SlimPajama --tokenizer_path data/llama --destination_path data/slim_star_combined --split train --percentage 1.0处理后的数据将占用1.8T存储空间

预训练

如果您的设置包含两个节点,每个节点有 8 个 GPU,您可以使用以下命令启动预训练:

节点1:

lightning run model \ --node-rank=0 \ --main-address=172.16.101.5 \ --accelerator=cuda \ --devices=8 \ --num-nodes=2 \ pretrain/tinyllama.py --devices 8 --train_data_dir data/slim_star --val_data_dir data/slim_star

节点 2:

lightning run model \ --node-rank=1 \ --main-address=172.16.101.5 \ --accelerator=cuda \ --devices=8 \ --num-nodes=2 \ pretrain/tinyllama.py --devices 8 --train_data_dir data/slim_star --val_data_dir data/slim_star#
文章来源地址https://www.toymoban.com/news/detail-789498.html

到了这里,关于TinyLlama-1.1B(小羊驼)模型开源-Github高星项目分享的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 最新全网整理的7个最佳开源免费库存/仓库管理系统(WMS)都具有高星star

    最新全网整理的7个最佳开源免费库存/仓库管理系统(WMS)都具有高星star。 库存/仓库管理软件是一种用于帮助企业管理库存、仓储位置和交付过程的软件系统。这种类型的软件对于拥有大量库存和多个仓库的企业非常有用。 库存/仓库管理软件的作用包括以下几个方面: (

    2024年04月28日
    浏览(39)
  • 论文阅读_tinyllama_轻量级大模型

    英文名称: \\\'TinyLlama: An Open-Source Small Language Model\\\' 中文名称: \\\'TinyLlama: 一个开源的小型语言模型 链接: http://arxiv.org/abs/2401.02385v1 代码: https://github.com/jzhang38/TinyLlama 作者: Peiyuan Zhang, Guangtao Zeng, Tianduo Wang, Wei Lu机构: 新加坡科技与设计大学日期: 2024-01-04 文中介绍了 TinyLlama 一种开源

    2024年01月22日
    浏览(26)
  • 第3章 开源大模型框架概览3.1 TensorFlow与Keras3.1.1 TensorFlow简介

    TensorFlow是Google开发的一款开源的深度学习框架,由于其强大的性能和灵活性,被广泛应用于机器学习、人工智能等领域。Keras则是一个高层次的神经网络API,可以运行在顶层框架上,包括TensorFlow、CNTK、Theano等。Keras提供了简单易用的接口,使得构建、训练和部署深度学习模型

    2024年01月20日
    浏览(50)
  • 使用GitHub分享项目

    访问GitHub网站,点击“Sign up”按钮开始注册账号。然后按照提示输入你的用户名、电子邮箱地址和密码,提交成功后通过邮箱或你注册的手机号码进行验证身份。 想分享自己的项目,首先需要在GitHub上创建一个新的仓库(Repository)。了解一些与仓库相关的术语: 仓库名(

    2024年02月16日
    浏览(28)
  • 【LLMs系列】90%chatgpt性能的小羊驼Vicuna模型学习与实战

    UC伯克利学者联手CMU、斯坦福等,再次推出一个全新模型70亿/130亿参数的Vicuna,俗称「小羊驼」(骆马)。小羊驼号称能达到GPT-4的90%性能 github 地址: GitHub - lm-sys/FastChat: An open platform for training, serving, and evaluating large language models. Release repo for Vicuna and FastChat-T5. 本篇文章为博主

    2024年02月09日
    浏览(109)
  • 【寻找开源项目】如何在GitHub上快速寻找自己想要的开源项目

    你好呀! 我是小易同学,一名普通的不能再普通的学习者。 写文章是为了记录自己的学习过程,同时也希望能帮助到需要的人。 如果我的文章对您有帮助,请不要忘记关注我哦🥰 相信大家都有在GitHub上寻找过想要研究一下的项目,但常常却浪费了大把的时间,最后找到的

    2024年02月16日
    浏览(41)
  • 在GitHub找开源项目

    在 GitHub 的搜索框里: 使用搜索可以在 GitHub 上快速的找你需要的开源项目: 通过 in (大小写不敏感) 限制搜索范围: 公式 搜索范围 in:name xxx 项目名包含xxx in:description xxx 项目描述包含xxx in:readme xxx 项目介绍文档包含xxx 例如:搜索项目名包含 “chat”、项目描述

    2024年02月04日
    浏览(45)
  • github开源学习项目推荐

    1.洛雪音乐助手桌面版 2.CS 自学指南 3.计算机书籍资源  4.Python - 100天从新手到大师 5.小林 x 图解计算机基础 洛雪音乐助手桌面版 https://github.com/lyswhut/lx-music-desktop 一个基于 electron 的音乐软件 CS 自学指南 http://如何使用这本书 - CS自学指南 https://csdiy.wiki/%E4%BD%BF%E7%94%A8%E6%8C%8

    2024年02月04日
    浏览(46)
  • 【开源项目】GitHub 上的 10 大最佳开源项目 2023 | Top 10 Best Open Source Projects on GitHub 2023

      目录 1. RLHF + PaLM: Open Source ChatGPT Alternative1. RLHF + PaLM:开源聊天GPT替代品

    2024年02月16日
    浏览(49)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包