LLaMA论文阅读
0. 简介
LLaMA 训练了从7B到65B不同参数量的模型,从Hoffmann的论文【Training compute-optimal large languag】中证明了在有限计算代价的情况下(给定总的FLOPs大小),表现最好的不是参数量最大的模型,而是在更多数据上训练的稍小的模型。
LLaMA实现了两个目标:
- LLaMA-13B跟GPT-3相比, 参数量小了10倍,但效果更好;LLaMA-65B比Chinchilla-70B和PaLM-540B更好。
- 只依赖公开的开源数据集也可以达到最好的SOTA效果。
1. 论文阅读
1.1 训练数据
使用了多数据集的混合,对相应数据集做了对应的清理,例如重复数据去重、针对CommonCrawl
训练了一个分类模型用于过滤没有被Wikipedia引用的低质量数据等。整体的训练数据包含总共有1.4T个token。
Dataset | Sampling prop. | Epochs | Disk size |
---|---|---|---|
CommonCrawl | 67.0% | 1.10 | 3.3 TB |
C4 | 15.0% | 1.06 | 783 GB |
Github | 4.5% | 0.64 | 328 GB |
Wikipedia | 4.5% | 2.45 | 83 GB |
Books | 4.5% | 2.23 | 85 GB |
ArXiv | 2.5% | 1.06 | 92 GB |
StackExchange | 2.0% | 1.03 | 78 GB |
-
Sampling prop
表示抽样比例 -
Epochs
表示当在1.4T tokens训练时作用到不同数据集的epoch数
1.2 tokenizer
1.2.1 BPE(Byte pair encoding)
使用BPE(Byte pair encoding)
进行tokenizer,BPE
方法是一种简单又鲁棒的数据压缩方法,基本思路是对于一个句子中连续字符使用一个新的字符进行替换,从而达到数据压缩的作用,对数据还原时才用lookup查表的方式,依次反向对字符进行反向替换恢复数据。
例如对aaabdaaabac
压缩,依次通过如下方式进行替换:
# 1. 原始字符串
aaabdaaabac
# 2. 使用Z替换aa
ZabdZabac
Z=aa
# 3. 使用Y替换ab
ZYdZYac
Y=ab
Z=aa
# 4. 使用X替换ZY
XdXac
X=ZY
Y=ab
Z=aa
1.2.2 SentencePiece
SentencePiece是google对BPE思想的一种实现,除了BPE还实现了unigram language model,LLaMA使用SentencePiece进行tokenizer。
具体可参考:SentencePiece论文阅读
1.3 LLaMA模型结构
整体模型基于transformer结构,在此基础上整合了多个其他模型中的改动方法,具体如下:
- Pre-normalization [GPT3]:使用RMSNorm(Root Mean Square Layer Normalization)方法对transformer每层的输入进行归约(norm)操作,代替了transformer之前对输出进行归约(norm)。
具体可参考:RMSNorm论文阅读 - SwiGLU activation function [PaLM]:使用
SwiGLU
激活函数代替Relu
激活函数,跟PaLM不同的是dimension维度从4d变为了2/3*4d。
具体可参考:SwiGLU论文阅读 - Rotary Embeddings [GPTNeo]:去除了transformer中绝对位置embedding,使用旋转式的位置embedding。
具体可参考:Rotary Position Embeddings论文阅读
1.4 训练参数配置
- 使用
AdamW
优化器,对应超参beta1=0.9, beta2=0.95; 使用cosine学习率调度,最终学习率是最大学习率的10%;weight decay为0.1, gradient clipping为0.1。 - 训练使用前2000个step进行warmup
- 不同规模的模型大小如下:
1.5 高效实现
使用了如下方式提升模型训练的速度:
- 使用
causal multi-head attention
进行显存降低。对应实现是【xformers】。在这个方法中不用存储attention的权重,同时不用计算被masked的key/query的分数。 - 在反向pass中使用checkpointing的方法减少激活的重计算。这里不能使用pytorch默认的autograd,需要手动实现transformer的反向。
- 使用model并行和sequece并行。对应megatron3中的优化【Reducing Activation Recomputation in Large Transformer Models】。
- 将activation的计算和不同gpu卡的通信(all_reduce操作)进行重叠
训练65B参数的模型,使用了2048块80G显存大小的A100卡,处理对应380 tokens/sec/GPU,1.4T个token训练了有21天。训练loss如下:
1.6 结果说明
结果参考论文【3 Main results】文章来源:https://www.toymoban.com/news/detail-532007.html
2. 实现
TODO文章来源地址https://www.toymoban.com/news/detail-532007.html
3. 参考
- SentencePiece论文阅读
- RMSNorm论文阅读
- Rotary Position Embeddings论文阅读
- SwiGLU论文阅读
- facebookresearch/llama
- LLaMA: Open and Efficient Foundation Language Models
- Byte pair encoding
- SentencePiece
- unigram language model
- google/sentencepiece
- Stupid Backoff
- Stupid Backoff implementation clarification
- PaLM
- Training Compute-Optimal Large Language Models
- Reducing Activation Recomputation in Large Transformer Models
- Root Mean Square Layer Normalization
到了这里,关于LLaMA论文阅读的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!