通义千问开源模型在PAI灵骏的最佳实践 - 知乎
https://github.com/alibaba/Pai-Megatron-Patch/blob/main/examples/megatron.md
背景:
目标:使用qwen基座来做CT。
数据情况:预训练数据已经用qwen-tokenizer分过词。所以不需要准备数据。如果需没有数据,也可以从Pai-Megatron上拉数据。文章来源:https://www.toymoban.com/news/detail-806498.html
Megatron训练流程:
Pai-Megatron-Patch 克隆Pai-Megatron-Patch源代码并拷贝到工作目录/mnt/workspace/下。文章来源地址https://www.toymoban.com/news/detail-806498.html
# 开源网站获取训练代码
git clone --recurse-submodules https://github.com/alibaba/Pai-Megatron-Patch.git
# wget获取训练代码
https://atp-mode
到了这里,关于[论文笔记] PAI-Megatron 1、Qwen continuing pretrain(CT)千问预训练的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!