大模型之Bloom&LLAMA----Pre-Training(二次预训练)

这篇具有很好参考价值的文章主要介绍了大模型之Bloom&LLAMA----Pre-Training(二次预训练)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0. 简介

随着chatgpt的爆火,最近也有很多大模型在不断地出现,比如说Bloom系列以及以LLAMA为基础的ziya和baichuan。这些模型相较于chatglm来说,更加具有发展前景,因为其是完全可商用,并可以不断迭代更新的。最近作者在跟着hiyouga大佬的LLaMA-Efficient-Tuning进行学习,相较于其他的项目来说,该项目是非常适合跟着学习并入门的。

1. 二次预训练的目的

最近几年来,大量的研究工作表明,大型语料库上的预训练模型(PTM)可以学习通用的语言表征,这对于下游的 NLP 任务是非常有帮助的,可以避免从零开始训练新模型。而随着算力的发展、深层模型(Transformer)出现以及训练技能的不断提高,PTM 体系结构从浅层发展到了深层。

对于大模型而言,其基本训练流程一般可以分为两个阶段:预训练和微调。预训练阶段是模型学习语言知识的阶段,在这个阶段,模型会从大量的文本数据中学习如何理解和生成文本。这一阶段生成的模型是通用的,可以用于处理各种类型的文本任务。微调阶段是在预训练模型的基础上,针对特定任务进行训练,使模型能更好地完成该任务。

然而,由于预训练模型是在大规模的、通用的语料库上进行训练的,所以其学到的知识可能并不是特定任务所需的全部知识。例如,预训练模型可能没有足够的能力理解医学或法律文本,因为这些领域的专业知识可能在预训练语料库中并不充足。

这就是我们需要进行二次预训练的地方。在二次预训练中,我们将模型在特定领域的语料库上进行再训练,这样模型就能学习到更多这个领域的知识,从而更好地完成特定任务。二次预训练可以看作是预训练和微调之间的一个过渡阶段,它既保留了预训练的广泛性,又添加了针对特定任务的专业性。

除此之外,二次预训练还有一个重要的作用,就是可以有效地利用小规模的、高质量的领域数据(通常仍然是GB级别)。在许多情况下,领域数据是昂贵的、难以获得的,因此我们需要尽可能地利用这些数据。通过在大模型上进行二次预训练,我们可以将领域数据的知识充分地转化为模型的性能提升。

2. 代码阅读–train_pt.py

下面是一个预训练模型的脚本,主要包括模型和数据的准备,数据集的划分,训练和评估等步骤。

首先,代码导入了一些必要的模块和函数。这包括一些用于数据处理、训练、加载预训练模型和绘制损失图的工具函数。

    # Prepare pretrained model and dataset
    model_args, data_args, training_args, finetuning_args = prepare_args(stage="pt")# 用于准备各种参数,包括模型参数、数据参数、训练参数和微调参数。
    dataset = prepare_data(model_args, data_args)# 用于准备数据集
    model, tokenizer = load_pretrained(model_args, finetuning_args, training_args.do_train, stage="pt") # 用于加载预训练的模型和分词器。
    dataset = preprocess_data(dataset, tokenizer, data_args, training_args, stage="pt")# 用于预处理数据,例如将文本转换为模型可以理解的格式。
    data_collator = DynamicDataCollatorWithPadding(tokenizer, data_args.ignore_pad_token_for_loss)# 动态地对数据进行填充,使得每个batch中的数据长度一致。

然后,根据是否进行训练,对数据集进行划分。如果进行训练,且开发集的比例大于0,那么数据集会被划分为训练集和开发集;否则,全部数据用于训练。如果不进行训练,那么全部数据用于评估或预测。

    if training_args.do_train:
        if data_args.dev_ratio > 1e-6:
            dataset = dataset.train_test_split(test_size=data_args.dev_ratio)
            trainer_kwargs = {"train_dataset": dataset["train"], "eval_dataset": dataset["test"]}
        else:
            trainer_kwargs = {"train_dataset": dataset}
    else: # do_eval or do_predict
        trainer_kwargs = {"eval_dataset": dataset}

接着,初始化PeftTrainer对象,传入微调参数、模型、训练参数、分词器、数据处理器和回调函数等参数,以及前面划分的数据集。这个我们下一节将会仔细阅读里面的操作

trainer = PeftTrainer(
        finetuning_args=finetuning_args,
        model=model,
        args=training_args,
        tokenizer=tokenizer,
        data_collator=data_collator,
        callbacks=[LogCallback()],
        **trainer_kwargs
    )

在进行训练后,代码会记录训练的结果,并保存模型和训练结果。如果模型在所有进程中的进程号为0,并且设定了绘制损失图,那么会绘制训练损失和评估损失的图。

    if training_args.do_train:
        train_result = trainer.train()
        trainer.log_metrics("train", train_result.metrics)
        trainer.save_metrics("train", train_result.metrics)
        trainer.save_state()
        trainer.save_model()
        if trainer.is_world_process_zero() and model_args.plot_loss:
            plot_loss(training_args.output_dir, keys=["loss", "eval_loss"])

在进行评估后,代码会计算模型的困惑度(一个常用的语言模型评估指标),并记录评估结果。

    if training_args.do_eval:
        metrics = trainer.evaluate(metric_key_prefix="eval")

        try:
            perplexity = math.exp(metrics["eval_loss"])
        except OverflowError:
            perplexity = float("inf")
        metrics["perplexity"] = perplexity

        trainer.log_metrics("eval", metrics)
        trainer.save_metrics("eval", metrics)

3. 预训练处理–peft_trainer.py

这段代码定义了两个类,LogCallback和PeftTrainer。LogCallback类用于在训练过程中记录日志,PeftTrainer类是一个自定义的训练器,用于支持参数效率的检查点。

3.1 LogCallback函数

首先我们来先看一下LogCallback这个函数,它是从TrainerCallback类继承的,主要用于记录训练过程中的信息,比如损失、学习率、训练周期、当前的进度百分比和估计剩余时间等。这些信息会被写入到文件"trainer_log.jsonl"中。

首先存在一个__init__函数,它在类的实例被创建时执行。这里记录了创建时的时间戳作为训练的开始时间。

def __init__(self):
        self.start_time = time.time()

然后会进入on_log方法,它在当训练过程需要记录日志的时候会被调用。这个方法接收四个参数:args(训练参数),state(训练的当前状态),control(用于控制训练流程的对象),以及kwargs(其他参数)。

 def on_log(self, args: TrainingArguments, state: TrainerState, control: TrainerControl, **kwargs) -> None:

首先在方法体中,首先检查最后一次日志记录中是否包含"loss"这个键。如果不包含,就直接返回。其目的是为了查看是否有训练的loss输出

if "loss" not in state.log_history[-1]:
            return

接着,计算从训练开始到现在的总时间(秒),以及到目前为止每步训练所用的平均时间。

cur_time = time.time()
elapsed_time = cur_time - self.start_time
avg_time_per_step = elapsed_time / cur_steps if cur_steps != 0 else 0

根据平均时间和剩余的步数,预计训练的剩余时间。

remaining_steps = state.max_steps - cur_steps
remaining_time = remaining_steps * avg_time_per_step

然后,将这些信息,包括当前步数、总步数、损失、奖励、学习率、训练周期、完成的百分比、已用的时间以及预计的剩余时间,保存到一个字典中。

log_dict = {
      "current_steps": cur_steps,
      "total_steps": state.max_steps,
      "loss": state.log_history[-1].get("loss", None),
      "reward": state.log_history[-1].get("reward", None),
      "learning_rate": state.log_history[-1].get("learning_rate", None),
      "epoch": state.log_history[-1].get("epoch", None),
      "percentage": round(cur_steps / state.max_steps * 100, 2) if state.max_steps != 0 else 100,
      "elapsed_time": str(timedelta(seconds=int(elapsed_time))),
      "remaining_time": str(timedelta(seconds=int(remaining_time)))
}

如果输出目录不存在,创建该目录,然后将上述字典以JSON格式写入到名为"trainer_log.jsonl"的文件中。这个文件的每一行都是一个JSON对象,记录了一次日志事件的信息。

os.makedirs(args.output_dir, exist_ok=True)
with open(os.path.join(args.output_dir, "trainer_log.jsonl"), "a") as f:
       f.write(json.dumps(log_dict) + "\n")

3.2 PeftTrainer函数(同chatglm方法)

PeftTrainer类是从Seq2SeqTrainer类继承的,专门用于处理序列到序列的模型。这个类的构造函数接收一个FinetuningArguments对象,该对象包含微调过程的参数。

首先是__init__函数,它在类的实例被创建时执行。这里首先调用父类的构造函数,并存储微调参数。然后,如果当前进程是主进程(编号为0),并且输出目录中已经存在"log file"文件,那么就删除这个文件。(这个和上面不冲突,因为在主函数里面LogCallback函数是作为一个callback函数返回的)文章来源地址https://www.toymoban.com/news/detail-627235.html

…详情请参照古月居

到了这里,关于大模型之Bloom&LLAMA----Pre-Training(二次预训练)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 什么是预训练Pre-training—— AIGC必备知识点,您get了吗?

    Look!👀我们的大模型商业化落地产品 📖更多AI资讯请👉🏾关注 Free三天集训营助教在线为您火热答疑👩🏼‍🏫 随着人工智能(AI)不断重塑我们的世界,其发展的一个关键方面已经成为现代机器学习模型的支柱:预训练。在本篇文章中,我们将探讨预训练的概念,它在人工智

    2024年02月02日
    浏览(30)
  • MedicalGPT:基于LLaMA-13B的中英医疗问答模型(LoRA)、实现包括二次预训练、有监督微调、奖励建模、强化学习训练[LLM:含Ziya-LLaMA]。

    项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域) :汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户更好利用 CSDN 平台,自主完成项目设计升级,提升自

    2024年02月20日
    浏览(37)
  • GPT(Generative Pre-Training)论文解读及实现(一)

    Given an unsupervised corpus of tokens U = {u1, . . . , un}, we use a standard language modeling objective to maximize the following likelihood: 在给定语料上下文环境下,目标时最大化下面的语言模型,即在给定前 i-1个词和参数θ前提下,使第 i 个词出现的概率最大。 we use a multi-layer Transformer decoder [34] for

    2024年02月15日
    浏览(146)
  • Grounded Language-Image Pre-training论文笔记

    Title:Grounded Language-Image Pre-training Code 目前的视觉识别任务通常是在一个预先定义好的类别范围内进行的,这样限制了其在真实场景中的扩展。CLIP的出现打破了这一限制,CLIP利用image-text对进行训练,从而使得模型可以根据文字prompt识别任意类别。CLIP适用于分类任务,而GLI

    2024年02月11日
    浏览(35)
  • 【论文笔记】BEIT:BERT PRE-TRAINING OF IMAGE TRANSFORMERS

    GitHub 视觉转换器的输入单元,即图像补丁,没有预先存在的词汇。 预测遮罩面片的原始像素往往会在预训练短程依赖性和高频细节上浪费建模能力 输入编码:通过tokenizer将输入的文本中的每个单词转换为固定维度的向量表示 输入Transformer 编码器:使用多层的 Transformer 编码

    2024年02月11日
    浏览(31)
  • BEiT: BERT Pre-Training of Image Transformers 论文笔记

    论文名称: BEiT: BERT Pre-Training of Image Transformers 论文地址:2106.08254] BEiT: BERT Pre-Training of Image Transformers (arxiv.org) 代码地址:unilm/beit at master · microsoft/unilm (github.com) 作者讲解:BiLiBiLi 作者PPT:文章资源 首先展示的是我基于这个算法搭建的网页 demo ,欢迎体验。https://wangqvq-be

    2024年02月11日
    浏览(30)
  • 【论文笔记】Improving Language Understanding by Generative Pre-Training

    背景: 自然语言理解 包括广泛的不同任务,如文本蕴涵、QA问答、语义相似性评估和文档分类。 问题: 尽管 大型未标记文本语料库 (corpora)非常丰富;但用于 学习特定任务的标记数据 却很少,这使得采用传统的有监督深度学习方法训练得到的模型表现较差。 解决: 通过

    2024年03月24日
    浏览(46)
  • 论文阅读-(GLIP)Grounded Language-Image Pre-training (目标检测+定位)

    Paper:Grounded Language-Image Pre-training Code:https://github.com/microsoft/GLIP 简介: 定位任务与图像检测任务非常类似,都是去图中找目标物体的位置,目标检测为给出一张图片找出bounding box,定位为给出一个图片和文本,根据文本找出物体。GLIP 模型统一了目标检测(object detection)和

    2024年02月05日
    浏览(29)
  • 【NLP经典论文精读】Improving Language Understanding by Generative Pre-Training

    chatGPT的初代工作,可以说没有GPT,就没有现在的大模型百家争鸣,本篇文章回顾这篇经典论文,思考作者是如何根据前者的工作在思想上进行创新,从而得到通用的模型架构。 Paper: https://www.mikecaptain.com/resources/pdf/GPT-1.pdf Code: https://github.com/huggingface/transformersGPT 自然语言理解

    2024年02月15日
    浏览(292)
  • 论文阅读《Vision-Language Pre-Training with Triple Contrastive Learning》

    本文是2022年CVPR上的一篇 多模态 论文,利用对比学习和动量来进行图片与文本信息的上游预训练。 作者提出问题 简单的跨模态比对模型无法确保来自同一模态的相似输入保持相似。(模态内部语义信息损失) 全局互信息最大化的操作没有考虑局部信息和结构信息。 对于上

    2024年04月13日
    浏览(36)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包