【古诗生成AI实战】之五——加载模型进行古诗生成

这篇具有很好参考价值的文章主要介绍了【古诗生成AI实战】之五——加载模型进行古诗生成。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  回顾上一篇博客,我们已经成功地训练了我们的模型,并将其保存下来。这是一个重要的里程碑,因为训练好的模型是我们进行文本生成的基础。

  现在,接下来的步骤是加载这个训练好的模型,然后使用它来生成古诗。

  本章的内容属于文本生成阶段。在这一阶段,我将详细介绍古诗生成的代码实现。这部分是项目中非常激动人心的一环,因为我们将看到我们的模型如何利用先前学习的知识来创造出新的古诗文本。让我们一起深入探索古诗生成的过程,并理解背后的技术细节。

【古诗生成AI实战】之五——加载模型进行古诗生成,# 文本生成,# 古诗生成AI实战,人工智能,机器学习,深度学习,文本生成,古诗创作

[1] 开始生成

  生成的代码仍然和模型训练很相像,只是在文本生成时需要额外写些代码。整体代码如下:

def create_trainer(wrapper):
    # 分词器, 模型
    model = wrapper.model

    args = TrainingArguments(
        './checkpoints',  # 模型保存的输出目录
        per_device_train_batch_size=1,
        per_device_eval_batch_size=1,
    )

    trainer = Trainer(
        model,
        args
    )
    return trainer

def softmax( f ):
    # 坏的实现: 数值问题
    return np.exp(f) / np.sum(np.exp(f))


def main():
    # ##
    # @通用配置
    # ##
    with open('config.yaml', 'r', encoding='utf-8') as f:
        conf = yaml.load(f.read(), Loader=yaml.FullLoader)
        conf_pre = conf['pre']
        conf_sys = conf['sys']

    # 系统设置初始化
    System(conf_sys).init_system()

    # 初始化任务加载器
    Task = TASKS[conf_pre['task_name']]()
    data = Task.get_train_examples(conf_pre['dataset_url'])


    # 初始化数据预处理器
    Processor = PROCESSORS[conf_pre['task_name']](data, conf_pre['max_seq_len'], conf_pre['vocab_path'])
    tokenizer = lambda text: Processor.tokenizer(text, add_end=False)
    vocab = Processor.vocab

    # 初始化模型包装配置
    wrapper_config = WrapperConfig(
        tokenizer=tokenizer,
        max_seq_len=conf_pre['max_seq_len'],
        vocab_num=len(Processor.vocab),
        word2vec_path=conf_pre['word2vec_path']
    )
    x = import_module(f'main.model.{conf_pre["model_name"]}')
    wrapper = NNModelWrapper(wrapper_config, x.Model)

    trainer = create_trainer(wrapper)

    wrapper.model.load_state_dict(torch.load(conf_pre['model_save_dir'] + conf_pre['task_name'] + '/' + conf_pre['model_name'] + '/' + 'pytorch_model.bin', map_location=torch.device('cpu')))
    poem = '天'
    l = len(poem)

    for i in range(l, 32):
        test_data = Task.get_single_examples(poem)
        test_dataset = wrapper.generate_dataset(test_data, labeled=False)
        output = trainer.predict(test_dataset=test_dataset)[0][0]
        # 逐字生成
        pred = output[i]
        pred = softmax(pred)
        pred /= np.sum(pred)
        sample = np.random.choice(np.arange(len(pred)), p=pred)
        # sample = np.argmax(pred)
        if sample > len(vocab):
            new_word = ' '
        else:
            # vocab通过键查找key
            new_word = vocab[sample]
        poem += new_word

    print(poem)

  在这部分内容中,我们将探讨如何使用预训练的模型来生成文本,例如古诗。整个过程包括以下步骤:

  * 从config.yaml文件中加载配置。
  * 初始化系统设置和任务加载器task
  * 加载数据并初始化数据预处理器processor
  * 创建模型包装配置WrapperConfig
  * 动态加载模型类并创建NNModelWrapper实例。
  * 创建训练器trainer,用于预测。
  * 加载预训练的模型权重。
  * 生成文本:从初始文本(例如“天”)开始,逐字生成新的文本,直到达到指定长度(如32个字符)。

  在文本生成部分,关键步骤包括:
  * 使用模型预测下一个字符的概率分布。
  * 应用softmax函数得到标准化的概率分布。
  * 从概率分布中随机抽取下一个字符(或选择概率最高的字符)。
  * 将新字符添加到现有文本中,并重复上述过程。

[2] 生成模式

  在古诗生成的过程中,我们可以采用几种不同的生成模式:

  1. 补词生成:输入古诗的前几个字,然后让模型补齐剩余部分。
  2. 无词生成:不输入任何前缀,直接让模型生成完整的古诗。
  3. 藏头诗:输入四个字ABCD,手动在第1、9、17、25个位置赋值A、B、C、D,其余部分由模型生成。

[3] 展望

【古诗生成AI实战】之五——加载模型进行古诗生成,# 文本生成,# 古诗生成AI实战,人工智能,机器学习,深度学习,文本生成,古诗创作

  在评价生成的古诗质量时,我们需要考虑以下几个关键因素:

  · 语境连贯(Context Coherence):生成的文本应逻辑上与上下文相符,并贯穿始终保持一致性。
  · 主题相关(Topic Relevance):内容应与预定的主题或主旨相关。
  · 新颖性(Novelty):文本应引入新颖、创造性或创新元素。
  · 风格化(Stylization):文本应展示特定的风格或审美质量。
  · 情感化(Sentimentalization):文本应有效且恰当地表达情感。

  高质量的文本生成,尤其是在诗歌这样的创意领域,不仅仅是串联词语那么简单。它必须在语境连贯、主题相关、创新性、风格和情感深度等多个层面上产生共鸣。

  本实战项目只提供了基础的古诗生成功能,在以上这些注意点上并没有过多探究。如果想更进一步研究和提升生成文本的质量,可以参考相关的学术论文进行深入研究。文章来源地址https://www.toymoban.com/news/detail-756715.html

到了这里,关于【古诗生成AI实战】之五——加载模型进行古诗生成的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 自然语言处理实战9-大语言模型的训练与文本生成过程

    大家好,我是微学AI,今天给大家介绍一下自然语言处理实战项目9-大语言模型的训练与文本生成过程,详细步骤介绍。大语言模型的训练是通过深度学习技术实现的。首先,需要准备一个庞大的文本数据集作为训练样本,这些文本可以是网页、书籍、新闻等大量的非结构化文

    2024年02月07日
    浏览(54)
  • 斯坦福大学团队提出AI生成文本检测器DetectGPT,通过文本对数概率的曲率进行可解释判断

    原文链接:https://www.techbeat.net/article-info?id=4583 作者:seven_ 随着以ChatGPT等大型语言模型(large language models,LLMs)的爆火, 学界和工业界目前已经开始重视这些模型的安全性 ,由于ChatGPT强大的 知识存储和推理能力 ,其目前可以针对各种各样的用户输入来产生非常流畅和完整

    2024年02月09日
    浏览(50)
  • 【AI】Python调用讯飞星火大模型接口,轻松实现文本生成

    随着chatGPT的出现,通用大模型已经成为了研究的热点,由于众所周知的原因,亚太地区调用经常会被禁,在国内,讯飞星火大模型是一个非常优秀的中文预训练模型。本文将介绍如何使用Python调用讯飞星火大模型接口,实现文本生成等功能。 1. 安装API库 需要安装库,在命令

    2024年02月09日
    浏览(65)
  • 深度学习实战29-AIGC项目:利用GPT-2(CPU环境)进行文本续写与生成歌词任务

    大家好,我是微学AI,今天给大家介绍一下深度学习实战29-AIGC项目:利用GPT-2(CPU环境)进行文本续写与生成歌词任务。在大家没有GPU算力的情况,大模型可能玩不动,推理速度慢,那么我们怎么才能跑去生成式的模型呢,我们可以试一下GPT-2完成一些简单的任务,让大家在CPU环

    2024年02月08日
    浏览(44)
  • 【AI实战】BERT 文本分类模型自动化部署之 dockerfile

    本文主要介绍: 基于BERT的文本分类模型,样本不均衡的多分类loss函数的写法 dockerfile自动构建docker镜像,服务部署 BERT 的全称为 Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言

    2024年02月12日
    浏览(41)
  • DeepFloyd IF:由文本生成图像的强大模型,能够绘制文字的 AI 图像工具

    DeepFloyd IF:能够绘制文字的 AI 图像工具 之前的 Stable Diffusion 和 Midjourney 都无法生成带有文字的图片,而文字都是乱码。 DeepFloyd IF,这个文本到图像的级联像素扩散模型功能强大,能巧妙地将文本集成到图像中。 DeepFloyd IF的优点是它能够生成高度真实的图像,并且具有很强的

    2024年01月23日
    浏览(53)
  • [AI绘图教程]stable-diffusion webui加载模型与插件. 实战AI绘画

    之前讲了stable diffusion webui搭建,这里主要介绍使用方法以及模型,扩展等. 主要下载网址 HuggingFace:Stable Diffusion、ControlNet的官方仓库。 Civitai:里面多是Lora或其它NSFW等模型的仓库。 这里下载anythingV4的模型,在Huggingface网站中搜索, 下载后放在stable-diffusion-webuimodelsStable-diffusio

    2023年04月09日
    浏览(84)
  • AI之LLM/MLM:Nvidia官网人工智能大模型工具合集(大语言模型/多模态模型,文本生成/图像生成/视频生成)的简介、使用方法、案例应用之详细攻略

    AI之LLM/MLM:Nvidia官网人工智能大模型工具合集(大语言模型/多模态模型,文本生成/图像生成/视频生成)的简介、使用方法、案例应用之详细攻略 目录 Nvidia官网人工智能大模型工具合集的简介 1、网站主要功能包括: Nvidia官网人工智能大模型工具合集的使用方法 1、SDXL-Turbo的使

    2024年04月28日
    浏览(76)
  • 文本生成高精准3D模型,北京智源AI研究院等出品—3D-GPT

    北京智源AI研究院、牛津大学、澳大利亚国立大学联合发布了一项研究—3D-GPT,通过文本问答方式就能创建高精准3D模型。 据悉,3D-GPT使用了大语言模型的多任务推理能力,通过任务调度代理、概念化代理和建模代理三大模块,简化了3D建模的开发流程实现技术民主化。 但3D-

    2024年02月03日
    浏览(46)
  • 自然语言处理实战项目19-基于ALBERT模型进行微调的项目-文本分类中的合同类型描述的分类

    大家好,我是微学AI,今天给大家介绍一下自然语言处理实战项目19-基于ALBERT模型进行微调的项目-文本分类中的合同类型描述的分类。本文中,我主要将探讨如何使用预训练的ALBERT模型进行微调,以解决文本分类问题,特别是对合同类型的分类。在ALBERT这个模型中,Google研究

    2024年02月07日
    浏览(66)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包