一文读懂ChatGPT的前世今生(附相关论文下载)

这篇具有很好参考价值的文章主要介绍了一文读懂ChatGPT的前世今生(附相关论文下载)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

2022年11月,人工智能公司OpenAI推出了一款啥都会的聊天机器人:ChatGPT。它能聊天、能翻译、能做题,还会写情书、写论文、写小说……功能强大到马斯克都表示“我们离强大到危险的 AI 不远了”。

ChatGPT是平地起高楼吗?是横空出世吗?当然不是。伴随着人工智能领域不断更新迭代的研究及不断增长的算力,才有了今天震撼世界的ChatGPT。

悠络客自成立以来一直致力于建立前沿深度学习和算法平台。今天,我们就从技术角度出发,立足基本概念和基础研究,循序渐进对ChatGPT及相关热点内容进行介绍。

#1 NLP(自然语言处理)

NLP 的全称是 Natural Language Processing(自然语言处理)。它是人工智能的一个重要领域。顾名思义,该领域研究如何处理自然语言。常见的 NLP 任务有机器翻译、舆情监测、自动摘要、观点提取、文本分类、问题回答、文本语义对比、关系抽取、阅读理解等等。

NLP有两个核心的任务,分别是NLU自然语言理解(Natural Language Understanding)和NLG自然语言生成(Natural Language Generation)。NLU聚焦于使机器理解自然语言,NLG则是机器将非语言格式的数据转换为人类可以理解的自然语言。

自然语言理解是人工智能领域皇冠上的明珠,NLP是人工智能赋能社会和赋能行业的硬核科技。“如果我们能够推进自然语言处理,就可以再造一个微软。”比尔·盖茨对自然语言处理在人工智能时代及未来社会发展中的重要性,给予中肯的定义。

#2 Transformer

在Transformer面世之前,NLP领域的主流模型是循环神经网络RNN(Recurrent Neural Network)及其各种变体。RNN及其各种变体模型有两大问题:

  1. 如果传递距离过长就会伴随梯度消失、梯度爆炸和遗忘问题,因此不能有效学习长距离的依赖关系;

  1. 在处理序列时必须逐个词进行处理,后一个词要等到前一个词的隐状态输出以后才能开始处理,这样无法同时并行训练,导致训练模型时间过长。

2017年6月,Google Brain发表了一篇论文:Attention Is All You Need(注意力就是你所需要的)(点击下载论文)

Transformer是这篇论文里提出的一种模型架构,Transformer基于Encoder-Decoder结构并加入了位置编码及Self-Attention机制。通过Self-Attention机制使得每个序列中的每个词都有全局的语义信息,因此Transformer处理长距离的依赖关系比RNN要好很多;同时由于对输入叠加了Positional Encoding,因此能一次接收整个句子中的所有词作为输入,并行计算后训练的时间相比RNN及其变体也大大缩短。作者将其用于NLP领域中的机器翻译,Transformer在英语-德语和英语-法语相关测试中夺得了SOTA(State-of-the-Art,最先进的)结果,且训练成本相对于以前的一些最好模型要少很多,只是它们的一小部分。

从数学角度来说,NLP可以归为序列建模问题。所谓序列建模,就是要建模产生这个序列的概率分布,或者严格上说是其中的一些条件概率。Transformer的思想是开创性的,对序列建模领域有着深远的影响。Transformer被广泛应用于NLP的各个领域,后续在NLP领域全面开花的语言模型如GPT系列、BERT等,都是基于Transformer。Transformer的出色表现也促使许多人将其应用在计算机视觉领域,相比于传统的卷积神经网络(Convolutional Neural Networks,CNN),视觉Transformer(Vision Transformers,ViT)依靠出色的建模能力,在多项视觉任务上取得了优异的性能。

一文读懂ChatGPT的前世今生(附相关论文下载)

#3 OpenAI公司

2015年,创业孵化器Y Combinator总裁山姆·阿尔特曼、PayPal联合创始人彼得·蒂尔、Linkedin创始人里德·霍夫曼、特斯拉CEO埃隆·马斯克等人出资10亿美元创立OpenAI,旨在实现安全的通用人工智能(AGI)并造福人类。

OpenAI起初是一个非营利组织,但在2019年成立OpenAI LP子公司,目标是盈利和商业化,并引入了微软的10亿美元投资。

OpenAI诞生的初衷,部分原因就是为了避免谷歌在人工智能领域形成垄断。OpenAI的主要成就有:

  • 本文后续即将重点介绍的在NLP领域大放异彩的GPT系列;

  • 研发和比较强化学习算法的OpenAI Gym工具包;

  • 在游戏领域击败Dota2世界冠军的OpenAI Five;

  • 连接文本和图像的神经网络CLIP;

  • 从文本生成图像的神经网络DALL·E& DALL·E2等。

#4 GPT(生成式预训练)

2018年6月,OpenAI发表了一篇论文:Improving Language Understanding by Generative Pre-Training(通过生成性预训练提高语言理解能力)(点击下载论文)

GPT全称是Generative Pre-Training(生成式预训练),来自于这篇论文标题。该论文提出了一种半监督学习方法,采用了Pre-training + Fine-tuning的训练模式,致力于用大量无标注数据让模型学习“常识”,以缓解标注信息不足的问题。其具体方法是在针对有标签数据训练Fine-tune之前,用无标签数据预训练模型Pre-Train,并保证两种训练具有同样的网络结构。

一文读懂ChatGPT的前世今生(附相关论文下载)

如上图所示,训练分为两个阶段,第一个阶段是无监督形式的预训练,第二个阶段通过Fine-tuning的模式在监督形式下解决下游任务。GPT使用的Transformer结构也和原始的Transformer有所差异,GPT使用了单向的Transformer来完成预训练任务,将Encoder中的Self-Attention替换成了Masked Self-Attention,如上图左侧所示。使用Masked Self-Attention的目的,是使得句子中的每个词,都只能对包括自己在内的前面所有词进行Attention。

GPT在Transformer的运用和二阶段训练方式上做出了很好的探索,也取得了非常不错的效果,为后续的研究铺平了道路。

#5 BERT模型(以Transformers为基础的双向编码表达器)

2018年10月,google发表了一篇论文:BERT: Pre-training of Deep Bidirectional Transformers for Language Understanding(BERT:用于语言理解的深度双向变换器的预训练)(点击下载论文)

BERT的全称是Bidirectional Encoder Representations from Transformers(以Transformers为基础的双向编码表达器)。BERT和GPT类似的地方在于都是基于“预训练+fine tuning”的模式,在模型规模相当的情况下,BERT在分类、标注等任务下都获得了更好的效果,原因在于BERT采用的是不经过Masked的Transformer块,这样BERT就可以看见整个句子,即BERT不仅可以看到当前词之前的所有词,也能看到当前词之后的所有词,这也是双向的含义所在。

GPT的预训练任务只需要预测下一个词即可。由于BERT能看见整个句子,即BERT是知道参考答案的,因此BERT无法采用和GPT一样的预训练任务来训练模型。BERT论文中提出了两个预训练任务:Masked LM类似于完形填空,训练时随机抹去一句话中的一个或者几个词,然后根据剩余词汇预测被抹去的几个词分别是什么;Next Sentence Prediction类似于句子重排序,通过判断两句话的前后句关系,让模型能够更准确的刻画语句乃至篇章层面的语义信息。通过对这两个任务进行联合训练,使模型输出的每个词的向量表示都尽可能全面准确地表达输入文体的整体信息。

从以上描述可知,BERT是一个自编码语言模型,采用了去噪自编码的思路,随机MASK掉的词就是加入的噪音,训练的目的就是如何去噪。而GPT是一个典型的自回归语言模型,根据上文内容预测下一个可能跟随的词。GPT的缺点是只能利用上文的信息(对比BERT,GPT缺失了下文信息),优点则是在NLG任务中有优势,因为GPT的训练过程和NLG的应用过程是一致的。这也是GPT的后续系列中没有引入双向编码表达器的原因所在。

最后的实验表明BERT模型的有效性,并在11项NLP任务中夺得 SOTA(State-of-the-Art,最先进的)结果。对于NLU任务,BERT较之GPT是有优势的。

#6 GPT-2

2019年2月,OpenAI又发表了一篇论文:Language Models are Unsupervised Multitask Learners (语言模型是无监督的多任务学习者)(点击下载论文),该论文介绍了 GPT 的升级版本GPT-2。

GPT-2相对GPT的第一个主要改进是规模更大、使用的训练数据更多。从模型结构上比较,GPT-2与 GPT 相比几乎没有什么变化,只是GPT-2更大更宽,GPT是12层的Transformer,BERT最深是24层的Transformer,GPT-2则是48层。GPT-2的预训练数据集叫WebText,是OpenAI从网上爬下来的一大堆语料,有800万左右的文档,40G的文本;而GPT使用的训练数据集大小在5GB左右。

第二个主要改进在于,GPT-2取消了Fine-tuning的步骤。也就是说GPT-2采用了一阶段的模型(预训练)代替了二阶段的模型(预训练+ Fine tuning)。在预训练阶段,GPT-2采用了多任务的方式进行学习,每一个任务都要保证其损失函数能收敛。不同的任务共享主干的Transformer参数,这样能进一步提升模型的泛化能力,因此在即使没有Fine-turning的情况下依旧有非常不错的表现。

作者通过初步论证指出,足够大的语言模型是能够进行多任务学习的,只是学习速度要比监督学习慢得多。语言模型是能够学习某些监督学习的任务,并且不需要明确具体的监督符号。而监督学习由于数据量的关系通常只是无监督学习的一个子集,所以无监督学习的全局最小也必定是监督学习的全局最小,所以目前的问题变为了无监督学习是否能收敛。GPT-2可以完成多任务处理,这证明了半监督语言模型可以在“无需特定任务训练”的情况下,在多项任务上表现出色。该模型在零样本任务转移设置中取得了显著效果。

模型参数大小对比:最大的GPT模型约1.17亿参数(117M);最大的BERT约3.4亿参数(340M),最大的GPT-2约15亿参数(1542M)。

#7 算力单位pfs-day(petaflop/s-day)

如果每秒钟可以进行10的15次方运算,也就是1 peta flops,那么一天就可以进行约10的20次方运算,这个算力消耗被称为1个petaflop/s-day。

OpenAI曾训练过一个强化学习模型OpenAI Five并在2019年战胜了DOTA职业战队OG。该模型训练量达到800 pfs-day,OpenAI透露他们用了256块P100 GPU和12.8万个CPU核心,整整训练了10个月的时间。OpenAI Five的总练习量相当于打了45000年Dota,每天的训练量大概相当于人类打180年游戏。

#8 GPT-3

2020年5月,OpenAI发表了一篇论文:Language Models are Few-Shot Learners (语言模型是小样本学习者)(点击下载论文)

31位作者、75页、320万token、1750亿参数、数据集45TB,训练花了3640pfs-day,训练一次的费用保守估计是460万美元,总训练成本估计达到了1200 万美元。暴力出奇迹。此时微软已经投资OpenAI(2019年投了10亿美元),微软也在2020年9月22日宣布取得了GPT-3的独家授权。

GPT-3的创新也是划时代的。不管是GPT或者GPT-2,下游任务都需要大量的样本。这不符合人类的习惯,人类只需要少量的示例甚至只需要说明就适应一个全新的NLP下游任务。而GPT-3追求的就是人类这种无缝融合和切换多个任务的能力。GPT-3证明了通过增大参数量就能让语言模型提高下游任务在Few-Shot设置下的性能。

传统的Fine-tuning方式一般流程是:

  1. 先下载某个开源的预训练模型或自研预训练模型;

  1. 收集特定任务的标注数据,在预训练模型上进行Fine-tune训练(此过程是需要进行参数更新的);

  1. 上线推理。

下图摘自GPT-3论文,GPT-3提出了In-context learning的三种方式,Zero-shot表示仅需给出任务描述,One-shot表示仅需给出任务描述和一个例子,Few-shot表示仅需给出任务描述和少量的例子,这三种方式都不再需要进行参数更新,仅需要把少量标注样本作为输入文本的上下文,GPT-3即可输出答案。

一文读懂ChatGPT的前世今生(附相关论文下载)

GPT-3在多个数据集上测试了没有Fine-tune过程的性能表现。整体上,GPT-3在Zero-shot或One-shot设置下能取得尚可的成绩,在Few-shot设置下有可能超越基于Fine-tune的SOTA模型。Zero-shot和One-shot设置的GPT-3能在快速适应和即时推理任务(单词整理、代数运算和利用只出现过一次的单词)中拥有卓越表现。Few-shot设置的GPT-3能够生成人类难以区分的新闻文章,但是在自然语言推理任务(如ANLI数据集)上和机器阅读理解(如RACE或QuAC数据集)的性能有待提高。

#9 InstructGPT

2022年3月,OpenAI发表论文:Training language models to follow instructions with human feedback (遵循人类反馈指令来训练语言模型)(点击下载论文)

InstructGPT是ChatGPT的姊妹模型(此句源自ChatGPT的官方博客)。因为ChatGPT论文还没有放出,因此我们认为,ChatGPT和InstructGPT在实现细节上有最大的相似度。

之前的大语言模型的输出和我们的期待可能会不一致或者不匹配(例如可能会生成错误的、甚至有害的输出)。原因是语言模型的建模目标是“预测当前语境下的下一句话”,而不是“安全且忠实的完成用户的命令”,因此大模型需要进行alignment,来规范模型的“言行举止”,使模型能够helpful、honest、harmless。

InstructGPT基于GPT-3,使用Reinforcement Learning from Human Feedback(RLHF), 模型训练中加入了人类的评价和反馈数据,而不仅仅是事先准备好的数据集。为了使生成的文本更容易被人理解,OpenAI招募了人类训练师,在训练过程中,人类训练师扮演了用户和人工智能助手的角色。

一文读懂ChatGPT的前世今生(附相关论文下载)

如上图所示,InstructGPT在一个预训练好的GPT-3模型的基础上,应用了如下三个步骤:

  1. 收集人类训练师打标的演示数据(demonstration data),并根据这个数据集训练一个监督策略。人类训练师针对不同的提示语重写期望输出行为的演示答案,这样我们获得了一个在输入提示分布上所期望行为的规范数据集,然后基于这个数据集使用监督学习算法对一个预训练好的GPT-3模型进行调优。

  1. 收集人类训练师针对同一个提示语的多个输出进行排序打标后的数据(comparison data),并根据这个数据集训练一个奖励模型。一般来说,对于每一条提示语,模型可以给出多个答案;或者对于多个不同的语言模型,同一个提示语,也可以得到多个答案。人类训练师对一个给定提示语的不同输出,以人类思考交流习惯为依据进行排序,由此再收集了一个比较数据(comparison data)集。然后依据此数据集,继续训练一个奖励模型,用来预测人类偏好的输出,由此帮助模型寻出最优答案。

  1. 使用PPO(Proximal Policy Optimization)算法对奖励模型进行策略优化。使用奖励模型的输出作为标量奖励,再使用PPO算法对监督策略进行调优。

步骤2和步骤3可以反复迭代。基于当前最好的策略,收集更多的比较数据,然后用来训练一个新的奖励模型和一个新的监督策略。

InstructGPT的最终实验结果好于GPT-3,InstructGPT生成的结果,在真实性、无害性、有用性方面都有了很大的提高(但是对偏见这种问题依然没有改善)

#10 ChatGPT : Optimizing Language Models for Dialogue(一种优化的对话语言模型)

2022年12月,OpenAI发布了ChatGPT模型及相关的blog。

Blog地址:https://openai.com/blog/chatgpt/

ChatGPT的论文还没有放开。我们在此先奉上官方blog第一段的字面翻译:

一文读懂ChatGPT的前世今生(附相关论文下载)

一种优化的对话语言模型

我们训练了一个名为ChatGPT的模型,它以对话的方式进行交互。对话格式使ChatGPT能够回答后续问题、承认错误、质疑不正确的前提和拒绝不适当的请求。ChatGPT是InstructGPT的姊妹模型,后者经过训练,可以遵循提示中的指令并提供详细的响应。

官方blog中提供了和InstructGPT论文中非常相似的一张图(如下所示)。对比InstructGPT论文可知ChatGPT应该和InstructGPT一脉相承,在模型的训练方式上非常相似,只是在一些细节上进行了调整。

一文读懂ChatGPT的前世今生(附相关论文下载)

本质上ChatGPT是一款由AI驱动的聊天机器人,在网友的一系列测试中表现了惊人的能力:流畅对答、写代码、写剧本、辩证分析问题、纠错等等,甚至让记者编辑、程序员、律师等从业者都感受到了威胁,更不乏其将取代谷歌搜索引擎之说。

通俗来讲,ChatGPT能做到什么?能像真正的人一样跟你聊天,能翻译、能做题、能考试、能作曲、能撰文案、能编代码、能写论文、能构思小说、能写工作周报、能写视频脚本……等等等等,它能做的事情实在是太多了,并且它可能比相当多的人做得还要好。或许在未来, ChatGPT类型的人工智能会取代许多类别的工作岗位。

当然,ChatGPT也不是无所不能的。例如ChatGPT依赖于其训练数据中的统计规律,且不会在网络上抓取时事信息(对比谷歌),所以对于最新的事件它没法进行有效的答复,同时由于它的训练数据中关于2021年之后的数据相对较少,所以它对这个时间点之后的世界了解有限,在输出的准确性上也会有所降低;ChatGPT的认知建立在虚拟训练文本上,没有跟实时数据库或信息连接,ChatGPT在某些问题的回答上会出现致命性错误,看似有逻辑的表达实则为错误的信息输出;ChatGPT 的奖励模型围绕人类监督而设计,可能会过度优化,训练数据也影响了ChatGPT的写作风格,它喜欢对所有内容进行冗长的回复,经常重复使用特定的短语;此外,训练数据也可能存在偏差,和所有NLP模型一样,由于其知识库受限于训练数据,ChatGPT可能产生负面、不准确甚至言语过激的内容。

#11 AIGC (AI生产内容)

互联网平台的内容生产模式,经历过两个时代。

第一个时代是PGC(Professionally-Generated Content)&OGC(Occupationally-Generated Content),即专家生产内容与专业生产内容。举两个例子,我们在爱奇艺上看到的电视剧《狂飙》,是专业的演员参与、专业的团队制作的;我们在人民网上看到的新闻报道,是专业的记者写的。

第二个时代是UGC(User Generated Content),即用户生产内容。相对应的例子,如抖音、各种blog、小红书上的大部分内容,都是普通用户自己创作生成的。

第三个时代即将到来,我们称之为AIGC(AI-Generated Content),即AI生产内容。而ChatGPT的出现以及其展现的能力,对文字模态的AIGC应用有着重要的意义。

#12 期待中的GPT-4

ChatGPT不会是这一系列语言模型的尽头。在其论文放开之前,我们称chatGPT建立在GPT-3.5之上。我们也对未来的GPT-4充满了期待。甚至有人说,“如果GPT-4能充分通过图灵测试,我们不应该感到惊讶。”

所有过往,皆是序章。未来已来,让我们拭目以待……

PS.为了方便大家阅读,我们已将文中提到的所有论文下载打包。关注悠络客微信公众号,后台发送“论文合集”即可免费下载所有论文。文章来源地址https://www.toymoban.com/news/detail-435810.html

到了这里,关于一文读懂ChatGPT的前世今生(附相关论文下载)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度丨一文了解隐私计算的前世今生,它真的可以保护我们的隐私吗?

    7月底,一则新闻爆出,Restore Privacy报告称,海外知名社交软件推特因安全漏洞被黑客入侵,有超过540万个账户的联系方式泄露,泄露的账户信息包括推特ID与其关联的电话号码和电子邮件信息,同时,这些信息已在一个黑客论坛上出售,价格为3万美元(约20.28万元人民币)。

    2023年04月10日
    浏览(39)
  • 一文带你了解MySQL的前世今生,架构,组成部分,特点,适用场景

    MySQL最初是由瑞典公司MySQL AB的Michael Widenius和David Axmark开发的一款开源关系型数据库管理系统。MySQL AB的初衷是创造一个简单、快速、可靠的关系型数据库系统,以解决当时Web应用程序的需要。他们想要创造一个更简单、更强大的数据库系统,以取代当时主流的商业数据库系统

    2024年02月04日
    浏览(40)
  • ChatGPT前世今生,当下最系统全面人工智能介绍

    好东西!南京航空航天大学李丕绩做的400多页的PPT—— ChatGPT的前世今生:从AI这十年发展回顾说起,聊到如今大火的 ChatGPT、Stable Diffusion、Midjourney(源起),从自然语言处理到语言模型、神经网络、机器翻译、文本生成、Transformer,再到语义分析、预训练语言模型、多模态(

    2024年02月11日
    浏览(57)
  • ChatGPT的前世今生:从概念到现实的AI之旅

    ChatGPT的前世今生:从概念到现实的AI之旅 随着技术的飞速发展,人工智能已经从科幻小说中的概念转变为我们日常生活中不可或缺的一部分。其中,ChatGPT无疑是这个领域的佼佼者。那么,让我们一起探索ChatGPT的发展历程,从它的起源到现在的成就。 起源:GPT系列的诞生 C

    2024年02月06日
    浏览(48)
  • GPT的前世今生:从gpt1到chatgpt的能力提升

            从2017年google brain提出transformer模型,到2018年基于transformer模型open ai推出了gpt1模型以及google推出了bert模型,到2019-2021年open ai陆续推出gpt2和gpt3,再到2022-2023年推出chat-gpt和gpt4,大语言模型已经发展成了一个具有3个大分支的参天大树[LLM:大语言模型]。在这里主要写写

    2024年02月08日
    浏览(72)
  • ChatGPT的前世今生,到如今AI领域的竞争格局,本文带你一路回看!

      73年前,“机器思维”的概念第一次被计算机科学之父艾伦·图灵(Alan Turing)提出,从此,通过图灵测试成为了人类在AI领域为之奋斗的里程碑目标。 73年后的今天,在AI历经了数十年的不断进化、迭代后,目前为止仍旧没有任何一款AI从真正意义上的通过图灵测试。 而Ch

    2024年02月04日
    浏览(37)
  • 一文搞懂什么是Hadoop?Hadoop的前世今生,Hadoop的优点有哪些?Hadoop面试考查重点,大数据技术生态体系

    目录 1.1 Hadoop 是什么  1.2 Hadoop 发展历史 1.3 Hadoop 三大发行版本  1.4 Hadoop优势(4高)  1.5 Hadoop 组成(面试重点)  1.5.1 HDFS 架构概述   1.5.2 YARN 架构概述   1.5.3 MapReduce 架构概述   1.5.4 HDFS、YARN、MapReduce 三者关系   1.6 大数据技术生态体系  1.7 推荐系统框架图   (1 ) Had

    2024年02月01日
    浏览(49)
  • 【区块链杂谈】区块链的前世今生(今生)

    在前面,我们回顾了区块链技术自诞生到野蛮生长的三个阶段,自某些不可抗因素主动干预之后,整个市场因为比特币价格的腰斩而萎靡不振,热衷于赚取热钱快钱的投机者逐渐退出,只留下了一片狼藉。 在这样的背景下, 区块链的发展逐渐由币价驱动转向技术驱动 ,投机

    2024年02月09日
    浏览(40)
  • 一文读懂ChatGPT

    ChatGPT(全名:Chat Generative Pre-trained Transformer),美国OpenAI 研发的聊天机器人程序,于2022年11月30日发布。ChatGPT是人工智能技术驱动的自然语言处理工具,它能够通过理解和学习人类的语言来进行对话,还能根据聊天的上下文进行互动,真正像人类一样来聊天交流,甚至能完

    2024年02月06日
    浏览(52)
  • 一文读懂ChatGPT(全文由ChatGPT撰写)

    最近ChatGPT爆火,相信大家或多或少都听说过ChatGPT。到底ChatGPT是什么?有什么优缺点呢? 今天就由ChatGPT自己来给大家答疑解惑~  全文文案来自ChatGPT!   01 ChatGPT是什么 ChatGPT是一种基于人工智能技术的自然语言处理系统,它由OpenAI开发。GPT是Generative Pre-trained Transformer的缩写

    2024年02月08日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包