1. 简介
本章节将使用 Hugging Face 生态系统中的库——🤗 Transformers来进行自然语言处理工作(NLP)。文章来源:https://www.toymoban.com/news/detail-510217.html
Transformers的历史
以下是 Transformer 模型(简短)历史中的一些参考点:
Transformer 架构于 2017 年 6 月推出。原始研究的重点是翻译任务。随后推出了几个有影响力的模型,包括:文章来源地址https://www.toymoban.com/news/detail-510217.html
- 2018 年 6 月:GPT,第一个预训练的 Transformer 模型,用于各种 NLP 任务的微调并获得最先进的结果
- 2018 年 10 月:BERT,另一个大型预训练模型
到了这里,关于[算法前沿]--028-基于Hugging Face -Transformers的预训练模型微调的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!