NLP-分词算法(一):Byte-Pair Encoding (BPE) / Byte-level BPE【BPE是char级别】

这篇具有很好参考价值的文章主要介绍了NLP-分词算法(一):Byte-Pair Encoding (BPE) / Byte-level BPE【BPE是char级别】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Byte-Pair Encoding (BPE) / Byte-level BPE

1、BPE

BPE,即字节对编码。其核心思想在于将最常出现的子词对合并,直到词汇表达到预定的大小时停止

  • 首先,它依赖于一种预分词器pretokenizer来完成初步的切分。pretokenizer可以是简单基于空格的,也可以是基于规则的;

  • 分词之后,统计每个词出现的频次,供后续计算使用。例如,我们统计到了5个词的词频

("hug", 10), ("pug", 5), ("pun", 12), ("bun", 4), ("hugs", 5)

  • 建立基础词汇表,包括所有的字符,即:

["b", "g", "h", "n", "p", "s", "u"]

  • 根据规则,我们分别考察2-gram,3-gram的基本字符组合,把高频的ngram组合依次加入到词汇表中,直到词汇表达到预定大小停止。比如,我们计算出ug/un/hug三种组合出现频次分别为20,16和15,加入到词汇表中。
  • 最终词汇表的大小= 基础字符词汇表大小 + 合并串的数量,比如像GPT,它的词汇表大小 40478 = 478(基础字符) + 40000(merges)。添加完后,我们词汇表变成:

["b", "g", "h", "n", "p", "s", "u", "ug", "un", "hug"]

实际使用中,如果遇到未知字符用<unk>代表。

2、Byte-level BPE

BPE的一个问题是,如果遇到了unicode,基本字符集可能会很大。一种处理方法是我们以一个字节为一种“字符”,不管实际字符集用了几个字节来表示一个字符。这样的话,基础字符集的大小就锁定在了256

例如,像GPT-2的词汇表大小为50257 = 256 + <EOS> + 50000 mergers,<EOS>是句子结尾的特殊标记。

BPE、WordPiece和SentencePiece - 简书


简单的说BBPE比BPE有更多的粒度选择,BPE是char级别。


1. BPE 算法的原理

BPE 算法的主要思想是将输入的文本进行多轮迭代的分段和统计,每次迭代都会找到出现频率最高的相邻字符或子词序列,并将其合并成一个新的符号(或单词)。在整个过程中,所有出现过的字符和新合并出的子词都被保存在一个词汇表中。

下面,我们将从以下几个方面对 BPE 算法的原理进行详细阐述:

  • 如何定义频率?
  • 如何生成初始的词汇表?
  • 如何进行迭代合并?
  • 如何使用 BPE 对文本进行编码和解码?

1.1. 如何定义频率?

在 BPE 算法中,频率的定义非常重要。具体来说,频率需要考虑字符(单字母)和子词(多个字母组成的词)两个方面。

对于字符而言,我们可以使用它在输入文本中出现的次数作为其频率。例如,如果字符“a”在输入文本中出现了 10 次,那么我们就认为该字符的频率为 10。

对于子词而言,频率的定义则需要考虑其实际出现的次数和合并次数两个因素。具体来说,如果一个子词出现了一次,则它的频率为 1;如果一个子词被合并了 k 次,则它的频率需要乘以 2^k。这是因为 BPE 算法中每次合并时都会将原来出现的两个子词用新的合并后的子词替换,这样会导致原来的子词从输入中消失,而新的子词的频率则要加上原来的两个子词的频率之和。

1.2. 如何生成初始的词汇表?

BPE 算法的初始词汇表通常由输入文本中的所有字符组成。如果某个字符在输入文本中没有出现过,那么它不应该加入初始词汇表。在实际应用中,我们通常会额外添加一些特殊的字符,例如空格、句点、问号等,以便在后续操作中更方便地进行处理。

1.3. 如何进行迭代合并?

在 BPE 算法的每次迭代中,我们会选择出现频率最高的相邻字符或子词,将它们合并成一个新的符号(或单词),并将这个新的符号加入到词汇表中。这个过程一直持续到达到指定的词汇表大小为止。

具体来说,BPE 算法的迭代过程通常包括以下几步:

  1. 计算每对相邻字符或子词的频率;
  2. 找到出现频率最高的相邻字符或子词,并将它们合并成一个新的符号;
  3. 在词汇表中添加这个新的符号;
  4. 更新输入文本中的所有相邻字符或子词,用新的符号替换它们;
  5. 重新计算各对相邻字符或子词的频率,回到步骤 2。

在 BPE 算法中,相邻字符或子词的选择是基于前缀和后缀的组合。例如,“app”和“le”可以组成“apple”,“p”和“i”可以组成“pi”,等等。在每一轮迭代中,我们按照从左到右、从上到下的顺序遍历输入文本,找到出现频率最高的相邻字符或子词,然后进行合并。由于更新后的文本中出现的新的相邻字符或子词可能也会成为下一轮迭代中的候选,因此我们需要反复迭代,直到达到指定的词汇表大小为止。

1.4. 如何使用 BPE 对文本进行编码和解码?

BPE 算法的最终目的是生成一个包含所有输入文本中出现的字符和子词的词汇表。在使用 BPE 对文本进行编码和解码时,我们通常会根据生成的词汇表将输入文本分割成最小的可处理单位,称为 subword(子词)。

在对文本进行编码时,我们可以将每个子词编码成它在词汇表中的索引。如果某个子词不在词汇表中,我们可以将它拆分成更小的子词,并将它们分别编码。编码后的结果通常是一个由整数构成的序列。

在对文本进行解码时,我们可以根据词汇表中的索引将每个子词解码成对应的字符串,并将它们拼接起来得到原始文本。如果某个子词无法解码,我们可以尝试将它拆分成更小的子词,并将它们分别解码。

ChatGpt都这么火了,它使用的 BPE 分词算法要不要了解一下?_bpe分词原理_大家都说我身材好的博客-CSDN博客


我最近在打机器翻译的一个比赛,主要使用基于BERT的模型。在这其中,一个小的知识点引起了我的好奇,就是在将英语训练语料输入到BERT模型之前,需要对其进行「BPE」(Byte Pair Encoding)的操作。作为致力于成为一名合格算法工程师的程序员,当然是要搞清楚其中的原理啦~本篇文章就带大家一起快速搞懂BPE分词算法。

本文主要分成两个部分,内容1500字,阅读耗时大约8分钟:

  • BPE分词算法的由来
  • BPE分词算法的流程
    • 词表构建
    • 语料编码
    • 语料解码

BPE分词算法的由来

BPE算法[1],其目的是「使用一些子词来编码数据」。该方法已经成为了BERT等模型标准的数据预处理处理方式。

在机器翻译领域,模型训练之前一个很重要的步骤就是「构建词表」。对于英文语料,一个很自然的想法就是用训练语料中出现过的「所有英语单词」来构建词表,但是这样的方法存在两个问题:

  • 训练语料中出现过的单词数目很多,这样的构造方式会使得词表变得很大,从而降低训练速度;
  • 在模型测试中,很难处理罕见词或者训练过程中没有见过的词(OOV问题)。

另外一种方式是使用单个「字符」来构建词表。英文字符的个数是有限的,基于字符的方式可以有效缓解词表数目过大以及OOV的问题,但由于其粒度太细,丢失了很多单词本身所具有的语意信息。

为了解决上述问题,基于Subword(子词)的算法被提出,其中的代表就是BPE算法,「BPE算法的分词粒度处于单词级别和字符级别之间」。比如说单词"looked"和"looking"会被划分为"look","ed”,"ing",这样在降低词表大小的同时也能学到词的语意信息。

BPE分词算法的流程

BPE算法的核心主要分成三个部分:

  • 词表构建
  • 语料编码
  • 语料解码

词表构建

词表构建是BPE算法的核心,其是「根据训练语料」来构建BPE算法的词表。算法的整体步骤如下所示:

  1. 准备模型的训练语料
  2. 确定「期望的词表大小」
  3. 将训练语料中的所有单词拆分为字符序列,利用这些字符序列构建初始的词表
  4. 统计训练语料中每一个连续字节对出现的频率,「选择出现频率最高的字节对合并成新的subword,并更新词表」
  5. 重复第4步,直到词表大小达到我们设定的期望或者剩下的字节对出现频率最高为1

下面我们通过一个例子来搞懂BPE词表构建的过程。假设我们目前的训练语料中出现过的单词如下,我们构建初始词表:

分词方法 bpe,# NLP基础/分词,自然语言处理,算法,人工智能

值得注意的是,我们在每一个单词的后面都加入了一个新的字符<\w>来表示这个单词的结束。初始的词表大小为7,其为训练语料中所有出现过的字符。

我们之后发现lo这个字节对在训练语料中出现频率最高,为3次。我们更新词表,将lo作为新的子词加入词表,并删除在当前训练语料中不单独出现的字符lo

分词方法 bpe,# NLP基础/分词,自然语言处理,算法,人工智能

之后我们发现low这个字节对在训练语料中出现频率最高,为3次。我们继续组合,将low加入词表中,并删去lo。需要注意的是,由于字符w在单词newer中仍然存在,因此不予删除。

分词方法 bpe,# NLP基础/分词,自然语言处理,算法,人工智能

之后我们继续这个循环过程,在词表中加入er,并删去字符r

分词方法 bpe,# NLP基础/分词,自然语言处理,算法,人工智能

我们一直循环这个过程,直到词表大小达到我们设定的期望或者剩下的字节对出现频率最高为1。

最终我们就得到了基于训练样本构建好的词表。


编码和解码

分词方法 bpe,# NLP基础/分词,自然语言处理,算法,人工智能

 BPE算法详解 - mathor


1、语料编码

词表构建好后,我们需要给训练语料中的单词进行编码。编码方式如下:

  1. 我们首先「将词表中所有的子词按照长度从大到小进行排序」
  2. 对于每一个给定的单词,我们遍历排序好的词表,寻找词表中的子词是否是该单词的子字符串。如果正好「匹配」,则输出当前子词,并对单词剩下的字符串继续匹配
  3. 如果遍历完词表,单词中仍然有子字符串没有被匹配,那我们将其替换为一个特殊的子词,比如<unk>

具个例子,假设我们现在构建好的词表为

(“errrr</w>”, 
“tain</w>”, 
“moun”, 
“est</w>”, 
“high”, 
“the</w>”, 
“a</w>”)

对于给定的单词mountain</w>,其分词结果为:[mountain</w>]

语料解码

语料解码就是将所有的输出子词拼在一起,直到碰到结尾为<\w>。举个例子,假设模型输出为:

["moun", "tain</w>", "high", "the</w>"]

那么其解码的结果为

["mountain</w>", "highthe</w>"]

总结

在本文中,我们一起学习了BPE的分词算法,该算法是「利用子词来编码数据」,已经成为目前机器翻译领域标准的预处理方式。

参考文献

[1]Sennrich, Rico, Barry Haddow, and Alexandra Birch. "Neural machine translation of rare words with subword units." ACL 2016.

[2]NLP三大Subword模型详解:BPE、WordPiece、ULM - 知乎

[3]深入理解NLP Subword算法:BPE、WordPiece、ULM - 知乎

[4]https://www.cnblogs.com/huangyc/p/1




一文搞懂BPE分词算法 - 知乎

简单的搞懂BPE分词算法 - 知乎

BPE、WordPiece和SentencePiece - 简书

Byte Pair Encoding - Lei Mao's Log Book

ChatGpt都这么火了,它使用的 BPE 分词算法要不要了解一下?_bpe分词原理_大家都说我身材好的博客-CSDN博客

BPE算法详解 - mathor

Byte Pair Encoding - Lei Mao's Log Book

Byte Pair Encoding and Data Structures | Rust NLP tales文章来源地址https://www.toymoban.com/news/detail-849059.html

到了这里,关于NLP-分词算法(一):Byte-Pair Encoding (BPE) / Byte-level BPE【BPE是char级别】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AI实战】大语言模型(LLM)有多强?还需要做传统NLP任务吗(分词、词性标注、NER、情感分类、知识图谱、多伦对话管理等)

    大语言模型(LLM)是指使用大量文本数据训练的深度学习模型,可以生成自然语言文本或理解语言文本的含义。大语言模型可以处理多种自然语言任务,如文本分类、问答、对话等,是通向人工智能的一条重要途径。来自百度百科 发展历史 2020年9月,OpenAI授权微软使用GPT-3模

    2024年02月10日
    浏览(43)
  • NLP-分词器:SentencePiece【参考Chinese-LLaMA-Alpaca在通用中文语料上训练的20K中文词表并与原版LLaMA模型的32K词表进行合并的代码】

    随着ChatGPT迅速出圈,最近几个月开源的大模型也是遍地开花。目前,开源的大语言模型主要有三大类:ChatGLM衍生的大模型(wenda、ChatSQL等)、LLaMA衍生的大模型(Alpaca、Vicuna、BELLE、Phoenix、Chimera等)、Bloom衍生的大模型(Bloomz、BELLE、Phoenix等)。其中,ChatGLM-6B主要以中英双

    2024年02月11日
    浏览(59)
  • BPF分词算法

    BPF分词算法,全称为Best Performance First,是一种中文分词算法。它采用最优性能优先的策略,在分词的过程中,优先选择能够获得最佳分词性能的分词结果。 BPF算法主要有以下几个步骤: 预处理:将需要进行分词的文本进行预处理,例如去除标点符号、转换为全角字符等。

    2024年02月13日
    浏览(35)
  • ElasticSearch学习随笔之分词算法

    1、ElasticSearch学习随笔之基础介绍 2、ElasticSearch学习随笔之简单操作 3、ElasticSearch学习随笔之java api 操作 4、ElasticSearch学习随笔之SpringBoot Starter 操作 5、ElasticSearch学习随笔之嵌套操作 6、ElasticSearch学习随笔之分词算法 7、ElasticSearch学习随笔之高级检索 8、ELK技术栈介绍 9、Lo

    2024年02月05日
    浏览(34)
  • 分词算法----正向和逆向最大匹配算法(含Python代码实现)

    分词算法(Segmentation Method) 在文本处理流程中,对语句进行分词(Segmentation)操作对于计算机认识并理解人类语言是基础且重要的。 对于中文来讲,不同于英文直接采用空格符进行分隔,并且中文词语内涵丰厚,语义丰富,所以只有采用合适的分词算法,才能准确迅速地向计

    2024年03月25日
    浏览(55)
  • 【HBZ分享】ES分词器的拆分规则 及 算法

    常见的分词器,如Standard分词器、Simple分词器、Whitespace分词器、IK分词等,还支持自定义分词器(比如一些小国家的语言需要自定义分词器) ES默认就是Standard分词器 标记化 :分词器第一步是将文本拆分成单个标记(tokens), 就是单个的单词或中文词组,这个标记可以是单词,数组

    2024年02月06日
    浏览(43)
  • 【NLP】KMP匹配算法

          KMP算法。也称为 Knuth-Morris-Pratt字符串查找算法 可在一个字符串 S 内查找一个词 W 的出现位置。一个词在不匹配时本身就包含足够的信息来确定下一个匹配可能的开始位置,此算法利用这一特性以避免重新检查先前配对的字符。将时间复杂度从O(M*N)降为O(N).        

    2024年02月08日
    浏览(40)
  • 21- 朴素贝叶斯 (NLP自然语言算法) (算法)

    朴素贝叶斯要点 概率图模型 算法往往应用于 NLP自然语言处理领域 。 根据 文本内容 判定 分类 。  概率密度公式 :   高斯 朴素贝叶斯算法: 伯努利分布 朴素贝叶斯算法 多项式分布 朴素贝叶斯表现 英文one-hot 编码: jieba.lcut (str) 数据去重 :    result = np.unique (result)    

    2023年04月09日
    浏览(45)
  • [nlp] TF-IDF算法介绍

    (1)TF是词频(Term Frequency) 词频是文档中词出现的概率。 (2) IDF是逆向文件频率(Inverse Document Frequency) 包含词条的文档越少,IDF越大。

    2024年02月15日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包