论文笔记--DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature

这篇具有很好参考价值的文章主要介绍了论文笔记--DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 文章简介

  • 标题:DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature
  • 作者:Eric Mitchell, Yoonho Lee, Alexander Khazatsky, Christopher D. Manning, Chelsea Finn
  • 日期:2023
  • 期刊:arxiv preprint

2. 文章概括

  文章提出了一种检测语料是否为LLM生成的无监督方法“DetectGPT”,该方法属于一种基于LLM的log-proba进行分析的白盒方法,无需提供额外标注数据、无需重新训练模型,就可以得出结论。
  文章整体框架如下
论文笔记--DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature,论文阅读,论文阅读,T5,语言模型,gpt,detectgpt

3 文章重点技术

3.1 Perturbation Discrepancy Gap(PDG) Hypothesis

  DetectGPT基于PDG假设,通俗来说就是:给定一条模型生成的文本段,对该文本进行轻微的扰动(尽量不改变语义且保持文本的通顺度),模型对加了干扰的文本倾向于给出更高的分数,即模型生成的文本呈负曲率曲线(下图左);另一方面,给定一条人类自己写的文本段,对该文本作轻微的扰动之后,模型对干扰后的文本和原文本的打分无明显倾向,即干扰后的文本可能得到更高分或更低分(下图右)。
论文笔记--DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature,论文阅读,论文阅读,T5,语言模型,gpt,detectgpt

3.2 DetectGPT

  基于上述假设,文章给出了一种判定文本是否为LLM生成的方法。给定文本段 x x x,对它进行轻微的扰动 q ( ⋅ ∣ x ) q(\cdot|x) q(x)得到 x ~ i , i = 1 , … , k \tilde{x}_i, i=1, \dots, k x~i,i=1,,k(可以人工修改也可以通过基于掩码的模型自动生成扰动),定义扰动差异(perturbation discrepancy,PD)如下: d ( x , p θ , q ) : = log ⁡ p θ ( x ) − E x ~ ∼ q ( ⋅ ∣ x ) log ⁡ p θ ( x ~ ) d(x, p_{\theta}, q) := \log p_{\theta} (x) - \mathbb{E}_{\tilde{x} \sim q(\cdot|x)} \log p_\theta (\tilde{x}) d(x,pθ,q):=logpθ(x)Ex~q(x)logpθ(x~).基于上述PDG假设,模型对机器生成的文本扰动更敏感,即机器生成的 x x x的PD更大,人类手写的 x x x的PD更小。从而我们可以通过设置PD的阈值来区分文本是否由机器产生。
  具体实验如下:

  • 人类生成的数据:文章采用500条XSum的新闻作为真实的人类生产的数据
  • 模型生成的数据:文章采用上述新闻每条前30个token作为prompt,输入LLM中得到模型生成的文本段。
  • 扰动生成:为了批量生成扰动,文章选择采用基于掩码的T5模型[1]来生成扰动,即随机替换原是文本中的token为[MASK],然后用T5模型预测掩码位置的token。基于该方法对上述人类、机器生成的每条数据分别增加 k = 100 k=100 k=100个扰动。
      按照上述方法,文章得到两组数据的PD分布如下,可以明显看到,人类生成数据的PD值更小,机器生成的PD值更大。二者可通过选择PD阈值 0.1 0.1 0.1进行区分。
    论文笔记--DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature,论文阅读,论文阅读,T5,语言模型,gpt,detectgpt

4. 文章亮点

  文章提出了DetectGPT,无需重新训练模型,只需提供待检测模型的log-proba,即可预测文本是否为该模型产生。

5. 原文传送门

DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature

6. References

[1] 论文笔记–Exploring the Limits of Transfer Learning with a Unified Text-to-Text Transformer文章来源地址https://www.toymoban.com/news/detail-756982.html

到了这里,关于论文笔记--DetectGPT: Zero-Shot Machine-Generated Text Detection using Probability Curvature的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • DUET: Cross-Modal Semantic Grounding for Contrastive Zero-Shot Learning论文阅读

    原文链接: https://ojs.aaai.org/index.php/AAAI/article/view/25114/24886 该论文设计了一种 新的零样本学习范式,通过迁移语言模型中的先验语义知识,与视觉模型的特征感知能力进行对齐,以增强后者对于未见过图像的识别能力。 零样本学习(ZSL)旨在预测在训练期间从未出现样本的未

    2024年01月17日
    浏览(52)
  • 【论文阅读】RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction

    标题:RE-Matching: A Fine-Grained Semantic Matching Method for Zero-Shot Relation Extraction 会议:ACL2023 网址:https://aclanthology.org/2023.acl-long.369 github:https://github.com/zweny/RE-Matching 关系抽取:relation extraction是NLP的一个基本任务,目的是从非结构化文本中提取实体之间的关系。关系抽取有助于构

    2024年02月04日
    浏览(39)
  • 【计算机视觉】Zero-shot, One-shot和Few-shot的理解

    机器学习任务按照对 样本量 的需求可以分为:传统监督式学习、Few-shot Learning、One-shot Learning、Zero-shot Learning。 传统learning,炼丹模式。传统深度学习的学习速度慢,往往需要学习海量数据和反复训练后才能使网络模型具备不错的泛化能力,传统learning可以总结为:海量数据

    2024年02月04日
    浏览(51)
  • AIGC零基础30天学习——CLIP与zero-shot

           在前面对CLIP的学习中,对 zero-shot prediction 环节一直有一些疑惑,zero-shot是什么,它该如何进行操作?     zero-shot是指零样本学习,和zero-shot相关联的概念包括many-shot、few-shot和one-shot,这些其实都是从训练集样本类型、测试集样本类型和对应的样本数量角度进行划分

    2024年02月09日
    浏览(39)
  • 105、Zero-1-to-3: Zero-shot One Image to 3D Object

    官网  使用合成数据集来学习相对摄像机视点的控制,这允许在指定的摄像机变换下生成相同对象的新图像,用于从单个图像进行三维重建的任务。  输入图像 x ∈ R H × W × 3 x in R^{H times W times 3} x ∈ R H × W × 3 ,所需视点的相对摄像机旋转和平移 R ∈ R 3 × 3 , T ∈ R

    2024年02月01日
    浏览(46)
  • 代码解读:Zero-shot 视频生成任务 Text2Video-Zero

    Diffusion Models视频生成-博客汇总 前言: 上一篇博客《【ICCV 2023 Oral】解读Text2Video-Zero:解锁 Zero-shot 视频生成任务》解读了这篇论文《Text2Video-Zero: Text-to-Image Diffusion Models are Zero-Shot Video Generators》。这篇论文的创新点比较多,含金量很高,而且开源了代码。所以这篇博客结合

    2024年02月03日
    浏览(54)
  • huggingface pipeline零训练样本分类Zero-Shot Classification的实现

    1 : 默认的model 。 输出是 education 第一位的。 2 : 使用 morit/chinese_xlm_xnli : 3:使用 facebook/bart-large-mnli 4:

    2024年02月20日
    浏览(42)
  • diffusion model (七) diffusion model是一个zero-shot 分类器

    Paper: Your Diffusion Model is Secretly a Zero-Shot Classifier Website: diffusion-classifier.github.io/ diffusion model(一)DDPM技术小结 (denoising diffusion probabilistic) diffusion model(二)—— DDIM技术小结 diffusion model(三)—— classifier guided diffusion model diffusion model(四)文生图diffusion model(classifier-free

    2024年02月12日
    浏览(40)
  • 【深度学习】【风格迁移】Zero-shot Image-to-Image Translation

    论文:https://arxiv.org/abs/2302.03027 代码:https://github.com/pix2pixzero/pix2pix-zero/tree/main 大规模文本到图像生成模型展示了它们合成多样且高质量图像的显著能力。然而,直接将这些模型应用于编辑真实图像仍然存在两个挑战。首先, 用户很难提供完美的文本提示,准确描述输入图像

    2024年02月13日
    浏览(48)
  • 【NLP文章阅读】Zero-Shot Information Extraction via Chatting with ChatGPT

    转载和使用规则:更多论文解读请关注: NLP_paper,如需转载文章需要为我的github项目star,并声明文章来源 零样本信息提取(Information Extraction)旨在从未注释的文本中构建IE系统。由于很少涉及人类干预,这是一项具有挑战性的工作。零样本IE具有挑战性但值得一提,它减少

    2023年04月09日
    浏览(86)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包