ChatGPT作者John Schulman:通往TruthGPT之路

这篇具有很好参考价值的文章主要介绍了ChatGPT作者John Schulman:通往TruthGPT之路。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

ChatGPT作者John Schulman:通往TruthGPT之路


OneFlow编译
翻译|贾川、徐佳渝、杨婷


大型语言模型(LLM)有一个众所周知的“硬伤”——它们经常会一本正经编造貌似真实的内容。
 

OpenAI团队希望通过改进强化学习反馈步骤“原生地”阻止神经网络产生幻觉,OpenAI首席科学家Ilya Sutskever对此胸有成竹。作为ChatGPT项目的主要负责人以及OpenAI强化学习团队的领导者,John Schulman在最近的Berkeley EECS会议上系统性地分享了OpenAI在人类反馈的强化学习(RLHF)方面所做的工作,以及语言模型的幻觉等亟待解决的问题,同时也介绍了解决这些挑战的潜在思路。

ChatGPT作者John Schulman:通往TruthGPT之路


没有比Schulman更权威的RLHF研究者,他也是强化学习领域无可置疑的大牛。

加入OpenAI之前,Schulman在加州大学伯克利分校攻读博士学位,一开始主要研究机器人技术,随着深度学习兴起,转而研究强化学习,其导师正是强化学习领域的领军人物Pieter Abbeel。

Schulman在强化学习研究领域作出了许多重大贡献,包括发明了TRPO算法(信赖域策略优化)、GAE(广义优势估计,Generalized Advantage Estimation)以及PPO算法(近端策略优化)。


如今,Schulman还在强化学习研究的最前线尝试解决公认难题,他的最新思考或许会为业内其他研究者带来启发。
 

(以下内容由OneFlow编译发布,转载请联系OneFlow获得授权。来源:https://www.youtube.com/watch?v=hhiLw5Q_UFg)
 

1
语言模型幻觉溯源

ChatGPT作者John Schulman:通往TruthGPT之路

提到语言模型,很多人应该听过“幻觉”这个名词。上图就是一个关于幻觉的例子,这不是精挑细选的,而是我做测试时的第一个样本。
 

我的问题是:请告诉我John Schulman因在家饲养野生动物而被捕的相关情况。GPT-3.5 Instruct是经过强化学习训练过的模型,给出的回答是关于John Schulman饲养老虎和小型美洲猫之类的事情。GPT-3.5 Turbo(Chat)的整体表现与GPT-3.5 Instruct一致,且智能程度相同,只是微调方式不同,它给出的回答是:抱歉,我没有查到任何关于John Schulman被捕的相关情况。
 

然后,我又尝试对聊天功能进行微调过的GPT-4(Chat),它的回答是:很抱歉,我没有找到有关John Schulman因在家中饲养野生动物而被捕的任何信息,我的知识截止于2021年9月。John Schulman是人工智能领域的著名研究人员……
 

这是“幻觉”问题的一个很好示例。相比之下,我觉得GPT-4的表现相当不错。
 

当人们说幻觉时,主要指的是两类不同情况。其中一类幻觉是语言模型的模式完成(pattern completion)行为。它们的训练目的是最大化文本可能性,使生成的内容看起来很像互联网上的文本。
 

这主要有三个原因:1. 它不知道自己可以回答“我不知道”或者表达不确定性。如果告诉模型可以回答“我不知道”,那么在一定程度上能解决幻觉问题;2. 模型有时不愿意去质疑前提(premise),它认为前提是数据分布的一部分;3. 模型有时会陷入谎言之中。如果模型已经犯了一个错误,那么它会认为自己应该继续回答下去,生成一连串响应,这也意味着它会继续说谎。
 

语言模型的另一类幻觉是“猜错了”。就像人类一样,你可能只遇到过一次某件事情,自己不能确定,感到很模糊,所以在回答时必须带点猜测,有时可能就会猜错。
 

ChatGPT作者John Schulman:通往TruthGPT之路


比如很多人喜欢问模型关于自己的问题,就像用谷歌搜索自己一样,所以我也尝试让模型写一篇个人介绍。
 

InstructGPT回答,“John是一位AI研究科学家,在OpenAI工作。他曾是卡内基梅隆大学的计算机科学教授等等。”此外还增加了一堆虚构的东西。GPT-3.5的回答有点模糊,但基本上正确,它说我本科就读于斯坦福大学,在Pieter Abbeel的指导下做研究,还提到了信赖域策略优化(TRPO)方面的内容。GPT-4的回答几乎完全正确,但也有些许瑕疵,比如它说我主修数学,其实并没有,对我取得本科学位的年份描述也有一年的误差。
 

这其实就属于“猜错了”:模型尝试给出一个全面的答案,但结果却出现了错误。这样的结果是好是坏在一定程度上取决于这份个人简介的用途:如果想将其放在网上,那么肯定存在问题;但如果仅仅是某人想要了解我,那么年份误差一年也不会有太大影响。
 

2
幻觉与行为克隆


ChatGPT作者John Schulman:通往TruthGPT之路


到底为什么会产生“幻觉”?我将描述一个概念模型加以解释。上图是一个知识图谱,包含一些事实,比如《星球大战》属于科幻类,Han Solo是《星球大战》中的一个角色,以三元组形式排列。这尽管是传统人工智能的知识储存方式,仍然很有用。
 

该概念模型能解释当你对神经网络进行微调以完成某种问答任务时会发生什么。神经网络中包含信息,可以将其看作类似知识图谱的东西,以某种非常复杂的方式存储在权重中。每条边(edge)都有一些置信度,不同的边置信度不一样,原因是,某些事实被看了上百万次,而有些事实可能只看了一两次。
 

当你进行小规模微调时,可以将其看作你正在学习某个小型程序,将知识图谱作为输入,并基于知识图谱中的内容和语句的置信度输出概率。比如,你正在学习处理知识图表的四行Python代码函数,那么你之所以要进行微调,是因为可能需要学习一些关于问题格式的内容。
 

如果只抛给预训练模型一个问题,如“《星球大战》属于什么类型?”,那么它就不知道该问题的上下文是什么,不清楚这些文本的来源是哪里,是信息性网站、恶作剧网站还是虚构文本。而微调就是让模型专门输出正确的答案或在微调数据集中的内容。
 

行为克隆(behavior cloning)是强化学习领域的一个术语,意思是监督微调或最大化似然&文章来源地址https://www.toymoban.com/news/detail-450078.html

到了这里,关于ChatGPT作者John Schulman:通往TruthGPT之路的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 科研工作者们,ChatGPT (GPT-4) 玩起来了没,来这体验一下吧

    话不多说,直接上链接: https://sci.justscience.cn/chatgpt 再来个让我很惊讶的案例—— 设计研究方案 看看是不是可以作为一个小助理来给你点参考了? 如果想完全让ChatGPT来帮自己做完整方案还是放弃吧!毕竟有些回答依然是有错的,比如它回答,GPX4和SLC7A11并不是铁死亡的特异

    2023年04月27日
    浏览(73)
  • 这个gayhub的大佬作者,更新起ChatGPT的项目,简直是高产如奶牛呐!实战网页版chatgpt-web源码(上)

    大家好啊,我是测评君,欢迎来到web测评。 最近chatgpt真的是火了一遍又一遍,基本逛gayhub,gitee等开源社区的时候,随处可见各种大佬写的开源项目。今天给大家分享的是Chanzhaoyu大佬编写的一个网页版chatgpt,目前已经超过了12.8k star,而且感觉他都是无时无刻的在持续更新,

    2023年04月25日
    浏览(25)
  • 编译 OneFlow 模型

    本篇文章译自英文文档 Compile OneFlow Models tvm 0.14.dev0 documentation 作者是 BBuf (Xiaoyu Zhang) · GitHub 更多 TVM 中文文档可访问 →Apache TVM 是一个端到端的深度学习编译框架,适用于 CPU、GPU 和各种机器学习加速芯片。 | Apache TVM 中文站 本文介绍如何用 Relay 部署 OneFlow 模型。 首先安装

    2024年02月14日
    浏览(23)
  • 狂买GPU、四处挖人,马斯克:我要做理解宇宙的TruthGPT

    来源: 爱范儿  微信号:ifanr 整理 | 凌敏、核子可乐 上个月,马斯克还积极呼吁叫停超强 AI 研发 6 个月,现在就坐不住了? 马斯克声称正在研究 TruthGPT 近日,马斯克在接受福克斯新闻频道的塔克卡尔森采访时宣布,他将推出一个名为“TruthGPT”的 AI 平台。马斯克还呼吁对人

    2023年04月22日
    浏览(30)
  • OneFlow新概念清单,AI深度学习的革命性突破(AI写作)

    首先,这篇文章是基于 笔尖AI写作 进行文章创作的,喜欢的宝子,也可以去体验下,解放双手,上班直接摸鱼~ 按照惯例,先介绍下这款笔尖AI写作,宝子也可以直接下滑跳过看正文~ 笔尖Ai写作:只要输入简单的要求和描述,就能自动生成各种高质量文稿内容。 笔尖Ai写作:

    2024年04月28日
    浏览(23)
  • Chatgpt的崛起之路

    OpenAI 11月30号发布,首先在北美、欧洲等已经引发了热烈的讨论。随后在国内开始火起来。全球用户争相晒出自己极具创意的与ChatGPT交流的成果。ChatGPT在大量网友的疯狂测试中表现出各种惊人的能力,如流畅对答、写代码、写剧本、纠错等,甚至让记者编辑、程序员等从业者

    2024年01月25日
    浏览(30)
  • 洛谷 P1462 通往奥格瑞玛的道路

    题目连接 注意到很明显的单调性,所以可以使用二分来求解。 接下来我们把城市看成点,公路看成边,把扣血量看成边权,那么从点 1 1 1 开始跑一遍最短路,如果点 1 1 1 到点 n n n 的距离(最少扣血量)超过了限制,则不可行,注意不能走到交钱数大于二分限制 x x x 的点。

    2024年02月03日
    浏览(25)
  • John密码破解工具

    一,John是什么? ohn 是一款大受欢迎的、免费的开源软件、基于字典的密码破解工具。用于在已知密文的情况下尝试破解出明文的破解密码软件,支持目前大多数的加密算法,如 DES 、 MD4 、 MD5 等。 John 支持字典破解方式和暴力破解方式。它支持多种不同类型的系统架构,包

    2024年02月06日
    浏览(27)
  • john解密rar密码

    john解密rar密码(不是那种未授权带密码的) 首先你要有一个带密码的rar文件,使用rar2john算出密码hash 使用rar2john算出密码hash输出到文件中 使用john 对hash文件进行破解,–wordlist 后跟字典(kali自带) 可以看到密码已经破解出来

    2024年02月07日
    浏览(28)
  • macos下安装john the ripper并配置zip2john+破解加密zip文件

    1、首先使用homebrew安装john,可以安装它的增强版 john-jumbo : 2、安装后可以使用   john  命令验证: 3、配置 zip2john 的环境——.zshrc下,(因为homebrew的环境变量只到bin目录下,但是zip2john在比较深的目录下,因此需要手工添加环境变量) 4、先获得Hash文件,然后再上John工具 第

    2024年02月14日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包