ChatIE(LLM大模型用于信息抽取)

这篇具有很好参考价值的文章主要介绍了ChatIE(LLM大模型用于信息抽取)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Zero-Shot Information Extraction via Chatting with ChatGPT

  • paper:https://arxiv.org/abs/2302.10205

利用ChatGPT实现零样本信息抽取(Information Extraction,IE),看到零样本就能大概明白这篇文章将以ChatGPT作为一个基座然后补全前后端,来实现抽取任务。主要针对抽取中的三个重要任务:

对于句子:《我的爱情日记》是1990年在北京上映的中国…

  • 实体关系三元组抽取任务,如(我的爱情日记,上映日期,1990年)
  • 命名实体识别任务,如人物的实体有(吴天戈,…)
  • 事件抽取任务,如事件是(产品行为-上映)

ChatIE如下图所示,
ChatIE(LLM大模型用于信息抽取),深度学习,人工智能,chatgpt,大模型,预训练,信息抽取

具体来说,ChatIE实现零样本的策略是将其任务转化为具有多轮提问-回答问题,主要分为两个阶段:

  • 第一阶段,找出句子中可能存在的相应元素类型(对应三个任务分别为实体、关系或事件),通过这种方式可以提前过滤到不需要的信息,以减少搜索和计算复杂度。
    • 如上图中的上半部分,输入给chatGPT的信息为:“给定的句子为:sentence。给定实体/关系/事件类型列表:[…]。在这个句子中,可能包含了哪些实体/关系/事件类型”,然后得到一些关于人物/地点的实体,上映时间/导演等关系,上映等具体事件。
  • 第二阶段,对第一阶段识别出的每个元素按照任务执行相应的信息抽取。由于有些问题比较复杂,所以作者们设计了问题模板链,即某个元素的抽取可能取决于前一些元素的抽取。
    • 如上图中的下半部分,分不同的子任务处理方法不同。
# 命名关系
# 先定义实体的类别
df_nert = {
    'chinese': ['组织机构', '地点', '人物']
}
# 再输入到prompt中
ner_s1_p = {
    'chinese': '''给定的句子为:"{}"\n\n给定实体类型列表:{}\n\n在这个句子中,可能包含了哪些实体类型?\n如果不存在则回答:无\n按照元组形式回复,如 (实体类型1, 实体类型2, ……):'''
}
# 关系抽取
# 先定义抽取的schema
df_ret = {
	 'chinese': {'所属专辑': ['歌曲', '音乐专辑'], '成立日期': ['机构', 'Date'], ....}
}
# 再输入到prompt中
re_s1_p = {
    'chinese': '''给定的句子为:"{}"\n\n给定关系列表:{}\n\n在这个句子中,可能包含了哪些关系?\n请给出关系列表中的关系。\n如果不存在则回答:无\n按照元组形式回复,如 (关系1, 关系2, ……):'''
}
# 事件抽取
# 先事件的schema
df_eet = {
    'chinese': {'灾害/意外-坠机': ['时间', '地点', '死亡人数', '受伤人数'],...}
}
# 再输入到prompt中
ee_s1_p = {
    'chinese': '''给定的句子为:"{}"\n\n给定事件类型列表:{}\n\n在这个句子中,可能包含了哪些事件类型?\n请给出事件类型列表中的事件类型。\n如果不存在则回答:无\n按照元组形式回复,如 (事件类型1, 事件类型2, ……):'''
}

代码已经开源,包含了详细的前后端处理。文章来源地址https://www.toymoban.com/news/detail-532039.html

  • https://github.com/cocacola-lab/ChatIE

到了这里,关于ChatIE(LLM大模型用于信息抽取)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能学习5(特征抽取)

    编译环境:PyCharm 特征选择和特征抽取都减少了数据的维度(降维),但是特征选择是得到原有特征的子集,特征抽取是将原有特征结果函数映射转化为新的特征。 特征抽取分为无监督特征抽取和有监督特征抽取。 无监督 : 没有标签 PCA降维 ( 主成分分析 )基本思想:构造一系

    2024年02月03日
    浏览(37)
  • 深度学习目标检测模型常用于部署在边缘计算设备上,常用于部署的边缘计算设备有哪些。

    问题描述:深度学习目标检测模型常用于部署在边缘计算设备上,常用于部署的边缘计算设备有哪些。 问题解答: 在边缘计算设备上部署深度学习目标检测模型通常需要考虑设备的计算能力、内存、功耗等因素。以下是一些常用于部署深度学习目标检测模型的边缘计算设备

    2024年02月02日
    浏览(43)
  • 【深度学习:Micro-Models】用于标记图像和视频的微模型简介

    在本文中,我们将介绍 Encord 用于自动化数据注释的“微模型”方法。我们已将这种方法部署到各个领域的计算机视觉标记任务中,包括医学成像、农业、自动驾驶汽车和卫星成像。 让我们切入正题: 什么是微模型 低偏差模型适用于数据集中的一小组图像或视频。 微模型如

    2024年01月20日
    浏览(47)
  • UIE: 信息抽取的大一统模型

    论文链接: https://arxiv.org/abs/2203.12277 最近由于业务需要,一直在关注信息抽取领域的一些文章,实验上尝试了BERT+Softmax、BERT+NER以及GlobalPointer等模型,效果都还可以,就是标数据有点费人。所以,想找一些few-shot效果比较好的模型,可以辅助标注。无意间,就发现了这篇论文,

    2024年02月10日
    浏览(40)
  • 通用人工智能技术(深度学习,大模型,Chatgpt,多模态,强化学习,具身智能)

    目录 前言 1.通用人工智能 1.1 生物学分析 1.2具身智能 1.2.1当前的人工智能的局限 1.2.2 具身智能实现的基础 1.2.3 强化学习(决策大模型) 2.结论 往期文章 参考文献       目前的人工智能实质上只是强人工智能,或者说单个领域的通用人工智能。比方说Chatgpt它属于自然语言

    2024年02月07日
    浏览(82)
  • ChatDoctor(LLM大模型用于医疗对话)

    ChatDoctor: A Medical Chat Model Fine-tuned on LLaMA Model using Medical Domain Knowledge paper:https://arxiv.org/pdf/2303.14070.pdf 通用领域中最近的大型语言模型 (LLM),例如 ChatGPT,在遵循指令和产生类似人类的响应方面取得了显着的成功。 但是语言模型并未针对医学领域量身定制,导致答案准确性较

    2024年02月06日
    浏览(38)
  • 数据预处理的人工智能与深度学习:如何提高模型性能

    数据预处理是人工智能(AI)和深度学习(DL)领域中的一个关键环节,它涉及到数据清洗、数据转换、数据归一化、数据增强等多种操作,以提高模型性能。在过去的几年里,随着数据规模的增加和复杂性的提高,数据预处理的重要性得到了广泛认识。本文将从以下几个方面进行

    2024年02月19日
    浏览(73)
  • 打造你的专属大模型,学完即可使用上岗!技术人的大模型课程(人工智能/机器学习/深度学习)

    技术人的大模型课 让一部分人在大模型时代,先拥抱AI,为编程专家开启AI新篇章 在2024年,大模型不再是可选技能,而是技术行业的必备。你是否曾在夜深人静时想象,从一名代码专家转型为AI行业的引领者? 如果你的答案是肯定的,那么这门课程正是为你量身定制, 针对

    2024年04月27日
    浏览(48)
  • (十)人工智能应用--深度学习原理与实战--模型的保存与加载使用

    目的:将训练好的模型保存为文件,下次使用时直接加载即可,不必重复建模训练。 神经网络模型训练好之后,可以保存为文件以持久存储,这样下次使用时就不重新建模训练,直接加载就可以。TensorfLow提供了灵活的模型保存方案,既可以同时保存网络结构和权重(即保存全模

    2024年02月13日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包