论文解读:Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models

这篇具有很好参考价值的文章主要介绍了论文解读:Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

论文解读:Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models

siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

核心要点
  • 针对大模型幻觉问题进行综述,从detection、explanation和mitigation三个方面进行介绍;
  • 对幻觉现象和评估基准进行归纳,分析现有的缓解幻觉的方法,讨论未来潜在的研究发展
  • 相关文献整理:https://github.com/HillZhang1999/llm-hallucination-survey

一、什么是大模型的幻觉

大模型幻觉的三种类型:
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

  • 生成的内容与输入存在冲突:Input-conflicting hallucination, where LLMs generate content that deviates from the source input provided by users;
  • 生成的内容中,前后矛盾:Context-conflicting hallucination, where LLMs generate content that conflicts with previously generated information by itself;
  • 生成的内容中有事实性错误:Fact-conflicting hallucination, where LLMs generate content that is not faithful to established world knowledge.

更多的例子如下表所示:
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
(1)Input-conflicting hallucination
通常存在两种情况:

  • 输入的input是一个用户指令,而大模型给出的结果与指令不相关,或存在一些冲突;
  • 输入的input是一个文档,例如做文本摘要和机器翻译任务,大模型给出的结果与文档内容存在冲突

例如下表,Lucas与Hill存在冲突问题。
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

(2)Context-conflicting hallucination
表示大模型生成的内容存在自相矛盾的现象。通常出现这种情况是因为:

  • 大模型在上下文状态追踪和一致性上存在缺陷;
  • 在长程记忆方面存在不足;

如下表,一直在说Silver,可是说着说着提到了Stern。
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

(3)Fact-conflicting hallucination
大模型生成的内容存在一些事实错误,即与事实知识和常识存在冲突。
如下表:询问一个事实性问题时,大模型给出的结果是错误的。
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

大模型的幻觉问题相比其他特定任务(例如摘要、翻译),具备下面三个新的特性:

  • 大模型的训练数据是超大规模的,对于消除编造、过时和存在偏见的信息较为困难;
  • 大模型的功能广泛:通用大模型在跨任务、跨语言和跨领域环境中表现出色,这对综合评估和缓解幻觉提出了挑战;
  • 错误难以察觉:大模型可能会生成出看起来非常可信的虚假信息,这使得模型甚至人类都难以检测幻觉。

大模型幻觉定义、评测基准和各个阶段缓解幻觉的方法总揽图:
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

二、大模型的幻觉评估方法与评价指标

两种主要的幻觉评估模式:
(1)Generation:直接评测大模型生成的文本中事实陈述部分是否正确。

通常是一个事实性问题,直接让大模型生成结果,然后去判断生成的结果是否正确;
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

一些经典的generation评估方法:

  • TruthfulQA:人工构建若干问题,其中437个困难问题(GPT-3无法准确回答)和380个常规问题。人工评估时,根据大模型在对这些问题的回答,进行人工打分;自动评估时,在这些问题上训练一个GPT-3-6B的模型,然后用这个模型对大模型生成的内容进行打分。参考博客:TruthfulQA: Measuring How Models Mimic Human Falsehoods 论文解读
  • FActScore:通过人物传记来判断模型生成的内容是否符合事实。

还有一种是Knowledge Probing,设计一些事实性相关的完形填空类型的问题(或者填空在文本末尾),让模型生成结果。可以是多项选择模式,也可以是填空题目。

(2)Discrimination:让大模型能够区分是否符合事实。

通常是一个多项选择的问题,判断大模型是否能够做对选择题。
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

一些经典的discrimination方法:

  • HalEval:给定一个问题和正确答案,设计一些指令让GPT-4生成存在幻觉的文本,构造出类似多项选择题,通过模型筛选出高难度幻觉的文本,并通过人工标注方法标注出存在幻觉的区间。在评估大模型事实性时候,设计prompt让大模型从所有选项中选出正确答案,或者直接让大模型判断给定的一个生成结果是否符合事实。参考博客:HaluEval: A Large-Scale Hallucination Evaluation Benchmark for Large Language Models_华师数据学院·王嘉宁的博客-CSDN博客
  • FACTOR:类似一个多项选择,判断大模型对正确的选项给出的likelihood是否是最大的;
  • TruthfulQA:也提供了多项选择的模式;

下表展示了几种评估基准方法:
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

  • QA:设计一些问题,让大模型进行生成,然后通过人工或者自动评估方法进行打分。典型代表:TruthfulQA;
  • 任务指令:设计一些指令让大模型生成结果;典型代表:HalEval
  • 补全类:给出一些prefix,让大模型接着生成,判断生成的内容是否符合事实,是否与prefix存在冲突。典型代表:FACTOR

评估的指标通常有两种:
(1)人工评估
通常是对标注人员进行培训。当给定一个问题和一个候选答案时,要求标注人员根据特定要求对候选答案进行打分。典型代表:TruthfulQA、FactScore。
但是人工评估方法存在有偏性,同时成本比较高。
(2)基于模型的自动评估
通常是在构建好的评测基准上,训练一个打分模型。

  • TruthfulQA:在几百个设计标注的基准上,使用GPT-3-6.7B训练一个二分类模型GPT-Judge,这个二分类模型的准确性可以达到90~96%的准确性,因此当给出一个新的问题和候选答案时,可以较为准确地给予事实性得分。
  • AlignScore:提出一个Align函数,来判断大模型生成的内容与输入的内容是否符合事实一致性。其从大量的NLI、QA、paraphrasing等任务上训练一个二分类模型,用来判断两个文本是否存在蕴含关系;
  • FactScore:当给定一个问题和大模型生成的答案。首先根据问题,使用一个通用的T5模型作为retriever,检索相关的知识,其次使用一个LLaMA-65B模型来根据检索到知识,来判断大模型生成的答案是否符合事实性。最后用F1和错误率来判断这种评估方法的可靠性,并与人类评估进行相关性分析。
  • Self-contradictory:让大模型对一个问题生成两次,并使用一个ChatGPT来判断生成的两个内容是否冲突。

(3)基于规则的自动评估
对于discrimination的评估方法,可以直接使用准确率作为评价指标。如果对于generation方法,可以判断生成的内容和输入内容中实体的重叠率,可以采用Rouge-L或F1指标完成。

三、引起大模型幻觉的因素

(1)大模型缺乏领域相关的知识,或者训练时注入错误的知识

  • 训练数据中和目标测试问题存在分布差异性,模型生成内容更偏向于训练数据,但是却是错误的内容;
  • 训练数据可能是有偏的、过时的,或者存在大量的谎言

(2)大模型高估了自己的生成能力
大模型通常会对自己生成的内容给予很高的置信度,但是实际上是错误的内容。
大模型有时候没有拒识能力,对自己的知识边界比较模糊。
(3)存在问题的对齐策略可能会让模型退化

  • 大模型的对齐需要简历在其具备某个必备的知识,如果本身不具备这个知识,那么对齐可能就会促使模型生成幻觉问题;
  • 大模型可能会被用户干扰、诱骗,从而生成幻觉内容;

(4)大模型的生成策略存在不足

  • 滚雪球式幻觉:大模型生成是自回归模式,可能先前生成的错误信息,大模型无法对其进行纠正,导致错上加错;
  • 模型训练和推理阶段存在差异;
  • top-p采样问题,p值越大模型的创造性越强,越容易产生幻觉;

四、缓解大模型幻觉的方法

根据大模型训练的四个生命周期,分别介绍缓解幻觉的方法。

4.1 预训练阶段

模型在训练过程中,如果存在错误的知识,会在根源上让大模型产生幻觉。
因此缓解的方法是对预训练数据进行处理,筛除掉可能错误的数据。(the curation of pre-training corpora)

本人认为还有一个关键要素是需要在预训练阶段注入事实知识。

4.2 SFT阶段

(1)curating sft data
在SFT阶段缓解幻觉的方法也是对数据进行处理,筛除错误数据。在TruthfulQA上实验表明,经过curating的指令微调数据上训练明显要好于原始操作。
(2)行为克隆
SFT的另一个解释是行为克隆,即SFT只是教会模型如何回答一个问题(类似强化学习中action),但是并不知道如何较为准确地回答(相当于没有一个策略引导)。
SFT阶段本质上是让大模型如何利用好参数内的知识来与人类进行交互。然而,SFT训练数据中包含的知识可能是大模型预训练阶段没有见过的,从而间接教会大模型编造,大模型在生成时可能会寻找与之类似的信息。即需要大模型具备自我知识边界认知能力(拒识能力)。

forcing LLMs to answer questions that surpass their knowledge boundaries.

siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
解决方法是honesty-oriented SFT,即在sft数据中添加一些“Sorry,I don’t know”的数据。

本人认为拒识数据需要划分两种类别:

  • 针对问题本身的拒识:掺入一些本身就没有答案的问题,例如“宇宙的直径是多少”;
  • 针对模型的拒识:问题本身是存在正确答案的,但是如果模型本身如果没有学习过这个知识,不能胡编乱造。例如让一个医疗大模型去回答文学问题,它不能胡编乱造。

另外还要防止模型过度拒识。

4.3 RLHF阶段

对齐阶段的目标就是让大模型能够在helpful、honest和harmless等方面与人类价值观对齐,通常训练一个reward模型来评价文本在这几个方面的得分,并采用PPO算法不断地优化SFT模型。
在RLHF阶段缓解幻觉的简单思路就是单独再设计一个针对幻觉的reward score,并直接在RLHF阶段优化即可,如下所示:
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
这类似于在SFT阶段执行拒识。

不过RLHF存在一些挑战:

  • 可能会让模型过度“保守”(over-conservatism)
  • 过度避开回答一些大模型本身知道的问题,或者重复生成等问题;

4.4 模型推理阶段

(1)Decoding策略

  • Top-p采样(核采样)方法是一种贪心采样方法,会导致模型生成的结果更具有创造力,但也会降低事实性。一种方法就是设计动态top-p采样。代表方法为《Factuality Enhanced Language Models for Open-Ended Text Generation》。

动态的necleus probability p p p
p t = max ⁡ { ω , p × λ t − 1 } p_t=\max\{\omega, p\times\lambda^{t-1}\} pt=max{ω,p×λt1}

  • λ \lambda λ-decay:随着生成的token数量 t t t增加,逐渐衰减 p p p的取值;
  • p p p-reset:当一个句子生成完毕后, p p p的值会因为 t t t的增加而变得很小,当生成新的句子时,期望 p p p能够恢复到原始的值;
  • ω \omega ω-bound:为了避免 p p pdecay后过小,设置一个lower bound;
  • 推理干预技术:《Inference-time intervention: Eliciting truthful answers from a language mode》

事先分析模型在正确答案上预测时,每个token对应每一层Transformer中每个head的logits。
1)在LLM的每个注意力头之上安装一个二分类器,以识别一组在回答事实问题时表现出卓越的线性探测精度的头
2)在推理过程中,沿着这些与事实相关的方向移动模型激活。

  • Context-aware Decoder:《Trusting Your Evidence: Hallucinate Less with Context-aware Decoding》 两种Decoder模式的集成:
    • p ( y ∣ c , x ) p(y|c, x) p(yc,x)表示给定检索的上下文 c c c和query x x x的条件下,生成各个结果的概率;
    • p ( y ∣ x ) p(y|x) p(yx)表示只给定query x x x的条件下,生成各个结果的概率;
    • 如果对于某个答案的预测,如果两个概率差异很大,则说明该答案更多来自于上下文而不是来自模型参数的知识,这个答案则越有可能是正确的。siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
(2)检索外部知识
检索外部知识实现检索式增强是一种直接缓解幻觉的方法。
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
外部知识主要有两种类型:

  • 外部知识库:包括互联网上知识库、维基百科、知识图谱等。一般采用BM25、Dense Retrieve、搜索引擎等。
  • 外部工具:FacTool开发一些外部API来为不同特定的任务解决幻觉,例如谷歌学术API来检测学术审稿中的准确性等;CRITIC则让达模型与不同的tools进行交互,并对错误的结果进行纠正。

利用外部知识来缓解幻觉的两种思路如下所示:
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

  • 将检索到的知识直接与query拼接。
  • 将检索到的知识用于生成结果的检验与纠正,此时LLM可以借助外部知识作为一个fixer。
    • RARR:让大模型从多个方面寻找content中需要纠正的地方,然后让LLM根据检索到的知识进行纠错;
    • Verify-then-Edit:对于模型推理的中间结果进行检验,并检索外部知识对错误的推理过程进行纠正。
    • LLM-Augmenter:先让LLM对检索到的知识进行摘要,再让fixer根据摘要对幻觉文本进行纠正

siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
检索式增强有如下几个挑战:

  • 检索的知识通常也是来自于互联网,依然会存在错误伪造的信息,因此检索到的知识如何能够验证其可靠性也很关键;
  • retriever和fixer的准确性和时间效率也是很重要的部分。确保检索知识和纠错的性能很高才可以;
  • 检索到的知识与参数知识可能存在冲突

(3)不确定性
模型预测结果的不确定性可以评估模型对生成结果的确信程度。如果能够准确地获取到模型生成的结果的不确定程度,则可以有效地对这部分内容进行筛除或改写。
评估模型生成结果的不确定性,关键工作为《Can llms express their uncertainty? an empirical evaluation of confidence elicitation in llms》,主要有三种方法:

  • 根据logits或信息熵来评估。代表工作:《On calibration of modern neural networks.》
    • 代表方法:《A stitch in time saves nine: Detecting and mitigating hallu- cinations of llms by validating low-confidence generation》通过logits寻找存在幻觉的部分,然后用外部知识和额外的LLM作为fixer进行纠正;

requires access to the model logits and typically mea- sures uncertainty by calculating token-level probability or entropy.

  • Verbalize-based:设计指令,直接让模型输出其对该问题回答的确信程度。例如添加指令:Please answer and provide your confidence score (from 0 to 100)。可以配合CoT来提升效果;
    • 代表方法:《Do language models know when they’re hallucinating references?》
  • Consistency:让模型对同一个问题生成多次,并根据答案的一致性来判断。如果模型生成的多次结果过于不一致,则说明其对该问题会产生幻觉;
    • 代表方法:SelfCheckGPT

4.5 其他方法

(1)多智能体交互
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理

  • 如果只让一个大模型生成结果,则比较容易产生幻觉。但是如果多个大模型辩论的形式回答,则可以缓解这个问题:《Improv- ing factuality and reasoning in language mod- els through multiagent debate》
  • 设计两个LLM,一个负责生成内容,一个负责检查:《Lm vs lm: Detecting factual errors via cross examination》
  • 一个LLM同时扮演多个角色:《A task-solving agent through multi- persona self-collaboration.》

(2)提示工程
不同的prompt也可能会导致幻觉。可以采用CoT提升推理能力避免幻觉。另一方面设计system prompt时,告知模型不要胡编乱造,例如在LLaMA2-Chat中,设置“If you don’t know the answer to a question, please don’t share false information”
(3)Human-in-the-loop
代表工作:《Mitigating language model hallucination with interactive question-knowledge alignment》
(4)优化模型结构
更多丰富的decoder结构:

  • multi-branch decoder:《Controlling hal- lucinations at word level in data-to-text generation》
  • uncertainty-aware decoder:《On hallucination and predictive uncertainty in conditional language generation》
  • 双向decoder结构:《Batgpt: A bidirectional autoregessive talker from gener- ative pre-trained transformer》

五、其他方面

(1)更合适的评估方法
目前的评估方法还有一些不足,表现在:

  • 自动评估方法与人类的评估存在差异;
  • discrimination和generation两种类型的评估方法是否能够准确表示模型的幻觉,在不同的任务上是否能够具有通用性等问题,还有待继续研究;

(2)多语言幻觉
同一个问题,英文提问时可以回答的准确,但是换成中文提问时则会出错,说明模型的幻觉会在不同语言上表现不同。这往往容易出现在low-resource language上。
siren's song in the ai ocean: a survey on hallucination in large language mo,预训练语言模型🔥,论文解读,人工智能,语言模型,自然语言处理
(3)多模态幻觉
一些多模态模型,会将视觉encoder更换为LLM。但是此时也会出现幻觉问题。
多模态场景下的一些幻觉评测基准包括:

  • GPT4-Assisted Visual Instruc- tion Evaluation (GAVIE)
  • M-HalDetect

(4)模型编辑
模型编辑有两种类型,直接在模型参数或结构上消除模型的幻觉:

  • 利用一个辅助的sub-network:《Memory-based model editing at scale》、《One mistake worth one neuron》
  • 直接更改模型的参数:《Locating and editing factual associations in gpt》

(5)攻击与防御
如何防止有些prompt是恶意的和精心设计的圈套,避免模型吐出幻觉或错误的信息。

  • 《Jailbroken: How does llm safety training fail?》
  • 《Promptbench: Towards evaluating the robustness of large language models on adversarial prompts》

Several studies show that LLMs can be manipulated using techniques like meticulously crafted jailbreak prompts to elicit arbitrary desired responses

(6)其他
LLM-as-a-agent场景下,大模型如何缓解幻觉是一个新的挑战。文章来源地址https://www.toymoban.com/news/detail-781017.html

到了这里,关于论文解读:Siren’s Song in the AI Ocean: A Survey on Hallucination in Large Language Models的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 论文解读: 2023-Lost in the Middle: How Language Models Use Long Contexts

    大模型使用的关键在于Prompt,然而大模型存在幻觉现象,如何减少这种现象的发生成为迫切解决的问题。外部知识库+LLM的方法可以缓解大模型幻觉,但是如何撰写Prompt才能发挥LLM的性能。下面介绍这篇论文说明上下文信息出现在Prompt什么位置使模型表现最佳,以及上下文文本

    2024年02月17日
    浏览(46)
  • 【论文笔记】A Survey on 3D Gaussian Splatting

    原文链接:https://arxiv.org/abs/2401.03890 NeRF在计算效率和可控性上具有局限性,这导致了3D高斯溅射(3D GS)的出现,重新定义了场景表达和渲染。 3D GS通过引入新的场景表达技术,用大量的3D高斯表达场景。3D GS使用显式的表达和高度并行化的工作流程,促进高效计算和渲染;其

    2024年01月25日
    浏览(52)
  • 【语音增强论文解读 03】TCNN: TEMPORAL CONVOLUTIONAL NEURAL NETWORK FOR REAL-TIME SPEECHENHANCEMENT IN THE TIME

    作者:Ashutosh Pandey and DeLiang Wang 文末附文章地址及其开源代码地址         尽管使用 T-F 表示是最流行的方法,但它也有一些缺点。首先,这些方法通常忽略干净的相位信息,并使用噪声相位进行时域信号重建。         受成功实现用于序列建模的 TCNN 以及基于编解码

    2024年02月02日
    浏览(46)
  • [论文阅读笔记25]A Comprehensive Survey on Graph Neural Networks

    这是一篇GNN的综述, 发表于2021年的TNNLS. 这篇博客旨在对GNN的基本概念做一些记录. 论文地址: 论文 对于图像数据来说, CNN具有平移不变性和局部连接性, 因此可以在欧氏空间上良好地学习. 然而, 对于具有图结构的数据(例如社交网络 化学分子等)就需要用GNN来学习. 最早期的GN

    2024年02月11日
    浏览(60)
  • 【论文阅读】A Survey on Dynamic Neural Networks for Natural Language Processing

    A Survey on Dynamic Neural Networks for Natural Language Processing 发表单位:University of California, San Diego 作者:Canwen Xu, Julian McAuley 发表会议: EACL 2023 论文地址:http://arxiv.org/abs/2202.07101 发布时间:2022.2.15(v1) 2023.2.24 (v2) 掌握主要内容 有效缩小大型Transformer模型是自然语言处理最新进展的主

    2024年02月03日
    浏览(47)
  • 【论文阅读】The Deep Learning Compiler: A Comprehensive Survey

    论文来源:Li M , Liu Y , Liu X ,et al.The Deep Learning Compiler: A Comprehensive Survey[J]. 2020.DOI:10.1109/TPDS.2020.3030548. 这是一篇关于深度学习编译器的综述类文章。 什么是深度学习编译器 深度学习(Deep Learning)编译器将深度学习框架描述的模型在各种硬件平台上生成有效的代码实现,其完

    2024年02月15日
    浏览(50)
  • 【时间序列综述】Transformer in Time Series:A Survey 论文笔记

    文章全名:Transformers in Time Series: A Survey 文章链接:[论文地址]([2202.07125v2] Transformers in Time Series: A Survey (arxiv.org)) 来源:IJCAI 2023 完成单位:阿里巴巴达摩院、上海交通大学 Transformer在自然语言处理和计算机视觉领域都取得了诸多成果,Transformer的捕获长距离依赖和交互的能力

    2024年04月26日
    浏览(46)
  • 论文阅读1--A Survey on Incomplete Multi-view Clustering(不完全多视图聚类的调查)阅读笔记

    目录 写在前面(知识补充) 0.Abstract 1.Introduction 2. FUNDAMENTALS AND PRELIMINARY CONCEPTS 3. MATRIX FACTORIZATION BASED IMC(基于矩阵分解的IMC) 4. KERNEL LEARNING BASED IMC(基于内核学习的IMC) 5.GRAPH LEARNING BASED IMC(基于图学习的IMC) 6.DEEP LEARNING BASED IMC(基于深度学习的IMC) 7. EXPERIMENTS(实验部分)

    2024年02月05日
    浏览(59)
  • 【论文笔记】A Survey of Large Language Models in Medicine - Progress, Application, and Challenges

    将LLMs应用于医学,以协助医生和病人护理,成为人工智能和临床医学领域的一个有前景的研究方向。为此, 本综述提供了医学中LLMs当前进展、应用和面临挑战的全面概述 。 具体来说,旨在回答以下问题: 1)什么是LLMs,如何构建医学LLMs? 2)医学LLMs的下游表现如何? 3)

    2024年02月03日
    浏览(45)
  • A Survey of IoT Applications in Blockchain Systems Architecture,Consensus,and Traffic Modeling 论文学习

    A Survey of IoT Applications in Blockchain Systems: Architecture, Consensus, and Traffic Modeling ACM Computing Surveys, 2020 LAPHOU LAO, ZECHENG LI, SONGLIN HOU, and BIN XIAO, The Hong Kong Polytechnic University, China SONGTAO GUO, Chongqing University, China YUANYUAN YANG, Stony Brook University, America 本文介绍了使 用区块链技术的物联网应用

    2023年04月12日
    浏览(59)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包