语言认知模型--的学习笔记

这篇具有很好参考价值的文章主要介绍了语言认知模型--的学习笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  1. 认知语言学:认知科学(cognitive science)与语言学交 叉的一个研究分支,是研究人脑的思维、心智、智能、推理和认识等认知机理及其对语言进 行分析和理解过程的一门学问
  2. 语言认知计算模型:
    1. 刻画人脑语言认知和理解过程的形式化模型
    2. 目的:建立可计算的、复杂度可控的数学模型,以便在计算机系 统上实现对人脑语言理解过程的模拟
    3.  实现所谓的“类脑语言信息处理”
      1. 人脑处理语言的认知机理:通过采集分析在某种语言环境下人脑的生理数据,研究人脑对语音、词汇、句法 和语义的理解机理
      2. 语言处理过程至少涉及两种并行的过程:
        1. 语义记忆:负责检索单词间 的语义特征、关联和语义关系
        2. 语义组合:至少有一个通路 负责将单词整合形成更高级的含义
  3. 深度神经网络与自然语言处理:
    1. 在神经网络模型中融合记忆模块和注意力机制成为了研究的趋势
    2. 任务大多解决的是“处理”层面的问题,如 边界的切分、语音信号到文字的转换等,而上升到“语义理解”的层面还有太多的 问题,如正确理解一幅图像所包含的语义和情感等,仍是极具有挑战性的问题。
  4. 人类语言需结合一 定的上下文和知识才能理解
  5. 语言具有一定的层次结构,具体表现为 词、短语、句子、段落以及篇章等不同的语言粒度。为了让计算机可以理解语言,需要将不 同粒度的语言都转换成计算机可以处理的数据结构。
    1. 连续表示:
      1. 为了解决离散表示所无法解决的““一词多义”和“一义多词”问题
      2. 将语言单位表示为连续语义空间中的一个点,这样的表示方法称之为连续表示
      3. 基于连续表示,词与词之间 就可以通过欧式距离或余弦距离等方式来计算相似度
      4. 常用方法:
        1. 分布式表示:基于 Harris 的分布式假设,即如果两个词的上下文相似,那么这两个词也是相似的。
        2. 分散式表示(主流方法):
          1. 将语言的潜在语法或语义特征分散式地存储在一组神经元中,可以用稠密、低维、连续的向量来表示,也叫嵌入(Embeddings)。
          2. 一个好的词嵌入模型应该是:对于 相似的词,它们对应的词嵌入也相近
    2. 根据所表示文本的颗粒度的不同,可以分为词、句子、篇章的表示:
      1. 词表示:Word embeddings:
        1. 词嵌 入的质量非常依赖于上下文窗口大小的选择
        2. 有研究者关注如何利用已有的知识库来改进词嵌入模型,结合知识图谱 和未标注语料在同一语义空间中来联合学习知识和词的向量表示,这样可以更有效地实现词 的嵌入
      2. 句子表示:
        1. 很多任务的输入是变长的文本序列,需要将变长的文本序列表示成固定长度的向量
        2. 句子编码主要研究如何有效地从词嵌入通过不同 方式的组合得到句子表示
        3. 神经词袋模型:
          1. 简单对文本序列中每个词嵌入进行平均,作为整个序列的表示
          2. 缺点:丢失了词序信息
          3. 对于长文本,神经词袋模型比较有效。但是对于短文本, 神经词袋模型很难捕获语义组合信息
        4. 递归神经网络(Recursive Neural Network):
          1. 按照一个给定的外部拓扑 结构(比如成分句法树),不断递归得到整个序列的表示
          2. 缺点:需要 给定一个拓扑结构来确定词和词之间的依赖关系,因此限制其使用范围
        5. 循环神经网络(Recurrent Neural Network):将文本序列看作时间序列,不 断更新,最后得到整个序列的表示
        6. 卷积神经网络(Convolutional Neural Network):”通过多个卷积层和子采样 层,最终得到一个固定长度的向量。
        7. 改进:
          1. 综合这些方法的优点,结合具体的任务,已 经 提出了一些更复杂的组合模型, 例如 双向循环神经 网络 ( Bi-directional Recurrent Neural Network)、长短时记忆模型(Long-Short Term Memory)等。
          2. 比如近几年大热的Attention机制、Transformer以及Bert模型
      3. 篇章表示:
        1. 思想:层次化的方法,先得到句子编码,然后以句子编码为输入,进一步得到篇章的表示
        2. 层次化CNN:用卷积神经网络对每个句子进行建模,然后以 句子为单位再进行一次卷积和池化操作,得到篇章表示
        3. 层次化RNN:用循环神经网络对每个句子进行建模,然后再用一个循环神经网络建模以句子为单位的序列,得到篇章表示
        4. 混合模型:先用循环神经网络对每个句子进行建模,然后以句子为单位再进行 一次卷积和池化操作,得到篇章表示
        5. 循环神经网络因为非常适合处理文本 序列,因此被广泛应用在很多自然语言处理任务上。

文章来源地址https://www.toymoban.com/news/detail-498110.html

到了这里,关于语言认知模型--的学习笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • C语言学习之main函数两个参数的应用

    main函数的两个参数: 参数argc: 表示在执行程序时,在终端所输入参数的个数, 包括可执行文件的名称 ; 参数argv: 1.本质上是一个 字符型指针数组 ; 2.用于获取指针数组中每个成员所指向的字符串; 3.存储时,参数argv指向所传递的 字符串的首地址 ; 伪代码表示: 测试代

    2024年02月11日
    浏览(55)
  • C语言学习之统计英文字符串中26个字母大小写出现的次数

    实例要求: 编写C语言代码,统计出英文字符串中26个字母大写和小写 出现的次数 ; 输入输出如下所示: 实例分析: 1.对字符串用 while循环或者for循环 进行遍历,找到 26个英文字母大小写 ; 2.将所有英文字母大写或者小写都转换成 ASCII值 ,进行运算; 3.封装相应的功能函数

    2024年02月10日
    浏览(65)
  • 语言认知模型--的学习笔记

    认知语言学:认知科学(cognitive science)与语言学交 叉的一个研究分支,是研究人脑的思维、心智、智能、推理和认识等认知机理及其对语言进 行分析和理解过程的一门学问 语言认知计算模型: 刻画人脑语言认知和理解过程的形式化模型 目的:建立可计算的、复杂度可控的

    2024年02月10日
    浏览(39)
  • AI大模型探索之路-认知篇3:大语言模型微调基础认知

    在人工智能的广阔研究领域内,大型预训练语言模型(Large Language Models, LLMs)已经成为推动技术革新的关键因素。这些模型通过在大规模数据集上的预训练过程获得了强大的语言理解和生成能力,使其能够在多种自然语言处理任务中表现出色。然而,由于预训练过程所产生的

    2024年04月24日
    浏览(47)
  • AI大模型探索之路-训练篇2:大语言模型预训练基础认知

    在人工智能的宏伟蓝图中,大语言模型(LLM)的预训练是构筑智慧之塔的基石。预训练过程通过调整庞大参数空间以吸纳数据中蕴含的知识,为模型赋予从语言理解到文本生成等多样化能力。本文将深入探讨预训练过程中的技术细节、所面临的挑战、通信机制、并行化策略以

    2024年04月25日
    浏览(47)
  • 大模型语言模型的全面测评:ChatGPT、讯飞星火认知大模型、文心一言、昆仑天工和通义千问

    在当今人工智能技术日益成熟的背景下,大模型语言模型的应用越来越广泛。作为一名AI爱好者,我测试了五个平台的大模型,分别是ChatGPT、讯飞星火认知大模型、文心一言、昆仑天工和通义千问。通过对这五个平台的提问并得到其回答结果,我深刻感受到这些大模型的强大

    2024年02月10日
    浏览(55)
  • 关于深度学习和大模型的基础认知

    这年头,作为一个技术人,话头里没有“大模型”,和人聊天都聊不下去。为了让自己和大家能更好的参与话头,特撰写此文,提供一些对大模型的基础认知能力(门外汉,浅尝辄止)。旨在解自己的一些困惑,比如,模型是什么意思?千亿/万亿参数意味着什么?为什么大模

    2024年02月22日
    浏览(38)
  • JUC并发编程学习笔记(一)认知进程和线程

    进程 一个程序,如QQ.exe,是程序的集合 一个进程往往可以包含多个线程,至少包含一个 java默认有两个线程,GC垃圾回收线程和Main线程 线程:一个进程中的各个功能 java无法真正的开启线程,因为java是运行在虚拟机上的,所以只能通过C++,通过native本地方法调用C++开启线程

    2024年02月06日
    浏览(55)
  • 迈向通用听觉人工智能!清华电子系、火山语音携手推出认知导向的听觉大语言模型SALMONN

    日前,清华大学电子工程系与火山语音团队携手合作,推出认知导向的开源听觉大语言模型SALMONN (Speech Audio Language Music Open Neural Network)。 大语言模型 SALMONN LOGO 相较于仅仅支持语音输入或非语音音频输入的其他大模型,SALMONN对语音、音频事件、音乐等各类音频输入都具有感知

    2024年02月12日
    浏览(62)
  • 【学习笔记】生成式AI(ChatGPT原理,大型语言模型)

    语言模型 == 文字接龙 ChatGPT在测试阶段是不联网的。 又叫自监督式学习(Self-supervised Learning),得到的模型叫做基石模型(Foundation Model)。在自监督学习中,用一些方式“无痛”生成成对的学习资料。 GPT1 - GPT2 - GPT3 (参数量增加,通过大量网络资料学习,这一过程称为预训

    2024年02月14日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包