On the Properties of Neural Machine Translation: Encoder–DecoderApproaches

这篇具有很好参考价值的文章主要介绍了On the Properties of Neural Machine Translation: Encoder–DecoderApproaches。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

摘要

Neural machine translation : 神经机器翻译

神经机器翻译模型经常包含编码器和解码器:an encoder and a decoder.

编码器: 从一个变长输入序列中提取固定长度的表示。a fixed-length representation.

解码器:从表示中生成一个正确的翻译。generates a correct translation

本文使用模型: RNN Encoder–Decoder、

     a newly proposed gated recursive convolutional neural network (门递归卷积神经网络)

 a grammatical structure 语法结构

介绍

问题:

it is crucial to understand the properties and behavior of this new neural machine translation approach in order to determine future research directions. Also, understanding the weaknesses and strengths of neural machine translation might lead to better ways of integrating SMT and neural machine translation systems

变长序列神经网络:

循环神经网络、门递归卷积神经网咯

RNN更新:

On the Properties of Neural Machine Translation: Encoder–DecoderApproaches,论文写作思路总结,机器翻译,人工智能,自然语言处理

RNN序列可以有效的学习一个概率分布:

On the Properties of Neural Machine Translation: Encoder–DecoderApproaches,论文写作思路总结,机器翻译,人工智能,自然语言处理

Gated Recursive Convolutional Neural Network 

On the Properties of Neural Machine Translation: Encoder–DecoderApproaches,论文写作思路总结,机器翻译,人工智能,自然语言处理

 

Purely Neural Machine Translation

编码器和解码器方法

实验

数据集: English-to-French translation.

模型:

两个模型的共同点:an RNN with gated hidden units as a decoder

优化算法:minibatch stochastic gradient descent with AdaDelta

使用beam-search去发现最大化条件概率分布。

结果和分析

the BLEU score 作为评价指标。

the fixed-length vector representation does not have enough capacity to encode a long sentence with complicated structure and meaning

固定长度的向量表示并没有足够的能力去编码一个包含复杂语义信息的长句子

感悟

需要彻底理解以下条件概率分布以及RNN网络的数学推导。研读论文需要注意以下其算法原理。以及评价指标。文章来源地址https://www.toymoban.com/news/detail-533255.html

到了这里,关于On the Properties of Neural Machine Translation: Encoder–DecoderApproaches的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • vue3 Error on Cannot read properties of null (reading ‘insertBefore‘)报错无法正常显示,解决办法。

    本地启动时,页面所有操作正常,显示正常;部署到生产环境后,数据驱动DOM变化的操作会导致如下报错。 Cannot read properties of null (reading \\\'insertBefore\\\') 这个错误,导致页面显示出现异常,无法正常显示。 模板渲染导致无法找到,可能的原因有以下三个: v-if 导致:(使用 v-s

    2024年02月12日
    浏览(47)
  • [Vue warn]: Error in v-on handler: “TypeError: Cannot read properties of undefined (reading ‘$refs‘)

    报错: [Vue warn]: Error in v-on handler: \\\"TypeError: Cannot read properties of undefined (reading \\\'$refs\\\')\\\"   背景: 1.在做vue项目时,在功能弹框中,想实现新增内容。              2. 报错原因是要触发menuCheckall组件后,才可以提交,因为不触发menuCheckall的时候dom未加载, 没有编译渲染进dom里

    2024年01月18日
    浏览(33)
  • 论文笔记|OUTRAGEOUSLY LARGE NEURAL NETWORKS- THE SPARSELY-GATED MIXTURE-OF-EXPERTS LAYER

    ICLR 2017 神经网络吸收信息的能力受到其参数数量的限制。条件计算,即网络的某些部分在每个示例的基础上处于活动状态,在理论上已被提出作为一种在不按比例增加计算量的情况下大幅增加模型容量的方法。然而,在实践中,存在重大的算法和性能挑战。在这项工作中,我

    2024年02月01日
    浏览(39)
  • 论文阅读|OUTRAGEOUSLY LARGE NEURAL NETWORKS- THE SPARSELY-GATED MIXTURE-OF-EXPERTS LAYER

    ICLR 2017 神经网络吸收信息的能力受到其参数数量的限制。条件计算,即网络的某些部分在每个示例的基础上处于活动状态,在理论上已被提出作为一种在不按比例增加计算量的情况下大幅增加模型容量的方法。然而,在实践中,存在重大的算法和性能挑战。在这项工作中,我

    2024年02月02日
    浏览(27)
  • SeamlessM4T—Massively Multilingual & Multimodal Machine Translation

    本文是LLM系列的文章,针对《SeamlessM4T—Massively Multilingual Multimodal Machine Translation》的翻译。 如何创建Babel Fish,一个可以帮助个人在任何两种语言之间翻译语音的工具?虽然最近在基于文本的模型方面的突破已经将机器翻译的覆盖范围推到了200多种语言之外,但统一的语音到

    2024年02月10日
    浏览(28)
  • 【iOS】This operation can fail if the version of the OS on the device is incompatible

    Failed to prepare device for development. This operation can fail if the version of the OS on the device is incompatible with the installed version of Xcode. You may also need to restart your mac and device in order to correctly detect compatibility. 未能为开发准备设备。 如果设备上的操作系统版本与安装的 Xcode 版本不兼容,此操作

    2024年02月11日
    浏览(91)
  • 论文笔记:Evaluating the Performance of Large Language Models on GAOKAO Benchmark

    采用zero-shot prompting的方式,将试题转化为ChatGPT的输入 对于数学题,将公式转化为latex输入  主观题由专业教师打分 2010~2022年,一共13年间的全国A卷和全国B卷

    2024年03月15日
    浏览(42)
  • Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond

    LLM的系列文章,针对《Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond》的翻译。 本文为从事大型语言模型(LLM)下游自然语言处理(NLP)任务的从业者和最终用户提供了一份全面而实用的指南。我们从模型、数据和下游任务的角度对LLM的使用进行了讨论和见解。首先

    2024年02月16日
    浏览(30)
  • 【论文精读】Harnessing the Power of LLMs in Practice: A Survey on ChatGPT and Beyond

    一篇大规模语言模型的指南,指南介绍详细且会随着大模型的发展不断更新,相信初入大模型的朋友一定能有所收获。 本文为LLM的从业者或者其下游任务用户提供了一个全面而实用的指南。首先对现有的LLM进行介绍和总结,其次讨论了预训练数据、训练数据和测试数据的影响

    2024年02月05日
    浏览(40)
  • 论文精读:关于不确定性校准的mixup陷阱(On the Pitfall of Mixup for Uncertainty Calibration)

    对于一个样本 ((x_i,y_i)) ,将其与另一个样本 ((x_j,y_j)) 混合: [begin{aligned}tilde{x}_i = lambda x_i + (1-lambda)x_j, \\\\tilde{y}_i = lambda y_i + (1-lambda)y_j,end{aligned}tag{1}] 其中 (lambda) 采样于Beta(α,α),α0,j采样于Uniform([n]),n为数据集大小。 Mixup是一种线性插值的数据增强,由于其

    2024年03月09日
    浏览(31)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包