神经机器翻译(NMT)
神经机器翻译(Neural Machine Translation, NMT)是一种先进的自然语言处理技术,它利用深度学习中的神经网络架构来实现自动化的源语言到目标语言的翻译。与传统的统计机器翻译(Statistical Machine Translation, SMT)相比,NMT具有以下特点和优势...
神经机器翻译的Subword技术
神经网络机器翻译(NMT)是目前最先进的机器翻译技术,通过神经网络的处理可以产生流畅的翻译。然而非机器翻译模型受到词汇外问题和罕见词问题的影响,导致翻译质量下降。OOV词是语料库中未出现的词,而rare词是语料库中出现次数很少的词。在翻译这些未知单词时,这些单词将被替换为无用的标记。因此,这些无意义的符号破坏了句子结构...
在PyTorch中使用Seq2Seq构建的神经机器翻译模型(三)
9.Seq2Seq(编码器+解码器)代码实现class Seq2Seq(nn.Module): def __init__(self, Encoder_LSTM, Decoder_LSTM): super(Seq2Seq, self).__init__() self.Encoder_LSTM = Encoder_LSTM se...
在PyTorch中使用Seq2Seq构建的神经机器翻译模型(二)
4.编码器模型架构(Seq2Seq)在开始构建seq2seq模型之前,我们需要创建一个Encoder,Decoder,并在seq2seq模型中创建它们之间的接口。让我们通过德语输入序列“ Ich Liebe Tief Lernen”,该序列翻译成英语“ I love deep learning”。LSTM编码器体...
在PyTorch中使用Seq2Seq构建的神经机器翻译模型
1.介绍神经机器翻译(NMT)是一种机器翻译方法,它使用人工神经网络来预测一个单词序列的可能性,通常在一个单一的集成模型中建模整个句子。对于计算机来说,用一个简单的基于规则的系统从一种语言转换成另一种语言是最困难的问题之一,因为它们无法捕捉到过程中的细微差别。不久之后,我们开始使用统计模型,但在进入深度学习之后&...
NLP教程(6) - 神经机器翻译、seq2seq与注意力机制
作者:韩信子@ShowMeAI教程地址:http://www.showmeai.tech/tutorials/36本文地址:http://www.showmeai.tech/article-detail/242声明:版权所有,转载请联系平台与作者并注明出处收藏ShowMeAI查看更多精彩内容本系列为斯坦福CS224n《自然语言处理与深度学习(Natural Language Processing....
J Cheminform.|基于子结构的神经机器翻译用于逆合成预测
随着机器翻译方法的快速改进,神经机器翻译已经开始在逆合成设计中发挥重要作用,为目标分子找到合理的合成路径。以往的研究表明,利用神经机器翻译的序列到序列框架是解决逆合成设计问题的一种有前途的方法。这项工作中,研究人员使用一个无模板的序列到序列的模型将逆合成设计问题重构为语言翻译问题。该模型是以端到端和完全数据驱动的方式进行训练。与之前翻译反应...
基于注意力机制,机器之心带你理解与训练神经机器翻译系统
自去年 6 月份「Attention is All You Need」发表以来,Transformer 受到越来越多的关注。它除了能显著提升翻译质量,同时还为很多 NLP 任务提供了新的架构。这篇论文放弃了传统基于 RNN 或 CNN 的深度架构,并只保留了注意力(Attentaion)机制,虽然原论文在这一方面...
INTERFACE | 从技术到产品,搜狗为我们解读了神经机器翻译的现状
在深度学习快速发展的今天,机器翻译系统的能力究竟达到了什么样的水平?机器翻译是否已经可以代替人类翻译?3 月 17 日,机器之心与搜狗共同举办的 INTERFACE 线下分享中,搜狗语音交互技术中心研发总监陈伟、搜狗 IOT 事业部产品负责人李健涛,从技术和产品两个方面为我们回答了这些令人感兴趣的问题...
【论文推荐】最新十篇机器翻译相关论文 - 自适应机器翻译综述,结构化预测,双向神经机器翻译,图编解码模型,英日机器翻,上下文感知
10. 普通话中基于音节的序列 - 序列语音识别的基于音节的序列 - 序列语音识别 作者:周世宇,林浩东,许旭,许波 由INTERSPEECH2018接受 机构:中国科学院大学 摘要:基于序列注意的模型最近在自动语音识别(ASR)任务中显示出非常有希望的结果,该任务将声学,发音和语言模型集成到单个神经网络中。在这些模型中,Transformer是一种新型的基于序列到序列注意的模型,完全依赖于自我....
本页面内关键词为智能算法引擎基于机器学习所生成,如有任何问题,可在页面下方点击"联系我们"与我们沟通。