- 无标题文档
查看论文信息

中文题名:

 基于LSTM的德英文翻译    

姓名:

 郑睿    

保密级别:

 公开    

论文语种:

 chi    

学科代码:

 070101    

学科专业:

 数学与应用数学    

学生类型:

 学士    

学位:

 理学学士    

学位年度:

 2023    

校区:

 北京校区培养    

学院:

 数学科学学院    

第一导师姓名:

 王发强    

第一导师单位:

 数学科学学院    

提交日期:

 2023-06-20    

答辩日期:

 2023-05-16    

外文题名:

 LSTM based on German-English translation    

中文关键词:

 机器翻译 ; LSTM ; Pytorch ; 注意力机制    

外文关键词:

 machine translation ; LSTM ; Pytorch ; attention    

中文摘要:

文章结合机器翻译发展历程,着重关注了语境上下文信息在翻译过程中由于依赖关系而丢失这一问题,首先,探究了LSTM神经网络模型及其相关变种模型,建立了机器翻译编码器-解码器框架;接着,在Multi30K数据集上使用Pytorch深度学习框架实现了德文到英文的机器翻译功能;然后,采用BLEU评分作为模型评价指标,对比了LSTM与GRU等相关模型的实验结果。实验结果表明,LSTM模型在机器翻译中表现优越,并且在不同任务场景下需要考虑选择不同的模型。最后,总结了实验并指出引入注意力机制作为LSTM模型的改进方法。

外文摘要:

The article combines the development history of machine translation and focuses on the issue of the loss of contextual information due to dependency during the translation process. Firstly, the LSTM neural network model and its related variants are explored, and a machine translation encoder-decoder framework is established. Secondly, the Pytorch deep learning framework is used to implement the machine translation function from German to English on the Multi30K dataset. Then, using BLEU score as the evaluation metric, the experimental results of LSTM and GRU models were compared. The experiment showed that in machine translation, the LSTM model performed better, and different models should be selected for different task scenarios. Finally, the experiments are summarized and the attention mechanism is proposed as an improvement method for the LSTM model.

参考文献总数:

 16    

馆藏号:

 本070101/23229    

开放日期:

 2024-06-24    

无标题文档

   建议浏览器: 谷歌 360请用极速模式,双核浏览器请用极速模式