基于人工神经网络的机器翻译

基于人工神经网络的机器翻译

作者:许罗迈

出版社:科学出版社

出版年:2007-06-01

评分:5分

ISBN:9787030189813

所属分类:网络科技

书刊介绍

基于人工神经网络的机器翻译 内容简介

基于语料库统计的机器翻译模式把机器翻译分为翻译模式和语言模式两种处理过程,作者尝试把人工神经网络技术应用于两种模式的处理,使之应用于机器翻译的全过程,是一项创造性工作,作者采用神经元自学习的方法,从少量实例开始,系统通过自学习建立机器词库和对应的译文,本研究实验证明对于确定的领域,该系统可以输出相当通顺的目的语,这种用分布式神经网络体系解决翻译模式的训练,较好地解决了单一网络学习能力有限的问题,对神经网络语言处理技术开发了新思路,有相当意义。
作者在应用神经网络处理语言模式方面,也提出了新的解决方案,改变了以往神经网络以复杂句法、语义特征为训练对象的普遍做法,采用词性标注为训练对象,以自创的一套词语移动符号基为训练目标的神经网络处理方法,是一种独特的处理方法,虽然作者指出这种方法未能得到预期的结果,但是如果能够如作者提出的把分布式神经网络体系也用于语言模式的训练,这种独特的方法成败与否还未可知。

基于人工神经网络的机器翻译 本书特色

本论文研究的是机器翻译,而且探索摆脱基于符号系统的机器翻译和基于语料库统计的机器翻译模式,在机器翻译中应用人工神经网络的技术,具有开创性的意义,作者提出用分布式神经网络体系解决翻译模式的训练,以解决单一网络学习能力有限的问题,对神经网络语言处理技术开发了新思路,颇发人深思。

基于人工神经网络的机器翻译 目录


preface
acknowledgements
chapteroneprologue
chaptertwomtstateoftheart
2.1mtassymbolicsystems
2.2practicalmt
2.3alternativetechniqueofmt
2.3.1theoreticalfoundation
2.3.2translationmodel
2.3.3languagemodel
2.4discussion
chapterthreeconnectionistsolutions
3.1nlpmodels
3.2representation
3.3phonologicalprocessing
3.4learningverbpasttense
3.5partofspeechtagging
3.6chinesecollocationlearning
3.7syntacticparsing
3.7.1learningactive/passivetransformation
3.7.2confluentpreorderparsing
3.7.3parsingwithfiatstructures
3.7.4parsingembeddedclauses
3.7.5parsingwithdeeperstructures
3.8discourseanalysis
3.8.1storygestaltandtextunderstanding
3.8.2processingstorieswithscripturalknowledge
3.9machinetranslation
3.10conclusion
chapterfourneurotransdesignconsiderations
4.1scalabilityandextensibility
4.2transferorinterlingual
4.3hybridorfullyconnectionist
4.4theuseoflinguisticknowledge
4.5translationasatwostageprocess
4.6selectionofnetworkmodels
4.7connectionistimplementation
4.8connectionistrepresentationissues
4.9conclusion
chapterfiveaneurallexiconmodel
5.1languagedata
5.2knowledgerepresentation
5.2.1symbolicapproach
5.2.2thestatisticalapproach
5.2.3connectionistapproach
5.2.4neurotrans'input/outputrepresentation
5.2.5neurotrans'lexiconrepresentation
5.3implementingtheneurallexicon
5.3.1wordsincontext
5.3.2contextwithweights
5.3.3detailsofalgorithm
5.3.4theneurallexiconbuilder
5.4training
5.4.1samplepreparation
5.4.2trainingresults
5.4.3generalizationtest
5.5discussion
5.5.1adequacy
5.5.2scalabilityandextensibility
5.5.3efficiency
5.5.4weaknesses
chaptersiximplementingthelanguagemodel
6.1overview
6.2design
6.2.1redefiningthegenerationproblem
6.2.2definingjumbleactivity
6.2.3languagemodelstructure
6.3implementation
6.3.1networkstructuresamplingtrainingandresults
6.3.2generalizationtest
6.4discussion
6.4.1insufficientdata
6.4.2informationrichness
6.4.3insufficientcontextualinformation
6.4.4distributedlanguagemodel
chaptersevenconclusion
chaptereightreferences
index

相关推荐

微信二维码