您好,欢迎访问三七文档
当前位置:首页 > 办公文档 > 其它办公文档 > 中科院自动化所评测技术报告(SYSTEMII)
CASIA中科院自动化所评测技术报告(SYSTEMII)魏玮于东王韦华宗成庆徐波InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所内容概要技术说明与参评系统短语系统分层短语系统基于依存树到串系统前后处理系统融合CASIA_SYSTEMII英中翻译系统评测环境概要数据总结InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所技术说明-短语系统典型的短语系统[2]非单调解码,任意跳转对数线性模型10个特征双向短语翻译概率p(e/f)和p(f/e)双向词汇化概率l(e/f)和l(f/e)4gram语言模型扭曲概率句子长度惩罚短语惩罚方向概率[3]IBM扭曲模型[4]InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所技术说明-分层短语系统主要借鉴了Wei[5]的基本思想,引入分层短语的概念有效地结合了短语模型和同步上下文无关文法分层短语模型将语序信息包含在模型之中,克服了传统短语翻译的调序问题沿用了统计线性对数方法进行概率计算,使用了如下6个特征:双向短语翻译概率p(e/f)和p(f/e)双向词汇化概率l(e/f)和l(f/e)4gram语言模型句子长度惩罚InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所技术说明-依存树到串系统在源语言端运用依存结构进行统计翻译的新模型:Dependency-StringStructureModel(DSS模型)由于计算资源和时间的限制,参加本次评测的系统仍然沿用和分层短语相同的文法DSS解码算法的输入是一棵树,而不是一个串,所以线图是按照树节点来索引的,而不是按照串中的跨距(span)来建立索引的解码时使用了8个特征,最后两个为依存子树的惩罚双向短语翻译概率p(e/f)和p(f/e)双向词汇化概率l(e/f)和l(f/e)4gram语言模型句子长度惩罚符合依存子树惩罚不符合依存子树惩罚InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所技术说明-前后处理前处理时间,数字处理模块地名,人名,机构名处理模块英文转化为小写预处理•乱码过滤(中文中的乱码、英文中的乱码以及包含中文词的句子)•标点符号及数字变换(中文中的部分标点符号、英文中的双字节符号及数字)•英文缩写处理•中文分词、英文Tokenization后处理大小写转换:未翻译词保留其原始格式格式转换:去除中文中的空格未登录词InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所技术说明-系统融合[6][7]MT1MTm……N-bestN-bestMBR解码器对齐参考GIZA++词对齐GIZA-TER混淆网络CN解码InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所技术说明-外部技术汉语分词工具:计算所开发的ICTCLAS3.0双语词对齐工具:GIZA++语言模型训练工具:SRILM工具包英文词性标注工具:StanfordLog-linearPart-Of-SpeechTagger英文依存树分析工具:Minimum-SpanningTreeParser(MSTparser)InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所参评系统-CASIA_SYSTEMII原始语料CASIA预处理模块LMSRI工具包4-gramLM双语语料GIZA++CASIA短语抽取与概率计算作为InitialPhrase分层短语系统,抽取带变量短语与概率计算转换数据结构,二进制存储转换数据结构,二进制存储多个1-best结果以替代N-best结果多个1-best结果生成1-best构建混淆网络MBR解码器调序模型融合模块短语系统分层短语系统数据过滤依存树到串系统转换数据结构,二进制存储采用和分层短语相同的文法解码算法输入是树,线图按照树节点来索引多个1-best结果以替代N-best结果源语言依存句法分析InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所评测环境概要软硬件环境运行时间(约4000句测试集)运行平台操作系统数量CPURAMPC机Windows20032Pentium4,3.0G2.0G服务器Linux(Ubuntu)1Xeon2.0×216.0G系统新闻领域(小时)科技领域(小时)短语系统16分层短语2018依存树到串1816InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所数据开发数据:新闻-2007SSMT英中翻译测试集科技-CWMT08提供的Special语料中随机挑选200句翻译模型训练数据:新闻-CWMT08提供的Common,约85万句对和;NISTMT08评测提供语料,大约670万句对科技-CWMT08提供的Special部分语料,约52万句对;NISTMT08评测提供语料,大约670万句对语言模型训练数据:LDC2007T38提供的ChineseGigawordThirdEdition,约3900万句InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所数据过滤过滤的原则:根据LDC语料中的当前句对中的所有词汇是否在发布的训练语料词汇集合中(周玉)新闻领域将NIST语料根据新闻任务发布的训练语料进行过滤翻译模型最后使用的语料为538万句对科技领域将NIST语料根据科技任务发布的训练语料进行过滤的翻译模型最后使用的语料为468万句对语言模型也同样使用了过滤技术,最后过滤剩余1000万句InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所测试结果新闻领域采用基于MBR解码和混淆网络解码的多系统融合策略,融合6个结果3个来自于基于分层短语的翻译系统(HPB)3个来自于基于依存树到串的翻译系统(DHPB)InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所测试结果科技领域采用基于MBR解码和混淆网络解码的多系统融合策略,融合6个结果2个来自于基于分层短语的翻译系统(HPB)2个来自于基于依存树到串的翻译系统(DHPB)2个来自于基于短语的系统(PB)InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所总结新闻领域借鉴了汉英评测的经验,加入了英文命名实体翻译及前后处理模块;并且针对英文的特点,在解码中融入句法分析树,在不增加时空复杂度的前提下提高了翻译质量科技领域由于缺乏这方面的语料资源,我们只能借用新闻领域的语料,利用数据过滤技术得到相关资源但由于在选取开发集时,其规模和相关性受到制约,所以最后的参数训练并不能有效得收敛到最优如何能够充分利用有限的资源,开发出更加鲁棒的训练及解码算法,是我们下一步要思考的问题InstituteofAutomation,ChineseAcademyofSciences中国科学院自动化所参考文献[1]中科院自动化所评测技术报告(SYSTEMII),第四届机器翻译研讨会,2008[2]WeiWei,WeiPang,ZhendongYang,ZhenbiaoChen,ChengqingZong,BoXu.CASIASMTSystemforTC-STAREvaluationCampaign2006.In:TC-STARworkshop,2006.[3]YaserAl-Onaizan,KishorePapineni.Proceedingsofthe21stInternationalConferenceonComputationalLinguisticsandthe44thannualmeetingoftheACLACL'06[4]PhilippKoehn,etal.EdinburghSystemDescriptionforthe2005IWSLTSpeechTranslationEvaluation,InternationalWorkshoponSpokenLanguageTranslation2005.[5]魏玮,杜金华,徐波,基于组块分析的分层短语系统,第九届计算语言学年会,2007[6]K.C.Sim,W.Byrne,M.Gales,H.SahbiandP.Woodland.ConsensusNetworkDecodingForStatisticalMachineTranslationSystem[A].In:ICASSP,2007.[7]杜金华,魏玮,杨振东,徐波.基于混淆网络的统计机器翻译多系统融合技术研究.第三届统计机器翻译研讨会,2007.CASIA谢谢
本文标题:中科院自动化所评测技术报告(SYSTEMII)
链接地址:https://www.777doc.com/doc-14507 .html