一种机器与人工翻译相融合的口语翻译方法

文档序号:115961 发布日期:2021-10-19 浏览:34次 >En<

阅读说明:本技术 一种机器与人工翻译相融合的口语翻译方法 (Spoken language translation method integrating machine translation and manual translation ) 是由 杜金林 于 2021-03-11 设计创作,主要内容包括:本发明提供一种机器与人工翻译相融合的口语翻译方法。所述机器与人工翻译相融合的口语翻译方法包括以下步骤:S1:获取待识别语音数据,对语音数据进行语种识别并确定语种类型;S2:对所述语音数据进行识别并进行断句,得到以句子为单位的输入文本;S3:建立机器翻译模型,将所述输入文本带入所述机器翻译模型进行翻译并得到机器翻译结果;S4:对所述机器翻译结果进行置信度打分;S5:由人工翻译所输入文本获得人工翻译结果并进行质量评估;S6:根据所述机器翻译结果的翻译置信度评估以及所述人工翻译结果的质量评估。本发明提供的机器与人工翻译相融合的口语翻译方法具有语种覆盖面广、翻译时考虑外部世界场景信息因素、翻译准确率高的优点。(The invention provides a spoken language translation method integrating machine translation and manual translation. The spoken language translation method with the machine and the manual translation fused comprises the following steps: s1: acquiring voice data to be recognized, performing language recognition on the voice data and determining language types; s2: recognizing the voice data and carrying out sentence segmentation to obtain an input text taking a sentence as a unit; s3: establishing a machine translation model, bringing the input text into the machine translation model for translation and obtaining a machine translation result; s4: scoring a confidence level of the machine translation result; s5: manually translating the input text to obtain a manual translation result and carrying out quality evaluation; s6: and evaluating the translation confidence of the machine translation result and evaluating the quality of the manual translation result. The oral translation method with the machine and manual translation integrated has the advantages of wide language coverage, consideration of external world scene information factors during translation and high translation accuracy.)

一种机器与人工翻译相融合的口语翻译方法

技术领域

本发明涉及翻译技术领域,尤其涉及一种机器与人工翻译相融合的口语翻译方法。

背景技术

翻译是在准确(信)、通顺(达)、优美(雅)的基础上,把一种语言信息转变成另一种语言信息的行为。翻译是将一种相对陌生的表达方式,转换成相对熟悉的表达方式的过程。其内容有语言、文字、图形、符号和视频翻译。其中,在甲语和乙语中,“翻”是指的这两种语言的转换,即先把一句甲语转换为一句乙语,然后再把一句乙语转换为甲语;“译”是指这两种语言转换的过程,把甲语转换成乙语,在译成当地语言文字的过程中,进而明白乙语的含义。二者构成了一般意义上的翻译,让更多人了解其他语言的含义。

随着科学的进步,语音自动翻译技术在人们的生活中越来越普及,但目前口语翻译的主要困难在于:

1、在口语对话、网络聊天等真实场景中,输入的句子往往缺乏规范性,很难扑捉其内在的语法结构信息,造成统计翻译的结果较生硬、稳定性差等问题;

2、统计机器翻译是以数据驱动的,其赖以生存的根基是双语数据资源;而在当前的数据积累中,面向口语的双语语料(中英)相当匮乏。因此目前,完全依赖统计方法的口语翻译系统并不能完全满足人们日常生活的广泛需求;

3、口语翻译有别于文本翻译,其主要完成不同语言的人群的交流问题,因此其对翻译的实时性要求高,尤其在网络环境下如何优化翻译流程是提高用户体验的关键。

因此,有必要提供一种新的机器与人工翻译相融合的口语翻译方法解决上述技术问题。

发明内容

本发明解决的技术问题是提供一种语种覆盖面广、翻译时考虑外部世界场景信息因素、翻译准确率高的机器与人工翻译相融合的口语翻译方法。

为解决上述技术问题,本发明提供的机器与人工翻译相融合的口语翻译方法包括以下步骤:

S1:获取待识别语音数据,对语音数据进行语种识别并确定语种类型;

S2:对所述语音数据进行识别并进行断句,得到以句子为单位的输入文本;

S3:建立机器翻译模型,将所述输入文本带入所述机器翻译模型进行翻译并得到机器翻译结果;

S4:对所述机器翻译结果进行置信度打分;

S5:由人工翻译所输入文本获得人工翻译结果并进行质量评估;

S6:根据所述机器翻译结果的翻译置信度评估以及所述人工翻译结果的质量评估,采用语音合成的方法将评估较好的翻译结果生成韵律可调的语音输出。

优选的,所述步骤S1的具体步骤如下:

S101:从所述待识别语音数据提取音频频域特征;

S102:基于所述音频频域特征,对所述待识别音频数据进行声伴数据分离,得到待识别语音数据,其中,所述声伴数据分离为从音频数据中分离出语音数据和伴奏数据;

S103:对所述待识别语音数据进行语种识别,得到所述待识别音频数据的语种识别结果。

优选的,所述步骤S102具体包括:基于所述音频频域特征,通过声伴分离模型获取音频深度特征;基于所述音频深度特征,通过所述声伴分离模型获取第一语音数据特征以及第一伴奏数据特征;基于所述第一语音数据特征,通过所述声伴分离模型获取第二语音数据特征;根据所述第二语音数据特征获取所述待识别语音数据,其中,所述待识别语音数据属于音频时域信号。

优选的,所述步骤S4中采用基于层次短语的统计方法的机器翻译系统,输出包含置信度度量的翻译结果,其具体过程包括:

从双语语料库中抽取海量对齐短语片断,作为知识源储存在存储介质上,对语音识别出的输入文本利用搜索算法匹配短语片段并组合成要翻译的目标语句;并且融合基于强制对齐模型参数训练的置信度计算方法,为每个目标语句生成置信度分数。

优选的,所述步骤S2中将语音数据为单元输入的连续语音以韵律为主要特征进行切分断句,并结合语音的自动识别、标点符号的自动添加进行断句切分,且在不损失识别率的前提条件下进行。

优选的,在执行步骤S4之前还需要如下判断:计算输入文本的复杂度,并结合用户的类别确定是否需要人工翻译。

优选的,所述步骤S3中的翻译模型是根据外部世界场景信息建立的。

优选的,所述机器翻译模型的建立包括以下步骤:

S301:获取外部世界场景信息;

S302:建立语言模型以及建立短语翻译模型,所述语言模型和所述短语翻译模型均是根据所述外部世界场景信息建立的;

根据所述语言模型和所述短语翻译模型建立所述机器翻译模型。

优选的,所述建立语言模型的具体步骤包括:

根据所述外部世界场景信息建立基于外部世界场景信息的语言模型,以及获取传统的语言模型,根据所述基于外部世界场景信息的语言模型和所述传统的语言模型,确定用于建立机器翻译模型的语言模型。

优选的,所述根据所述基于外部世界场景信息的语言模型和所述传统的语言模型,确定用于建立机器翻译模型的语言模型,包括:对所述基于外部世界场景信息的语言模型和所述传统的语言模型进行线性对数处理,将线性对数处理后的模型确定为用于建立机器翻译模型的语言模型。

与相关技术相比较,本发明提供的机器与人工翻译相融合的口语翻译方法具有如下有益效果:

本发明提供一种机器与人工翻译相融合的口语翻译方法,可识别多个语种,翻译覆盖面更广;语音合成将不同翻译方法的结果都稳定得输出为包含情感的语音,能够很好的解决语音翻译中的实时沟通问题;还通过采用基于外部世界场景信息确定的机器翻译模型进行翻译,可以在翻译时考虑外部世界场景信息因素,得到更符合外部世界场景的翻译结合,提高翻译结果的准确度。

具体实施方式

下面结合实施方式对本发明作进一步说明。

一种机器与人工翻译相融合的口语翻译方法包括以下步骤:

S1:获取待识别语音数据,对语音数据进行语种识别并确定语种类型;

S2:对所述语音数据进行识别并进行断句,得到以句子为单位的输入文本;

S3:建立机器翻译模型,将所述输入文本带入所述机器翻译模型进行翻译并得到机器翻译结果;

S4:对所述机器翻译结果进行置信度打分;

S5:由人工翻译所输入文本获得人工翻译结果并进行质量评估;

S6:根据所述机器翻译结果的翻译置信度评估以及所述人工翻译结果的质量评估,采用语音合成的方法将评估较好的翻译结果生成韵律可调的语音输出。

所述步骤S1的具体步骤如下:

S101:从所述待识别语音数据提取音频频域特征;

S102:基于所述音频频域特征,对所述待识别音频数据进行声伴数据分离,得到待识别语音数据,其中,所述声伴数据分离为从音频数据中分离出语音数据和伴奏数据;

S103:对所述待识别语音数据进行语种识别,得到所述待识别音频数据的语种识别结果。

3、根据权利要求2所述的机器与人工翻译相融合的口语翻译方法,其特征在于,所述步骤S102具体包括:基于所述音频频域特征,通过声伴分离模型获取音频深度特征;基于所述音频深度特征,通过所述声伴分离模型获取第一语音数据特征以及第一伴奏数据特征;基于所述第一语音数据特征,通过所述声伴分离模型获取第二语音数据特征;根据所述第二语音数据特征获取所述待识别语音数据,其中,所述待识别语音数据属于音频时域信号。

所述步骤S4中采用基于层次短语的统计方法的机器翻译系统,输出包含置信度度量的翻译结果,其具体过程包括:

从双语语料库中抽取海量对齐短语片断,作为知识源储存在存储介质上,对语音识别出的输入文本利用搜索算法匹配短语片段并组合成要翻译的目标语句;并且融合基于强制对齐模型参数训练的置信度计算方法,为每个目标语句生成置信度分数。

所述步骤S2中将语音数据为单元输入的连续语音以韵律为主要特征进行切分断句,并结合语音的自动识别、标点符号的自动添加进行断句切分,且在不损失识别率的前提条件下进行。

在执行步骤S4之前还需要如下判断:计算输入文本的复杂度,并结合用户的类别确定是否需要人工翻译。

所述步骤S3中的翻译模型是根据外部世界场景信息建立的。

所述机器翻译模型的建立包括以下步骤:

S301:获取外部世界场景信息;

S302:建立语言模型以及建立短语翻译模型,所述语言模型和所述短语翻译模型均是根据所述外部世界场景信息建立的;

根据所述语言模型和所述短语翻译模型建立所述机器翻译模型。

所述建立语言模型的具体步骤包括:

根据所述外部世界场景信息建立基于外部世界场景信息的语言模型,以及获取传统的语言模型,根据所述基于外部世界场景信息的语言模型和所述传统的语言模型,确定用于建立机器翻译模型的语言模型。

所述根据所述基于外部世界场景信息的语言模型和所述传统的语言模型,确定用于建立机器翻译模型的语言模型,包括:对所述基于外部世界场景信息的语言模型和所述传统的语言模型进行线性对数处理,将线性对数处理后的模型确定为用于建立机器翻译模型的语言模型。

与相关技术相比较,本发明提供的机器与人工翻译相融合的口语翻译方法具有如下有益效果:

本发明提供一种机器与人工翻译相融合的口语翻译方法,可识别多个语种,翻译覆盖面更广;语音合成将不同翻译方法的结果都稳定得输出为包含情感的语音,能够很好的解决语音翻译中的实时沟通问题;还通过采用基于外部世界场景信息确定的机器翻译模型进行翻译,可以在翻译时考虑外部世界场景信息因素,得到更符合外部世界场景的翻译结合,提高翻译结果的准确度。

以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

7页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种基于BART模型的正则表达式描述生成方法

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!