翻译处理方法、装置、设备及介质

文档序号:191281 发布日期:2021-11-02 浏览:21次 >En<

阅读说明:本技术 翻译处理方法、装置、设备及介质 (Translation processing method, device, equipment and medium ) 是由 孙泽维 王明轩 李磊 于 2021-08-03 设计创作,主要内容包括:本公开实施例涉及一种翻译处理方法、装置、设备及介质,其中该方法包括:根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据各语言的单语语料库生成多语言生成模型;将多语言表示模型和多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;根据多种语言中的双语语料库训练目标模型生成第二翻译模型,根据第二翻译模型对待处理的目标信息进行翻译处理。本公开实施例中,多语言表示模型能够更精准地提取待翻译的语句特征,多语言生成模型能够更准确的预测后续待翻译的语句。因而,第二翻译模型由于拼接了多语言表示模型和多语言生成模型,提升了翻译的精准性,从而提高了翻译质量。(The embodiment of the disclosure relates to a translation processing method, a translation processing device, translation processing equipment and a translation processing medium, wherein the method comprises the following steps: training and generating a multilingual representation model according to a monolingual corpus of each language in a plurality of languages, and generating a multilingual generation model according to the monolingual corpus of each language; splicing the multi-language representation model and the multi-language generation model with the first translation model respectively to generate a target model to be trained; and training the target model according to the bilingual corpus in the multiple languages to generate a second translation model, and translating the target information to be processed according to the second translation model. In the embodiment of the disclosure, the multi-language representation model can more accurately extract the characteristics of the sentences to be translated, and the multi-language generation model can more accurately predict the subsequent sentences to be translated. Therefore, the second translation model improves the translation accuracy and improves the translation quality due to the fact that the multi-language representation model and the multi-language generation model are spliced.)

翻译处理方法、装置、设备及介质

技术领域

本公开涉及深度学习技术领域,尤其涉及一种翻译处理方法、装置、设备及介质。

背景技术

随着深度学习技术的发展,可以通过深度学习技术,使用翻译模型进行自然语言的翻译,然而,现有的翻译模型生成的语句在精确性方面仍存在不足。

因而,提升翻译模型生成的翻译语句的精准性,从而提升翻译质量,是目前亟待解决的问题。

发明内容

为了解决上述技术问题或者至少部分地解决上述技术问题,本公开提供了一种翻译处理方法、装置、设备及介质。

第一方面,本公开提供了一种翻译处理方法,所述方法包括:

根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据所述各语言的单语语料库生成多语言生成模型;

将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;

根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,根据所述第二翻译模型对待处理的目标信息进行翻译处理。

一种可选的实施方式中,所述根据多种语言中各语言的单语语料库训练生成多语言表示模型,包括:

获取所述各语言的单语语料库中的语料包含空缺槽位信息,并获取标注的与所述空缺槽位信息对应的填补信息;

根据所述包含空缺槽位信息的单语语料和对应的所述填补信息的语料,以及预设的第一损失函数训练预设模型的模型参数生成所述多语言表示模型。

一种可选的实施方式中,所述根据所述各语言的单语语料库生成多语言生成模型,包括:

获取所述各语言的单语语料库中的语料包含预测的下一个槽位信息,并获取标注的与所述预测的下一个槽位信息对应的预测信息;

根据所述包含所述预测的下一个槽位信息的单语语料和对应的所述预测信息的语料,以及预设的第二损失函数训练预设模型的模型参数生成所述多语言生成模型。

一种可选的实施方式中,所述多语言表示模型包含一个或者多个表示子层级联,其中,每个所述表示子层包括:自注意力层与前馈网络层连接。

一种可选的实施方式中,所述多语言生成模型包含一个或者多个生成子层级联,其中,每个所述生成子层包括:自注意力层与前馈网络层连接。

一种可选的实施方式中,所述第一翻译模型包括编码器、解码器和输出层,其中,

所述编码器包括:一个或者多个编码子层级联,其中,每个所述编码子层包括:自注意力层与前馈网络层连接;

所述解码器包括一个或者多个解码子层级联,其中,每个所述解码子层包括:自注意力层与跨语言注意力层连接,所述跨语言注意力层和前馈网络连接,

其中,最后一个所述编码子层中的前馈网络层与最后一个所述解码子层中的跨语言注意力层连接。

一种可选的实施方式中,所述将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型,包括:

将所述多语言表示模型中最后一个所述表示子层中的前馈网络层与所述编码器中第一个所述编码子层中的自注意力层连接,以及

将所述多语言生成模型中最后一个所述生成子层中的前馈网络层与所述解码器中第一个所述解码子层的自注意力层连接,以及将所述多语言生成模型与所述输出层连接,生成待训练的目标模型。

一种可选的实施方式中,所述根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,包括:

根据所述多种语言中的双语语料库以及预设的第三损失函数训练所述目标模型中所述多语言表示模型和所述第一翻译模型的模型参数;

根据训练后所述多语言表示模型和所述第一翻译模型的模型参数和训练前所述多语言生成模型的模型参数生成第二翻译模型。

第二方面,本公开提供了一种翻译处理装置,所述装置包括:

第一生成模块,用于根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据所述各语言的单语语料库生成多语言生成模型;

第二生成模块,用于将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;

第三生成模块,用于根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,根据所述第二翻译模型对待处理的目标信息进行翻译处理。

第三方面,本公开提供了一种计算机可读存储介质,所述计算机可读存储介质中存储有指令,当所述指令在终端设备上运行时,使得所述终端设备实现上述的方法。

第四方面,本公开提供了一种电子设备,所述电子设备包括:处理器;用于存储所述处理器可执行指令的存储器;所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现上述的方法。

第五方面,本公开提供了一种计算机程序产品,所述计算机程序产品包括计算机程序/指令,所述计算机程序/指令被处理器执行时实现上述的方法。

本公开实施例提供的技术方案与现有技术相比具有如下优点:

本公开实施例中,使用多种语言的单语语料对模型进行训练,增强了模型处理不同语种的语料的能力,经过训练后的多语言表示模型生成的向量可以更精准地提取待翻译的语句特征,更准确表示待翻译语句的语义,经过训练后的多语言生成模型能够更准确地对已经翻译出来的语句进行向量表示,提取已经翻译出来的语句的语句特征,从而更准确的预测后续待翻译的语句,将上述两个模型与第一翻译模型进行拼接、训练得到第二翻译模型。第二翻译模型在具备第一翻译模型的翻译能力基础上,由于拼接了多语言表示模型和多语言生成模型,提升了翻译的精准性,从而提高了翻译质量。

附图说明

结合附图并参考以下

具体实施方式

,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。

图1为本公开实施例提供的一种翻译处理方法的流程示意图;

图2为本公开实施例提供的另一种翻译处理方法的流程示意图;

图3为本公开实施例提供的一种多语言表示模型的结构示意图;

图4为本公开实施例提供的一种多语言生成模型的结构示意图;

图5为本公开实施例提供的一种第一翻译模型的结构示意图;

图6为本公开实施例提供的一种目标模型的结构示意图;

图7为本公开实施例提供的一种翻译处理装置的结构示意图;

图8为本公开实施例提供的一种电子设备的结构示意图。

具体实施方式

下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。

应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。

本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。

需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。

需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。

本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。

为了解决上述问题,本公开实施例提供了一种翻译处理方法,下面结合具体的实施例对该方法进行介绍。

图1为本公开实施例提供的一种翻译处理方法的流程示意图,该方法可以由翻译处理装置执行,其中该装置可以采用软件和/或硬件实现,一般可集成在电子设备中。如图1所示,该方法包括:

步骤101,根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据各语言的单语语料库生成多语言生成模型。

为了使训练的翻译模型能够对各种语言中尽可能多的词汇进行更为准确的翻译,在本公开各实施例中的训练语料包括多种语言中各语言的单语语料库。其中,单语语料库是指语料为单一种类语言的语料库,为了使模型具有处理多种语言的能力,使用多种语言中各语言的单语语料库对模型进行训练,其中每种语言可以对应一个或多个单语语料库,举例而言,若多种语言为英语和日语,则对应的多个单语语料库包括词汇尽可能丰富的英语单语语料库和日语单语语料库。

进而,采用该多种语言中各语言的单语语料库训练多语言表示模型和多语言生成模型。因此,通过每种语言尽可能丰富的单语语料库训练得到的多语言表示模型可以更准确地对待翻译的语句进行向量表示,提取待翻译的语句特征,从而更准确地表示待翻译语句的语义。同时,通过每种语言尽可能丰富的单语语料库训练得到的多语言生成模型可以更准确地对已经翻译出的语句进行向量表示,提取已经翻译出的语句特征,从而更准确地预测后续待翻译的语句。因此,基于尽可能丰富的单语语料库训练得到的多语言表示模型和多语言生成模型对翻译过程中的词汇进行更准确的向量转化,提取更加准确的语义特征,使得翻译结果越准确。需要说明的是,本实施例中,多语言表示模型可以根据应用场景进行选择,本实施例不作限制,例如:多语言基于转换器的双向编码表征(multilingualBidirectional Encoder Representations from Transformers,mBERT)。本实施例中,多语言生成模型可以根据应用场景进行选择,本实施例不作限制,例如:多语言生成式预训练(multilingual Generative Pre-Training,mGPT)、生成对抗网络模型。

步骤102,将多语言表示模型和多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型。

本实施例中,第一翻译模型为序列到序列模型,第一翻译模型有多种,本领域技术人员可以根据应用场景进行选择和设计,本实施例不作限制。第一翻译模型包括编码器和解码器,其中编码器用于对待翻译语句进行编码处理,得到向量;解码器用于对该向量进行解码处理,解码得到翻译的结果。

可以理解地,能够使用第一翻译模型对输入语料进行翻译处理,但是由于第一翻译模型的模型训练通常受到词汇量比较有限的双语语料的限制,所以第一翻译模型的翻译精准程度仍需提升。因此,可以将通过词汇量比双语语料丰富的单语语料训练出来的多语言表示模型和多语言生成模型分别与第一翻译模型进行拼接,生成待训练的目标模型,以提高模型后续进行翻译处理的准确性。

多语言表示模型和多语言生成模型分别与第一翻译模型的拼接方式有多种,本实施例不做限制,例如:将第一翻译模型的编码器拼接在多语言表示模型之后,并且将第一翻译模型的解码器拼接在多语言生成模型之后。需要说明的是,结构不同的多语言表示模型、多语言生成模型和第一翻译模型的拼接方法不同,并且不同拼接方法生成的目标模型的性能不同,本领域技术人员可以根据模型结构以及应用场景对拼接方法进行选择,此处不再赘述。

步骤103,根据多种语言中的双语语料库训练目标模型生成第二翻译模型,根据第二翻译模型对待处理的目标信息进行翻译处理。

为了训练目标模型使其具备对多语种进行翻译的能力,在本公开各实施例中,使用多种语言的双语语料库训练目标模型。其中,双语语料库是指存在两个语种的语料库,并且该两个语种的语料互为翻译关系,例如:中日双语语料库、中英双语语料库。举例而言,若语料库为中英双语语料库,该中英双语语料库中存在中文语料“我爱你”,则对应的英文语料为“I love you”。

进而,根据多种语言中的双语语料库对目标模型训练,对应的两个语料中,一个作为目标模型的输入,另一个作为目标模型的输出,训练生成的第二翻译模型具有对多种语言的语料进行翻译处理的能力,因而可以使用第二翻译模型对待处理的目标信息进行翻译处理。

综上,本公开实施例的翻译处理方法,使用多种语言的单语语料对模型进行训练,增强了模型处理不同语种的语料的能力,经过训练后的多语言表示模型生成的向量可以更精准地提取待翻译的语句特征,更准确表示待翻译语句的语义,经过训练后的多语言生成模型能够更准确地对已经翻译出来的语句进行向量表示,提取已经翻译出来的语句的语句特征,从而更准确的预测后续待翻译的语句,将上述两个模型与第一翻译模型进行拼接、训练得到第二翻译模型。第二翻译模型在具备第一翻译模型的翻译能力基础上,由于拼接了多语言表示模型和多语言生成模型,提升了翻译的精准性,从而提高了翻译质量。

并且,使用单语语料库训练生成多语言表示模型和多语言生成模型,使用多语语料库训练生成第二翻译模型,利用了多种语料库,分别从多种语言的角度对模型进行训练,从而提升了第二翻译模型的翻译能力。

基于上述实施例,为了更加清楚的说明如何根据多语言的单语语料训练生成多语言表示模型和多语言生成模型,以及如何根据多语言表示模型和多语言生成模型对第一翻译模型进行拼接处理后,训练生成具备更准备翻译能力的第二翻译模型,通过图2所示实施例具体说明如下,图2为本公开实施例提供的另一种翻译处理方法的流程示意图,具体地,本公开实施例的翻译处理方法包括:

步骤201,获取各语言的单语语料库中的语料包含空缺槽位信息,并获取标注的与空缺槽位信息对应的填补信息。

本实施例中,为了使多语言表示模型能够准确地对待提取翻译语句进行向量表示,提取待翻译语句的特征,从而准确表示待翻译语句的语义,结合上下文语境对多语言表示模型进行训练。一种可选的实施方式中,使用带有空缺槽位信息的语料及其对应的填补信息的语料对模型进行训练,生成多语言表示模型。

本实施方式中,对各语言的单语语料库中的语料进行空缺处理,空缺处理是指将语料中的一个或多个词语空缺,该一个或多个词在语料中的位置本实施例不作限制。将语料进行空缺处理之后,获得带有空缺槽位信息的语料和该空缺槽位信息对应的填补信息,其中,空缺槽位信息是指记录该语料中空缺位置的信息,填补信息是指将该空缺位置进行填补处理之后得到的语料。举例而言,空缺处理前的语料为“我中午吃了包子。”,那么包含空缺槽位信息的语料可以为“我中午*了包子”其中,“*”表示空缺槽位信息,那么,与该空缺槽位信息对应的填补信息为“我中午吃了包子”。

步骤202,根据包含空缺槽位信息的单语语料和对应的填补信息的语料,以及预设的第一损失函数训练预设模型的模型参数生成多语言表示模型。

本实施方式中,使用第一损失函数评价模型的预测值和真实值的差异,使模型的训练结果收敛。在第一损失函数的约束下,使用包含空缺槽位信息的单语语料和对应的填补信息的语料训练预设模型的模型参数,生成多语言表示模型。可以理解地,通过该多语言表示模型生成的向量结合了上下文语境,因而该向量所表示的语义与待翻译的真实语义更加贴切。需要说明的是,对预设模型进行训练的语料可以包括多个语种,例如:日语和英语。

需要说明的是,该多语言表示模型的结构有多种,本领域技术人员可以根据应用场景进行选择,一种可选的实施方式中,如图3所示,多语言表示模型包含一个或者多个表示子层级联。具体地:若多语言表示模型由一个表示子层组成,则该一个表示子层即为多语言表示模型;若多语言表示模型由两个表示子层组成,该两个表示子层分别为第一表示子层和第二表示子层,该多语言表示模型由两个表示子层进行级联获得,具体地:多语言表示模型的输入即为第一表示子层的输入,将第一表示子层的输出作为第二表示子层的输入,第二表示子层的输出即为多语言表示模型的输出;若多语言表示模型包含多个表示子层,该多个表示子层的级联与上述两个表示子层的级联方法类似,此处不再赘述。

上述多语言表示模型中,每个表示子层包括:自注意力层(self-attention)与前馈网络层(feedforward neural network),一种可选的实施方式中,自注意力层的数目为一个、前馈网络层的数目为一个,对应的连接方法为:表示子层的输入即为自注意力层的输入,将自注意力层的输出作为前馈网络层的输入,前馈网络层的输出即为表示子层的输出。可选地,该多语言表示模型为mBERT。

步骤203,获取各语言的单语语料库中的语料包含预测的下一个槽位信息,并获取标注的与预测的下一个槽位信息对应的预测信息。

为了使第二翻译模型生成的针对已经翻译出的语句的向量表示语句更准确,从而能够更准确预测后续翻译的语句,使用包含预测的下一个槽位信息及其对应的预测信息对预设模型进行训练。

本实施例中,对各语言的单语语料库中的语料进行预测处理,预测处理指的是将语料末尾的一个或多个词语去除。语料进行预测处理之后,需要进行预测的词的槽位为语料末尾的下一个词对应的槽位信息,预测信息为该槽位信息对应的词语。举例而言,预测处理前的语料为“我中午吃完午饭在休息”,那么包含预测的下一个槽位信息的语料可以为“我中午吃完*”其中,“*”表示下一个槽位信息,那么,与该下一个槽位信息对应的预测信息为“午饭”。

步骤204,根据包含预测的下一个槽位信息的单语语料和对应的预测信息的语料,以及预设的第二损失函数训练预设模型的模型参数生成多语言生成模型。

本实施例中,使用第二损失函数评价模型的预测值和真实值的差异,使模型的训练结果收敛。在第二损失函数的约束下,使用包含预测的下一个槽位信息的单语语料和对应的预测信息的语料训练预设模型的模型参数,训练得到的语言生成模型能够结合已有的语料,即根据上文环境,对下文进行预测,生成精准性高的语句。需要说明的是,对预设模型进行训练的语料可以为多个语种的,例如:日语和英语。

需要说明的是,该多语言生成模型的结构有多种,本领域技术人员可以根据应用场景进行选择,一种可选的实施方式中,如图4所示,多语言生成模型包含一个或者多个生成子层级联。若多语言生成模型由一个生成子层组成,则该一个生成子层即为多语言生成模型;若多语言生成模型由两个生成子层组成,分别为第一生成子层和第二生成子层,该多语言生成模型由两个生成子层级联获得,具体地:多语言生成模型的输入即为第一生成子层的输入,将第一生成子层的输出作为第二生成子层的输入,第二生成子层的输出即为多语言生成模型的输出;若多语言生成模型由多个生成子层组成,该多个生成子层的级联与上述两个生成子层的级联方法类似,此处不再赘述。

上述多语言生成模型中,每个生成子层包括:自注意力层与前馈网络层,一种可选的实施方式中,自注意力层的数目为一个、前馈网络层的数目为一个,对应的连接方法为:生成子层的输入为该自注意力层的输入,将自注意力层的输出作为前馈网络层的输入,前馈网络层的输出即为该生成子层的输出。可选地,该多语言生成模型为mGPT。

步骤205,将多语言表示模型中最后一个表示子层中的前馈网络层与编码器中第一个编码子层中的自注意力层连接,以及,将多语言生成模型中最后一个生成子层中的前馈网络层与解码器中第一个解码子层的自注意力层连接,以及将多语言生成模型与输出层连接,生成待训练的目标模型。

本实施例中,第一翻译模型包括:编码器、解码器和输出层,其中:

编码器用于编码,包括:一个或者多个编码子层级联,每个编码子层包括:自注意力层与前馈网络层。一种可选的实施方式中,如图5中编码子层所示,编码子层由一个自注意力层和一个前馈网络层连接组成。

解码器用于解码,包括:一个或者多个解码子层级联,每个解码子层包括:自注意力层与跨语言注意力层(cross attention),跨语言注意力层和前馈网络。一种可选的实施方式中,如图5中解码子层所示,解码子层由一个自注意力层与一个跨语言注意力层连接、该一个跨语言注意力层和一个前馈网络连接组成。需要说明的是,由于解码器中包括了跨语言注意力层,因而可以完成对源端信息的捕捉。

第一翻译模型中的输出层有多种,可以根据应用场景进行选择,本实施例不作限制,例如:sigmoid函数、softmax函数。一种可选的实施方式中,输出层为softmax函数。

需要说明的是,编码器和解码进行连接时,如图5所示,最后一个编码子层中的前馈网络层与最后一个解码子层中的跨语言注意力层连接。

本示例中,将多语言表示模型和第一翻译模型的编码器进行连接,将多语言生成模型和第一翻译模型的解码器进行连接,如图6所示,具体地:

将多语言表示模型和第一翻译模型的编码器连接,即,将多语言表示模型中最后一个表示子层中的前馈网络层与编码器中第一个编码子层中的自注意力层连接。将多语言生成模型和第一翻译模型的解码器连接,即,将多语言生成模型中最后一个生成子层中的前馈网络层与解码器中第一个解码子层的自注意力层连接。以及,将多语言生成模型的输出与解码器的输出共同作为输出层的输入,将输出层的输出作为多语言生成模型的输入,从而将多语言生成模型和输出层连接,生成待训练的目标模型。

步骤206,根据多种语言中的双语语料库以及预设的第三损失函数训练目标模型中多语言表示模型和第一翻译模型的模型参数。

步骤207,根据训练后多语言表示模型和第一翻译模型的模型参数和训练前多语言生成模型的模型参数生成第二翻译模型,根据第二翻译模型对待处理的目标信息进行翻译处理。

本实施例中,使用第三损失函数评价目标模型的预测值和真实值的差异,使目标模型的训练结果收敛,并且第三损失函数可以根据应用场景进行选择,本实施例不做限制。在本实施例中,为了提升对已翻译语句的向量表示的准确程度,对目标模型中的多语言表示模型和第一翻译模型进行训练,训练采用的语料为多种语言中的双语语料库。因而,可以在第三损失函数的约束下,在训练时,将双语语料库中的语料作为目标模型的输入,该语料对应的翻译语料作为目标模型的输出,即训练目标模型中多语言表示模型和第一翻译模型的参数。然后,根据训练后多语言表示模型和第一翻译模型的模型参数和训练前多语言生成模型的模型参数生成第二翻译模型,进而根据第二翻译模型对待处理的目标信息进行翻译处理。

综上,本公开实施例的翻译处理方法,详细介绍了一种可选的将多语言表达模型、第一翻译模型以及多语言处理模型连接的技术方案,根据该技术方案生成的第二翻译模型生成语言的精准度更高,翻译质量得到提升,并且通过在第二翻译模型中采用目标模型中未经训练的多语言生成模型的模型参数,进一步增强了生成的翻译语句的准确程度。

图7为本公开实施例提供的一种翻译处理装置的结构示意图,该装置可由软件和/或硬件实现,一般可集成在电子设备中。如图7所示,该翻译处理装置700,包括:

第一生成模块701,用于根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据所述各语言的单语语料库生成多语言生成模型;

第二生成模块702,用于将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;

第三生成模块703,用于根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,根据所述第二翻译模型对待处理的目标信息进行翻译处理。

可选地,所述第一生成模块701,用于:

获取所述各语言的单语语料库中的语料包含空缺槽位信息,并获取标注的与所述空缺槽位信息对应的填补信息;

根据所述包含空缺槽位信息的单语语料和对应的所述填补信息的语料,以及预设的第一损失函数训练预设模型的模型参数生成所述多语言表示模型。

可选地,所述第一生成模块701,用于:

获取所述各语言的单语语料库中的语料包含预测的下一个槽位信息,并获取标注的与所述预测的下一个槽位信息对应的预测信息;

根据所述包含所述预测的下一个槽位信息的单语语料和对应的所述预测信息的语料,以及预设的第二损失函数训练预设模型的模型参数生成所述多语言生成模型。

可选地,所述多语言表示模型包含一个或者多个表示子层级联,其中,每个所述表示子层包括:自注意力层与前馈网络层连接。

可选地,所述多语言生成模型包含一个或者多个生成子层级联,其中,每个所述生成子层包括:自注意力层与前馈网络层连接。

可选地,所述第一翻译模型包括编码器、解码器和输出层,其中,

所述编码器包括:一个或者多个编码子层级联,其中,每个所述编码子层包括:自注意力层与前馈网络层连接;

所述解码器包括一个或者多个解码子层级联,其中,每个所述解码子层包括:自注意力层与跨语言注意力层连接,所述跨语言注意力层和前馈网络连接,

其中,最后一个所述编码子层中的前馈网络层与最后一个所述解码子层中的跨语言注意力层连接。

可选地,所述第二生成模块702,用于:

将所述多语言表示模型中最后一个所述表示子层中的前馈网络层与所述编码器中第一个所述编码子层中的自注意力层连接,以及

将所述多语言生成模型中最后一个所述生成子层中的前馈网络层与所述解码器中第一个所述解码子层的自注意力层连接,以及将所述多语言生成模型与所述输出层连接,生成待训练的目标模型。

可选地,第三生成模块703,用于:

根据所述多种语言中的双语语料库以及预设的第三损失函数训练所述目标模型中所述多语言表示模型和所述第一翻译模型的模型参数;

根据训练后所述多语言表示模型和所述第一翻译模型的模型参数和训练前所述多语言生成模型的模型参数生成第二翻译模型。

本公开实施例所提供的翻译处理装置可执行本公开任意实施例所提供的翻译处理方法,具备执行方法相应的功能模块和有益效果。

本公开实施例还提供了一种计算机程序产品,包括计算机程序/指令,该计算机程序/指令被处理器执行时实现本公开任意实施例所提供的翻译处理方法。

图8为本公开实施例提供的一种电子设备的结构示意图。

下面具体参考图8,其示出了适于用来实现本公开实施例中的电子设备800的结构示意图。本公开实施例中的电子设备800可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、PDA(个人数字助理)、PAD(平板电脑)、PMP(便携式多媒体播放器)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图8示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。

如图8所示,电子设备800可以包括处理装置(例如中央处理器、图形处理器等)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储装置808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有电子设备800操作所需的各种程序和数据。处理装置801、ROM 802以及RAM803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。

通常,以下装置可以连接至I/O接口805:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置806;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置807;包括例如磁带、硬盘等的存储装置808;以及通信装置809。通信装置809可以允许电子设备800与其他设备进行无线或有线通信以交换数据。虽然图8示出了具有各种装置的电子设备800,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。

特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在非暂态计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置809从网络上被下载和安装,或者从存储装置808被安装,或者从ROM 802被安装。在该计算机程序被处理装置801执行时,执行本公开实施例的翻译处理方法中限定的上述功能。

需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。

在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。

上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。

上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据各语言的单语语料库生成多语言生成模型;将多语言表示模型和多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;根据多种语言中的双语语料库训练目标模型生成第二翻译模型,根据第二翻译模型对待处理的目标信息进行翻译处理。本公开实施例中,多语言表示模型能够更精准地提取待翻译的语句特征,多语言生成模型能够更准确的预测后续待翻译的语句。因而,第二翻译模型由于拼接了多语言表示模型和多语言生成模型,提升了翻译的精准性,从而提高了翻译质量。

可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。

附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。

描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。

本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。

在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。

根据本公开的一个或多个实施例,本公开提供了一种翻译处理方法,包括:

根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据所述各语言的单语语料库生成多语言生成模型;

将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;

根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,根据所述第二翻译模型对待处理的目标信息进行翻译处理。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述根据多种语言中各语言的单语语料库训练生成多语言表示模型,包括:

获取所述各语言的单语语料库中的语料包含空缺槽位信息,并获取标注的与所述空缺槽位信息对应的填补信息;

根据所述包含空缺槽位信息的单语语料和对应的所述填补信息的语料,以及预设的第一损失函数训练预设模型的模型参数生成所述多语言表示模型。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述根据所述各语言的单语语料库生成多语言生成模型,包括:

获取所述各语言的单语语料库中的语料包含预测的下一个槽位信息,并获取标注的与所述预测的下一个槽位信息对应的预测信息;

根据所述包含所述预测的下一个槽位信息的单语语料和对应的所述预测信息的语料,以及预设的第二损失函数训练预设模型的模型参数生成所述多语言生成模型。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述多语言表示模型包含一个或者多个表示子层级联,其中,每个所述表示子层包括:自注意力层与前馈网络层连接。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述多语言生成模型包含一个或者多个生成子层级联,其中,每个所述生成子层包括:自注意力层与前馈网络层连接。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述第一翻译模型包括编码器、解码器和输出层,其中,

所述编码器包括:一个或者多个编码子层级联,其中,每个所述编码子层包括:自注意力层与前馈网络层连接;

所述解码器包括一个或者多个解码子层级联,其中,每个所述解码子层包括:自注意力层与跨语言注意力层连接,所述跨语言注意力层和前馈网络连接,

其中,最后一个所述编码子层中的前馈网络层与最后一个所述解码子层中的跨语言注意力层连接。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型,包括:

将所述多语言表示模型中最后一个所述表示子层中的前馈网络层与所述编码器中第一个所述编码子层中的自注意力层连接,以及

将所述多语言生成模型中最后一个所述生成子层中的前馈网络层与所述解码器中第一个所述解码子层的自注意力层连接,以及将所述多语言生成模型与所述输出层连接,生成待训练的目标模型。

根据本公开的一个或多个实施例,本公开提供的一种翻译处理方法中,所述根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,包括:

根据所述多种语言中的双语语料库以及预设的第三损失函数训练所述目标模型中所述多语言表示模型和所述第一翻译模型的模型参数;

根据训练后所述多语言表示模型和所述第一翻译模型的模型参数和训练前所述多语言生成模型的模型参数生成第二翻译模型。

根据本公开的一个或多个实施例,本公开提供了一种翻译处理装置,包括:

第一生成模块,用于根据多种语言中各语言的单语语料库训练生成多语言表示模型,以及根据所述各语言的单语语料库生成多语言生成模型;

第二生成模块,用于将所述多语言表示模型和所述多语言生成模型分别与第一翻译模型拼接,生成待训练的目标模型;

第三生成模块,用于根据所述多种语言中的双语语料库训练所述目标模型生成第二翻译模型,根据所述第二翻译模型对待处理的目标信息进行翻译处理。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,所述第一生成模块,用于:

获取所述各语言的单语语料库中的语料包含空缺槽位信息,并获取标注的与所述空缺槽位信息对应的填补信息;

根据所述包含空缺槽位信息的单语语料和对应的所述填补信息的语料,以及预设的第一损失函数训练预设模型的模型参数生成所述多语言表示模型。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,所述第一生成模块,用于:

获取所述各语言的单语语料库中的语料包含预测的下一个槽位信息,并获取标注的与所述预测的下一个槽位信息对应的预测信息;

根据所述包含所述预测的下一个槽位信息的单语语料和对应的所述预测信息的语料,以及预设的第二损失函数训练预设模型的模型参数生成所述多语言生成模型。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,所述多语言表示模型包含一个或者多个表示子层级联,其中,每个所述表示子层包括:自注意力层与前馈网络层连接。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,所述多语言生成模型包含一个或者多个生成子层级联,其中,每个所述生成子层包括:自注意力层与前馈网络层连接。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,所述第一翻译模型包括编码器、解码器和输出层,其中,

所述编码器包括:一个或者多个编码子层级联,其中,每个所述编码子层包括:自注意力层与前馈网络层连接;

所述解码器包括一个或者多个解码子层级联,其中,每个所述解码子层包括:自注意力层与跨语言注意力层连接,所述跨语言注意力层和前馈网络连接,

其中,最后一个所述编码子层中的前馈网络层与最后一个所述解码子层中的跨语言注意力层连接。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,所述第二生成模块,用于:

将所述多语言表示模型中最后一个所述表示子层中的前馈网络层与所述编码器中第一个所述编码子层中的自注意力层连接,以及

将所述多语言生成模型中最后一个所述生成子层中的前馈网络层与所述解码器中第一个所述解码子层的自注意力层连接,以及将所述多语言生成模型与所述输出层连接,生成待训练的目标模型。

根据本公开的一个或多个实施例,本公开提供的翻译处理装置中,第三生成模块,用于:

根据所述多种语言中的双语语料库以及预设的第三损失函数训练所述目标模型中所述多语言表示模型和所述第一翻译模型的模型参数;

根据训练后所述多语言表示模型和所述第一翻译模型的模型参数和训练前所述多语言生成模型的模型参数生成第二翻译模型。

根据本公开的一个或多个实施例,本公开提供了一种电子设备,包括:

处理器;

用于存储所述处理器可执行指令的存储器;

所述处理器,用于从所述存储器中读取所述可执行指令,并执行所述指令以实现如本公开提供的任一所述的翻译处理方法。

根据本公开的一个或多个实施例,本公开提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序用于执行如本公开提供的任一所述的翻译处理方法。

以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。

尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

23页详细技术资料下载
上一篇:一种医用注射器针头装配设备
下一篇:一种支持自动识别的便携式翻译器

网友询问留言

已有0条留言

还没有人留言评论。精彩留言会获得点赞!

精彩留言,会给你点赞!