机器译文的评估方法、装置、电子设备和可读存储介质
未命名
09-23
阅读:39
评论:0
1.本发明涉及自然语言的处理及转换技术领域,尤其是涉及一种机器译文的评估方法、装置、电子设备和可读存储介质。
背景技术:
2.机器翻译是指通过计算机技术将一种自然语言(以下简称源语言或源文本)自动转换为另一种自然语言(以下简称目标语言、译文或机器译文)的过程。机器翻译结果的自动评估则指针对译文优劣进行自动打分的过程,以期望能够取代时间与经济成本均十分高昂的人类手工评分,同时是推动机器翻译技术迭代的重要因素之一。
3.主流被使用的机器翻译自动评估方法主要有两大类:基于文本匹配度的评估方法和基于神经网络的评估方法。其中,传统的基于文本匹配度的方法只衡量了机器译文与参考译文中的重合部分,无法深入语义级别进行评估,主流研究已经转向基于神经网络的评估方法。该类方法基于多语言预训练模型,利用“译文-人类评分”数据对模型进行回归任务的端到端调优,构建一个译文质量的自动评估模型。
4.然而,基于神经网络的评估方法仍然存在鲁棒性隐患,阻碍了它在现实使用场景中的进一步推广。鲁棒性问题的根源可以归因于数据偏移。不同于基于文本的评估方法具有可解释性和一致性的透明评估机制,神经网络的黑盒性质导致其可靠性和泛用型极大程度上制约于训练数据的规模和质量。主流基于神经网络的评估方法,大部分的训练数据的来源新闻领域的人工评分,这导致模型在面对分布外数据时的评估结果可信度差。
技术实现要素:
5.有鉴于此,本发明的目的在于提供一种机器译文的评估方法、装置、电子设备和可读存储介质,在推理阶段不依赖额外数据,最小化神经网络对分布外数据的不确定性,自适应调整决策,最终提高机器译文的鲁棒性。
6.第一方面,本发明实施例提供了一种机器译文的评估方法,方法包括:获取输入数据对,将输入数据对输入训练完成的神经网络模型;输入数据对包括源文本和源文本的机器译文;神经网络模型确定输入数据对的不确定性结果;神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;基于调整后的神经网络模型输出输入数据对的评估分数。
7.在本技术可选的实施例中,上述输入数据对还包括源文本的参考译文。
8.在本技术可选的实施例中,上述神经网络模型确定输入数据对的不确定性结果的步骤,包括:神经网络模型对输入数据对进行多次推理,得到输入数据对的评估分数分布;神经网络模型计算评估分数分布的标准差作为输入数据对的不确定性结果。
9.在本技术可选的实施例中,上述神经网络模型的自适应参数包括:神经网络模型的层次注意力和/或缩放因子。
10.在本技术可选的实施例中,上述,神经网络模型基于不确定性结果确定神经网络
模型的自适应参数的梯度作为自适应参数的变化量的步骤,包括:通过以下算式计算自适应参数的变化量:其中,θ
*
为自适应参数,δθ
*
为自适应参数的变化量;u为不确定性结果,为自适应参数的梯度,α为预先设置的常数。
11.在本技术可选的实施例中,上述基于变化量调整自适应参数的步骤,包括:关闭神经网络模型的随机失活机制和梯度计算传播;通过以下算式调整自适应参数:θ
′
=
*
+δθ
*
;其中,θ
′
为调整后的自适应参数。
12.在本技术可选的实施例中,上述基于调整后的神经网络模型输出输入数据对的评估分数的步骤之后,方法还包括:将调整后的自适应参数恢复为调整前的自适应参数。
13.第二方面,本发明实施例还提供了一种机器译文的评估装置,装置包括:输入数据对获取模块,用于获取输入数据对,将输入数据对输入训练完成的神经网络模型;输入数据对包括源文本和源文本的机器译文;不确定性结果确定模块,用于神经网络模型确定输入数据对的不确定性结果;自适应参数调整模块,用于神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;评估分数输出模块,用于基于调整后的神经网络模型输出输入数据对的评估分数。
14.第三方面,本发明实施例还提供了一种电子设备,包括处理器和存储器,该存储器存储有能够被该处理器执行的计算机可执行指令,该处理器执行该计算机可执行指令以实现上述机器译文的评估方法。
15.第四方面,本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述机器译文的评估方法。
16.本发明实施例带来了以下有益效果:
17.本发明实施例提供了一种机器译文的评估方法、装置、电子设备和可读存储介质,获取包括源文本和源文本的机器译文输入数据对,将输入数据对输入训练完成的神经网络模型;神经网络模型确定输入数据对的不确定性结果;神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;基于调整后的神经网络模型输出输入数据对的评估分数。该方式中,在推理阶段不依赖额外数据,最小化神经网络对分布外数据的不确定性,自适应调整决策,最终提高机器译文的鲁棒性。
18.本公开的其他特征和优点将在随后的说明书中阐述,或者,部分特征和优点可以从说明书推知或毫无疑义地确定,或者通过实施本公开的上述技术即可得知。
19.为使本公开的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
20.为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前
提下,还可以根据这些附图获得其他的附图。
21.图1为本发明实施例提供的一种机器译文的评估方法的流程图;
22.图2为本发明实施例提供的另一种机器译文的评估方法的流程图;
23.图3为本发明实施例提供的一种机器译文的评估方法的框架示意图;
24.图4为本发明实施例提供的一种机器译文的评估方法的示意图;
25.图5为本发明实施例提供的一种机器译文的评估装置的结构示意图;
26.图6为本发明实施例提供的另一种机器译文的评估装置的结构示意图;
27.图7为本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
28.为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
29.机器翻译是指通过计算机技术将一种自然语言自动转换为另一种自然语言的过程。机器翻译结果的自动评估则指针对译文优劣进行自动打分的过程,以期望能够取代时间与经济成本均十分高昂的人类手工评分,同时是推动机器翻译技术迭代的重要因素之一。
30.目前,主流被使用的机器翻译自动评估方法主要有两大类:基于文本匹配度的评估方法和基于神经网络的评估方法。其中,传统的基于文本匹配度的方法只衡量了机器译文与参考译文中的重合部分,无法深入语义级别进行评估,主流研究已经转向基于神经网络的评估方法。该类方法基于多语言预训练模型,利用“译文-人类评分”数据对模型进行回归任务的端到端调优,构建一个译文质量的自动评估模型。
31.然而,基于神经网络的评估方法仍然存在鲁棒性隐患,阻碍了它在现实使用场景中的进一步推广。鲁棒性问题的根源可以归因于数据偏移。不同于基于文本的评估方法具有可解释性和一致性的透明评估机制,神经网络的黑盒性质导致其可靠性和泛用型极大程度上制约于训练数据的规模和质量。主流基于神经网络的评估方法,大部分的训练数据的来源新闻领域的人工评分,这导致模型在面对分布外数据时的评估结果可信度差。
32.在现实世界的场景中得到应用的一个重要前提是,自动评估方法必须能够评估来自不同领域、不同质量的文本。因此,如何使基于神经网络的评估方法对分布外数据的自适应地调整自身的决策是个重要的问题。
33.综上,如何构建一种基于神经网络的自动评估方法,并且在其推理阶段中对分布外数据的进行自适应调整,是一个重要研究课题。
34.基于此,本发明实施例提供的一种机器译文的评估方法、装置、电子设备和可读存储介质,具体涉及了一种基于推理阶段自适应的机器翻译的结果的评估方法,在推理阶段不依赖额外数据,最小化神经网络对分布外数据的不确定性,自适应调整决策,最终提高机器译文的鲁棒性。
35.为便于对本实施例进行理解,首先对本发明实施例所公开的一种机器译文的评估方法进行详细介绍。
36.实施例一:
37.本发明实施例提供一种机器译文的评估方法,参见图1所示的一种机器译文的评估方法的流程图,该机器译文的评估方法包括如下步骤:
38.步骤s102,获取输入数据对,将输入数据对输入训练完成的神经网络模型;输入数据对包括源文本和源文本的机器译文。
39.本实施例中的源文本为没有进行机器翻译的文本,对源文本进行机器翻译可以得到机器译文。本实施例中还可以获取源文本的参考译文,参考译文可以理解为源文本的完全正确的译文。
40.本实施例中输入数据对可以包括源文本s和源文本s的机器译文h。在一些实施例中,输入数据对还可以包括源文本s的参考译文e。也即,输入数据对可以包括源文本s和机器译文h,也可以包括源文本s、机器译文h和参考译文r。
41.步骤s104,神经网络模型确定输入数据对的不确定性结果。
42.本实施例中的神经网络模型可以通过蒙特卡洛采样方法,估计输入数据的不确定性,得到不确定性结果u。蒙特卡洛采样方法是一种近似推断的方法,通过采样大量粒子的方法来求解期望、均值、面积、积分等问题,蒙特卡洛采样方法的基本做法是通过大量重复试验,通过统计频率,来估计概率,从而得到问题的求解。
43.步骤s106,神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数。
44.确定不确定性结果u之后,神经网络模型可以对模型的部分参数(即自适应参数)θ
*
进行求导,计算自适应参数梯度作为自适应参数的变化量。基于变化量调整自适应参数从而更新神经网络模型,完成推理自适应。
45.步骤s108,基于调整后的神经网络模型输出输入数据对的评估分数。
46.再完成推理自适应之后,可以冻结神经网络模型的所有参数,神经网络模型可以根据推理自适应之后的参数输出推理新结果,即输入数据对的评估分数。
47.本发明实施例提供了一种机器译文的评估方法,获取包括源文本和源文本的机器译文输入数据对,将输入数据对输入训练完成的神经网络模型;神经网络模型确定输入数据对的不确定性结果;神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;基于调整后的神经网络模型输出输入数据对的评估分数。该方式中,在推理阶段不依赖额外数据,最小化神经网络对分布外数据的不确定性,自适应调整决策,最终提高机器译文的鲁棒性。
48.实施例二:
49.本实施例提供了另一种机器译文的评估方法,该方法在上述实施例的基础上实现,参见图2所示的另一种机器译文的评估方法的流程图,本实施例中的机器译文的评估方法包括如下步骤:
50.步骤s202,获取输入数据对,将输入数据对输入训练完成的神经网络模型;输入数据对包括源文本和源文本的机器译文。
51.在一些实施例中,输入数据对还包括源文本的参考译文。
52.参加图3所示的一种机器译文的评估方法的框架示意图,图3中的输入数据对《h,
s,r》包括源文本s、机器译文h和参考译文r。考虑到实际情况下参考译文r可能缺失,因此,本实施例中可以将《h,s,
·
》指代输入数据对,以m指代由神经网络参数化的评估方法,在一般情况下,该方法m将产生评估分数。
53.步骤s204,神经网络模型确定输入数据对的不确定性结果。
54.在一些实施例中,神经网络模型可以对输入数据对进行多次推理,得到输入数据对的评估分数分布;神经网络模型计算评估分数分布的标准差作为输入数据对的不确定性结果。
55.如图3所示,神经网络模型接收输入数据对后,可以开启随机失活机制(dropout),随机失活机制是对具有深度结构的人工神经网络进行优化的方法,在学习过程中通过将隐含层的部分权重或输出随机归零,降低节点间的相互依赖性从而实现神经网络的正则化,降低其结构风险。
56.神经网络模型利用参数θk前向传播进行k次推理,其中k指代中间某一次推理,最终共产生总长度为k的评估分数序列q,评估分数分布以p(q)表示。上述步骤的形式化表述如下:
57.如图3所示,神经网络模型可以计算评估分数分布p(q)的标准差,以此作为这组数据的不确定性结果u。以μ
p(q)
表述该组分数的均值,则上述步骤的形式化表述如下:其中,为数学期望表示符号。
58.步骤s206,神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数。
59.如图3所示,可以将不确定性结果传递至神经网络模型的优化器,该优化器可以选取模型部分参数θ
*
作为自适应参数。在一些实施例中,上述神经网络模型的自适应参数可以包括:神经网络模型的层次注意力和/或缩放因子γ,其中,l为模型的层数,即θ
*
←
{w,γ}。
60.如图3所示,通过优化器基于不确定性结果u求自适应参数θ
*
的梯度,产生所选取的自适应参数的变化量δθ
*
,在一些实施例中,可以通过以下算式计算自适应参数的变化量:
61.其中,θ
*
为自适应参数,δθ
*
为自适应参数的变化量;u为不确定性结果,为自适应参数的梯度,α为预先设置的常数。α是可调节的学习率,α可以为超参数,α的值设定越大代表对神经网络模型的自适应参数的更新程度越大,α的值设定越小代表对神经网络模型的自适应参数的更新程度越小。
62.在一些实施例中,可以关闭神经网络模型的随机失活机制和梯度计算传播;通过以下算式调整自适应参数:θ
′
=θ
*
+δθ
*
;其中,θ
′
为调整后的自适应参数。
63.如图3所示,首先可以关闭神经网络模型的随机失活机制和梯度计算传播,之后对自适应参数θ
*
进行自适应调整为自适应参数θ
′
,从而更新神经网络模型。
64.步骤s208,基于调整后的神经网络模型输出输入数据对的评估分数。
65.如图3所示,将自适应参数θ
*
调整为自适应参数θ
′
之后,可以使用调整后的神经网
络模型输出输入数据对的评估分数q:q=m(《h,s,
·
》;θ
′
)
66.步骤s210,将调整后的自适应参数恢复为调整前的自适应参数。
67.由于输入数据对的类别可能不同,因此,在基于调整后的神经网络模型输出输入数据对的评估分数之后,可以将调整后的自适应参数θ
′
恢复为调整前的自适应参数θ
*
,以供下一次的不同类别输入数据对进行自适应调整。
68.前述步骤中以单个样输入数据对本的为例,在实际操作中,为了并行计算的便利以及避免冷启动问题,本实施例可以扩展至批次级别即将多个同类的分布外样本聚合为一个批次的输入数据对输入神经网络模型并自适应更新所选取的神经网络模型的自适应参数。总体上的优化目标可被表示为:
69.除此之外,上述推理阶段自适应过程也可以被重复执行优化目标,以达到更好的效果,可以参见图4所示的一种机器译文的评估方法的示意图,首先输入单个或多组评测数据,多次采样计算神经网络模型的不确定性,选取待优化的自适应参数,基于不确定性确定自适应参数的梯度,自适应更新自适应参数。之后确认是否需要多次更新,如果,是则继续自适应更新自适应参数;如果否,则冻结神经网络模型的参数并输出推理结果。
70.本发明实施例提供的上述方法具有以下优势:
71.(1)本发明实施例提供的上述方法相对目前所有机器翻译的基于神经网络的自动评估方法,能够自适应地降低评估时候的不确定性,能够应对该类方法在面对分布外数据鲁棒性差的问题。
72.(2)本发明实施例提供的上述方法可以成功地对机器翻译自动评估竞赛中的分布外数据进行了实验评估,在与人类评分的相关性上,得到了比强基线评估方法更好的分数。
73.(3)目前的研究界与工业界,对于基于神经网络的机器翻译评估方法存在分布外数据的鲁棒性担忧,未能较好地推广该类方法并用于实际中。本发明实施例提供的上述方法,不但对推动该领域的研究发展有着重大意义,还具备极大的商业化的潜力。
74.实施例三:
75.对应于上述方法实施例,本发明实施例提供了一种机器译文的评估装置,参见图5所示的一种机器译文的评估装置的结构示意图,该机器译文的评估装置包括:
76.输入数据对获取模块51,用于获取输入数据对,将输入数据对输入训练完成的神经网络模型;输入数据对包括源文本和源文本的机器译文;
77.不确定性结果确定模块52,用于神经网络模型确定输入数据对的不确定性结果;
78.自适应参数调整模块53,用于神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;
79.评估分数输出模块54,用于基于调整后的神经网络模型输出输入数据对的评估分数。
80.本发明实施例提供了一种机器译文的评估装置,获取包括源文本和源文本的机器译文输入数据对,将输入数据对输入训练完成的神经网络模型;神经网络模型确定输入数据对的不确定性结果;神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;基于调整后的神经网络模型输出输入数据对的评估分数。该方式中,在推理阶段不依赖额外数据,最小化神经网络对分布外数据的不确定性,自适应调整决策,最终提高机器译文的鲁棒性。
81.上述输入数据对还包括源文本的参考译文。
82.上述不确定性结果确定模块,用于神经网络模型对输入数据对进行多次推理,得到输入数据对的评估分数分布;神经网络模型计算评估分数分布的标准差作为输入数据对的不确定性结果。
83.上述神经网络模型的自适应参数包括:神经网络模型的层次注意力和/或缩放因子。
84.上述自适应参数调整模块,用于通过以下算式计算自适应参数的变化量:其中,θ
*
为自适应参数,δθ
*
为自适应参数的变化量;u为不确定性结果,为自适应参数的梯度,α为预先设置的常数。
85.上述自适应参数调整模块,用于关闭神经网络模型的随机失活机制和梯度计算传播;通过以下算式调整自适应参数:θ
′
=
*
+δθ
*
;其中,θ
′
为调整后的自适应参数。
86.参见图6所示的另一种机器译文的评估装置的结构示意图,该机器译文的评估装置还包括:自适应参数恢复模块55,与评估分数输出模块54连接;自适应参数恢复模块55,用于将调整后的自适应参数恢复为调整前的自适应参数。
87.所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的机器译文的评估装置的具体工作过程,可以参考前述的机器译文的评估方法的实施例中的对应过程,在此不再赘述。
88.实施例四:
89.本发明实施例还提供了一种电子设备,用于运行上述机器译文的评估方法;参见图7所示的一种电子设备的结构示意图,该电子设备包括存储器100和处理器101,其中,存储器100用于存储一条或多条计算机指令,一条或多条计算机指令被处理器101执行,以实现上述机器译文的评估方法。
90.进一步地,图7所示的电子设备还包括总线102和通信接口103,处理器101、通信接口103和存储器100通过总线102连接。
91.其中,存储器100可能包含高速随机存取存储器(ram,random access memory),也可能还包括非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。通过至少一个通信接口103(可以是有线或者无线)实现该系统网元与至少一个其他网元之间的通信连接,可以使用互联网,广域网,本地网,城域网等。总线102可以是isa总线、pci总线或eisa总线等。总线可以分为地址总线、数据总线、控制总线等。为便于表示,图7中仅用一个双向箭头表示,但并不表示仅有一根总线或一种类型的总线。
92.处理器101可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器101中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器101可以是通用处理器,包括中央处理器(central processing unit,简称cpu)、网络处理器(network processor,简称np)等;还可以是数字信号处理器(digital signal processor,简称dsp)、专用集成电路(application specific integrated circuit,简称asic)、现场可编程门阵列(field-programmable gate array,简称fpga)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件。可以实现或者执行本
发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。结合本发明实施例所公开的方法的步骤可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于随机存储器,闪存、只读存储器,可编程只读存储器或者电可擦写可编程存储器、寄存器等本领域成熟的存储介质中。该存储介质位于存储器100,处理器101读取存储器100中的信息,结合其硬件完成前述实施例的方法的步骤。
93.本发明实施例还提供了一种计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现上述机器译文的评估方法,具体实现可参见方法实施例,在此不再赘述。
94.本发明实施例所提供的机器译文的评估方法、装置、电子设备和可读存储介质的计算机程序产品,包括存储了程序代码的计算机可读存储介质,程序代码包括的指令可用于执行前面方法实施例中的方法,具体实现可参见方法实施例,在此不再赘述。
95.所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和/或装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
96.另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
97.所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(rom,read-only memory)、随机存取存储器(ram,random access memory)、磁碟或者光盘等各种可以存储程序代码的介质。
98.在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
99.最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
技术特征:
1.一种机器译文的评估方法,其特征在于,所述方法包括:获取输入数据对,将所述输入数据对输入训练完成的神经网络模型;所述输入数据对包括源文本和所述源文本的机器译文;所述神经网络模型确定所述输入数据对的不确定性结果;所述神经网络模型基于所述不确定性结果确定所述神经网络模型的自适应参数的梯度作为所述自适应参数的变化量,基于所述变化量调整所述自适应参数;基于调整后的所述神经网络模型输出所述输入数据对的评估分数。2.根据权利要求1所述的方法,其特征在于,所述输入数据对还包括所述源文本的参考译文。3.根据权利要求1所述的方法,其特征在于,所述神经网络模型确定所述输入数据对的不确定性结果的步骤,包括:所述神经网络模型对所述输入数据对进行多次推理,得到所述输入数据对的评估分数分布;所述神经网络模型计算所述评估分数分布的标准差作为所述输入数据对的不确定性结果。4.根据权利要求1所述的方法,其特征在于,所述神经网络模型的自适应参数包括:所述神经网络模型的层次注意力和/或缩放因子。5.根据权利要求1所述的方法,其特征在于,所述神经网络模型基于所述不确定性结果确定所述神经网络模型的自适应参数的梯度作为所述自适应参数的变化量的步骤,包括:通过以下算式计算所述自适应参数的变化量:其中,θ
*
为所述自适应参数,δθ
*
为所述自适应参数的变化量;u为所述不确定性结果,为所述自适应参数的梯度,α为预先设置的常数。6.根据权利要求5所述的方法,其特征在于,基于所述变化量调整所述自适应参数的步骤,包括:关闭所述神经网络模型的随机失活机制和梯度计算传播;通过以下算式调整所述自适应参数:θ
′
=
*
+δθ
*
;其中,θ
′
为调整后的所述自适应参数。7.根据权利要求1所述的方法,其特征在于,基于调整后的所述神经网络模型输出所述输入数据对的评估分数的步骤之后,所述方法还包括:将调整后的所述自适应参数恢复为调整前的所述自适应参数。8.一种机器译文的评估装置,其特征在于,所述装置包括:输入数据对获取模块,用于获取输入数据对,将所述输入数据对输入训练完成的神经网络模型;所述输入数据对包括源文本和所述源文本的机器译文;不确定性结果确定模块,用于所述神经网络模型确定所述输入数据对的不确定性结果;自适应参数调整模块,用于所述神经网络模型基于所述不确定性结果确定所述神经网络模型的自适应参数的梯度作为所述自适应参数的变化量,基于所述变化量调整所述自适应参数;
评估分数输出模块,用于基于调整后的所述神经网络模型输出所述输入数据对的评估分数。9.一种电子设备,其特征在于,包括处理器和存储器,所述存储器存储有能够被所述处理器执行的计算机可执行指令,所述处理器执行所述计算机可执行指令以实现权利要求1至7任一项所述的机器译文的评估方法。10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令在被处理器调用和执行时,计算机可执行指令促使处理器实现权利要求1至7任一项所述的机器译文的评估方法。
技术总结
本发明提供了一种机器译文的评估方法、装置、电子设备和可读存储介质。其中,该方法包括:获取输入数据对,将输入数据对输入训练完成的神经网络模型;输入数据对包括源文本和源文本的机器译文;神经网络模型确定输入数据对的不确定性结果;神经网络模型基于不确定性结果确定神经网络模型的自适应参数的梯度作为自适应参数的变化量,基于变化量调整自适应参数;基于调整后的神经网络模型输出输入数据对的评估分数。在推理阶段不依赖额外数据,最小化神经网络对分布外数据的不确定性,自适应调整决策,最终提高机器译文的鲁棒性。最终提高机器译文的鲁棒性。最终提高机器译文的鲁棒性。
技术研发人员:黄辉 詹润哲 周沁
受保护的技术使用者:澳门大学
技术研发日:2023.06.30
技术公布日:2023/9/22
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
航空商城 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/