大规模语言模型的开放域问答实现方法、装置及设备与流程

未命名 09-03 阅读:72 评论:0


1.本发明涉及深度学习技术领域,尤其涉及一种大规模语言模型的开放域问答实现方法、装置及设备。


背景技术:

2.随着大规模语言模型的逐渐复杂化,单机单卡已经无法满足大规模模型的训练需求,故多机多卡并行训练成为了当前深度学习领域的研究热点。在多机多卡并行训练中,对如何有效地利用异构众核设备和自动化并行策略的研究受到了广泛关注。
3.目前,现有的并行训练方法,通常是利用现有的并行训练框架,例如,tensorflow、pytorch等,以实现对大规模模型的并行训练。然而,针对现有的并行训练框架,它们大多侧重于单一硬件平台的优化,无法有效地利用异构众核设备的优势。另外,当前的并行训练框架需要用户手动调整并行训练策略和参数,而且需要针对不同的硬件平台重新优化,对于非专业用户而言较为困难,在实际使用中存在一定的困难和局限性。


技术实现要素:

4.本发明提供了一种大规模语言模型的开放域问答实现方法、装置及设备,可以提升大规模语言模型的训练效率,可以提升智能问答的实现效率。
5.根据本发明的一方面,提供了一种大规模语言模型的开放域问答实现方法,包括:
6.获取多个切分算子,并获取各所述切分算子对应的多个切分策略,以及各所述切分策略对应的通信算子;
7.根据各所述切分算子、各所述切分算子对应的多个切分策略和各所述切分策略对应的通信算子,获取多个候选并行策略;
8.通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略;
9.根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用所述目标语言模型实现开放域问答。
10.根据本发明的另一方面,提供了一种大规模语言模型的开放域问答实现装置,包括:
11.切分算子获取模块,用于获取多个切分算子,并获取各所述切分算子对应的多个切分策略,以及各所述切分策略对应的通信算子;
12.候选并行策略获取模块,用于根据各所述切分算子、各所述切分算子对应的多个切分策略和各所述切分策略对应的通信算子,获取多个候选并行策略;
13.目标并行策略获取模块,用于通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略;
14.模型训练模块,用于根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用所述目标语言模型实现开放域问答。
15.根据本发明的另一方面,提供了一种电子设备,所述电子设备包括:
16.至少一个处理器;以及
17.与所述至少一个处理器通信连接的存储器;其中,
18.所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行本发明任一实施例所述的大规模语言模型的开放域问答实现方法。
19.根据本发明的另一方面,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现本发明任一实施例所述的大规模语言模型的开放域问答实现方法。
20.本发明实施例的技术方案,通过获取多个切分算子,各切分算子对应的多个切分策略,以及各切分策略对应的通信算子;然后,根据各切分算子、各切分算子对应的多个切分策略和各切分策略对应的通信算子,获取多个候选并行策略,并通过预设策略搜索算法在多个候选并行策略中获取目标并行策略;最后,根据目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用目标语言模型实现开放域问答,通过自动生成候选并行策略和选择最优的并行策略,可以提升大规模语言模型的训练效率,可以提升智能问答的实现效率。
21.应当理解,本部分所描述的内容并非旨在标识本发明的实施例的关键或重要特征,也不用于限制本发明的范围。本发明的其它特征将通过以下的说明书而变得容易理解。
附图说明
22.为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
23.图1a是根据本发明实施例一提供的一种大规模语言模型的开放域问答实现方法的流程图;
24.图1b是根据本发明实施例一提供的一种异构众核设备的结构示意图;
25.图1c是根据本发明实施例一提供的一种策略搜索流程示意图;
26.图1d是根据本发明实施例一提供的一种算子插入示意图;
27.图2是根据本发明实施例二提供的一种大规模语言模型的开放域问答实现装置的结构示意图;
28.图3是实现本发明实施例的大规模语言模型的开放域问答实现方法的电子设备的结构示意图。
具体实施方式
29.为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分的实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
30.需要说明的是,本发明的说明书和权利要求书及上述附图中的术语“第一”、“第二”、“目标”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本发明的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
31.实施例一:
32.图1a为本发明实施例一提供了一种大规模语言模型的开放域问答实现方法的流程图,本实施例可适用于利用基于异构众核设备并行训练得到的大规模语言模型实现开放域问答的情况,该方法可以由大规模语言模型的开放域问答实现装置来执行,该大规模语言模型的开放域问答实现装置可以采用硬件和/或软件的形式实现,该大规模语言模型的开放域问答实现装置可配置于电子设备中,典型的,电子设备可以是计算机设备或者服务器。如图1a所示,该方法包括:
33.s110、获取多个切分算子,并获取各所述切分算子对应的多个切分策略,以及各所述切分策略对应的通信算子。
34.其中,算子,可以是深度学习模型的组成单元,用于实现特定的数据处理功能,例如,可以是卷积层算子、池化层算子等。切分算子,可以是具有特征或者数据切分处理能力的算子,例如,卷积层算子等。通信算子,可以是用于实现数据通信功能的算子。
35.可选的,切分算子可以包括行切分算子、列切分算子和/或复制算子;其中,不同的切分算子可以对应不同的切分策略,例如,行切分算子可以对应行切分策略,即对输入特征按行进行切分;列切分算子可以对应列切分策略,即对输入特征按列进行切分,而复制算子可以对应复制策略,即对输入特征进行复制处理。
36.其中,通信算子可以包括规约算子和/或收集算子。例如,规约算子,可以是all reduce算子,用于采用预设的规则(例如,平均值、加权求和等)从各设备中采集数据处理结果。此外,收集算子,可以是all gather算子,即将不同设备的数据处理结果分享到所有设备。
37.在本实施例中,针对深度学习模型的各组成单元,可以为其自动分配对应的切分算子类型和对应的可能可行的切分策略;其次,针对每个切分策略还可以插入可行的通信算子。典型的,切分算子类型、切分策略和通信算子可以预先设置。
38.s120、根据各所述切分算子、各所述切分算子对应的多个切分策略和各所述切分策略对应的通信算子,获取多个候选并行策略。
39.在本实施例中,可以将一条切分算子、切分策略和通信算子之间的映射关系作为一个候选并行策略,由此,可以获取多个候选并行策略。之后,可以通过考虑不同的开销,在候选并行策略中选取最优的并行策略。
40.其中,并行策略,可以是深度学习模型进行并行训练的策略。在本实施例中,可以利用多个异构众核设备,基于最终选择的并行策略对深度学习模型进行分布式的并行训练。异构众核设备,可以是一个芯片内集成了多个不同结构的处理器核的处理器或者系统。
41.s130、通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略。
42.其中,预设策略搜索算法可以包括贪心算法和/或遗传算法。贪心算法,可以通过每次选择当前最优的切分策略来构建最终的并行策略,具有简单且有效的特点。遗传算法,可以模拟自然界中的遗传和进化过程,通过选择、交叉和变异等操作来搜索最优解。
43.在本实施例中,可以采用预设的策略搜索算法对所有的候选并行策略进行搜索,以获取最优的并行策略,以作为目标并行策略。具体的,可以基于异构众核设备的特点,选择通信开销、计算开销和内存开销,以构建损失函数;进而,可以通过预设策略搜索算法,根据该损失函数,在所有候选并行策略中选择损失值最小的目标并行策略。
44.s140、根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用所述目标语言模型实现开放域问答。
45.具体的,可以基于该目标并行策略,通过多个参与并行训练的异构众核设备,采用预先收集的样本数据对初始的大规模语言模型进行分布式的并行训练,直至获取训练完成的目标语言模型。其中,大规模语言模型可以基于深度学习算法构建。在本实施例中,对大规模语音模型的结构可以不作具体限定。
46.其中,在进行分布式并行训练时,每个异构众核设备可以分别处理自己负责的数据,并与其他设备进行通信,以在计算完成后合并计算结果。在该过程中,需要使用该目标并行策略,以最小化通信和计算开销,并保证内存占用不超过设备自身的内存限制。
47.进一步的,在获取到目标语言模型之后,可以基于该目标语言模型实现开放域的智能问答。例如,可以将用户输入的问题文本输入该目标语言模型,并将该目标语言模型输出的答案文本进行用户展示。其中,问题文本,可以是任意的文档类型或者形式。
48.可选的,可以根据智能问答实现的精度要求或者速度要求,确定参与并行训练的异构众核设备的数量。
49.可以理解的是,目标并行策略还可以应用于其他领域大规模模型的并行训练;例如,目标检测模型、图像分类模型或者语音识别模型等,可以极大提升目标检测、图像分类、语音识别和智能问答等的效率和准确度。
50.本发明实施例的技术方案,通过获取多个切分算子,各切分算子对应的多个切分策略,以及各切分策略对应的通信算子;然后,根据各切分算子、各切分算子对应的多个切分策略和各切分策略对应的通信算子,获取多个候选并行策略,并通过预设策略搜索算法在多个候选并行策略中获取目标并行策略;最后,根据目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用目标语言模型实现开放域问答,通过自动生成候选并行策略和选择最优的并行策略,可以提升大规模语言模型的训练效率,可以提升智能问答的实现效率。
51.在本实施例的另一个可选的实施方式中,通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略,可以包括:
52.根据计算开销、通信开销和内存开销,获取损失函数;
53.通过预设策略搜索算法,根据所述损失函数,在所述多个候选并行策略中获取目标并行策略。
54.需要说明的是,异构众核设备的结构可以如图1b所示,相较于普通加速卡,异构众核设备具有交叉段显存和核组独有显存。其中,交叉段显存在加速卡中的众核显存中划分出来,构建为连续的显存地址;而核组独有显存在加速卡中的众核显存中划分出来,特定众
核可高速访问。因此,异构众核设备在通信上具有一定优势,故在策略搜索中需要把通信因素考虑进去。此外,不同于普通加速卡,异构众核设备的单卡具有4核组,因此在策略搜索中还需要把核组的计算因素考虑进去。
55.在本实施例中,策略搜索流程可以如图1c所示;其中,可以基于通信开销、计算开销和内存开销,设置平行训练所采用的损失函数。例如,由于在分布式并行中,通信开销通常是瓶颈,同时,由于每个设备的内存有限,故需要考虑设备内存占用情况,以避免内存溢出的问题,因此,可以将总通信开销与总计算开销的比值,以及内存占用比值是否小于预设比例阈值,作为损失函数。然后,可以通过预设的策略搜索算法,根据该损失函数,在所有的候选并行策略中筛选最优的目标并行策略。
56.上述设置的好处在于,可以实现对异构众核设备优势的充分利用,可以根据硬件配置和模型参数自动选择最佳的并行策略,可以提升大规模模型并行训练的效率,可以缩短训练时间,并可以提升模型的迭代速度。
57.在本实施例的另一个可选的实施方式中,通过预设策略搜索算法,根据所述损失函数,在所述多个候选并行策略中获取目标并行策略,可以包括:
58.通过预设策略搜索算法,根据所述损失函数,获取各所述候选并行策略对应的损失值;
59.若检测到当前候选并行策略对应最小损失值,则将所述当前候选并行策略作为目标并行策略。
60.在一个具体的例子中,可以通过预设的策略搜索算法,计算得到每个候选并行策略所对应的通信开销与计算开销的比值,以作为损失值,同时获取每个候选并行策略对应的内存占用比值。然后,首先判断各候选并行策略对应的内存占用比值是否小于预设的占用比阈值,以获取一定数量的初筛候选并行策略;之后,比较所有初筛候选并行策略对应的损失值,以获取对应最小损失值的初筛候选并行策略,以作为最终的目标并行策略。
61.在本实施例的另一个可选的实施方式中,根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,可以包括:
62.根据所述目标并行策略,获取目标切分算子、目标切分策略和目标通信算子;
63.根据所述目标切分策略将所述目标切分算子的输入特征进行切分处理,以获取各切分特征,并将各所述切分特征发送到各训练参与设备;
64.通过所述目标通信算子对各所述训练参与设备反馈的计算结果进行通信汇总,以获取所述输入特征对应的总计算结果。
65.在一个具体的例子中,算子插入示意可以如图1d所示。其中,对于一个卷积层算子,可以插入对应列切分逻辑的列切分算子,由此,可以将输入特征按列进行切分,以获取[0,1,2,3;4,5,6,7]
×
[10,11,12,13]和[0,1,2,3;4,5,6,7]
×
[14,15,16,17]两个切分特征;然后,可以将切分特征分别发送到一个训练参与设备,以使各训练参与设备分别计算得到卷积结果;然后,可以通过all gather算子对各训练参与设备的计算结果进行汇总合并,以得到总计算结果[14,98;258,346]。
[0066]
其次,当插入对应行切分逻辑的行切分算子时,可以将输入特征按行进行切分,以获取[0,1;4,5]
×
[10,14;11,15]和[2,3;6,7]
×
[12,16;13,17]两个切分特征;然后,可以将切分特征分别发送到对应的训练参与设备,并可以通过all reduce算子对各训练参与设
备的计算结果进行规约处理,例如,矩阵相同位置的元素值相加,以获取最终的总计算结果[74,98;258,346]。
[0067]
需要说明的是,当插入对应复制逻辑的复制算子时,可以将输入特征复制后分发至各训练参与设备,以使各训练参与设备进行相同的卷积运算。最后,可以通过当前的目标通信算子对各训练参与设备的计算结果进行对应的汇总处理,以获取最终的总计算结果。
[0068]
由此,针对大规模语言模型的各组成单元,均可以通过上述过程进行参数调整,从而获取最终训练完成的语言模型。
[0069]
上述设置的好处在于,可以根据不同模型的特点和硬件资源的情况,自动进行并行化处理,减少了手动调整的工作量,降低了操作难度,提高了训练效率和精度;其次,可以支持大规模模型训练,能够应对海量数据和复杂模型的训练需求。
[0070]
实施例二:
[0071]
图2为本发明实施例二提供的一种大规模语言模型的开放域问答实现装置的结构示意图。如图2所示,该装置可以包括:切分算子获取模块210、候选并行策略获取模块220、目标并行策略获取模块230和模型训练模块240;其中,
[0072]
切分算子获取模块210,用于获取多个切分算子,并获取各所述切分算子对应的多个切分策略,以及各所述切分策略对应的通信算子;
[0073]
候选并行策略获取模块220,用于根据各所述切分算子、各所述切分算子对应的多个切分策略和各所述切分策略对应的通信算子,获取多个候选并行策略;
[0074]
目标并行策略获取模块230,用于通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略;
[0075]
模型训练模块240,用于根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用所述目标语言模型实现开放域问答。
[0076]
本发明实施例的技术方案,通过获取多个切分算子,各切分算子对应的多个切分策略,以及各切分策略对应的通信算子;然后,根据各切分算子、各切分算子对应的多个切分策略和各切分策略对应的通信算子,获取多个候选并行策略,并通过预设策略搜索算法在多个候选并行策略中获取目标并行策略;最后,根据目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用目标语言模型实现开放域问答,通过自动生成候选并行策略和选择最优的并行策略,可以提升大规模语言模型的训练效率,可以提升智能问答的实现效率。
[0077]
可选的,目标并行策略获取模块230,包括:
[0078]
损失函数获取单元,用于根据计算开销、通信开销和内存开销,获取损失函数;
[0079]
目标并行策略获取单元,用于通过预设策略搜索算法,根据所述损失函数,在所述多个候选并行策略中获取目标并行策略。
[0080]
可选的,目标并行策略获取单元,具体用于通过预设策略搜索算法,根据所述损失函数,获取各所述候选并行策略对应的损失值;
[0081]
若检测到当前候选并行策略对应最小损失值,则将所述当前候选并行策略作为目标并行策略。
[0082]
可选的,模型训练模块240,包括:
[0083]
目标切分算子获取单元,用于根据所述目标并行策略,获取目标切分算子、目标切
分策略和目标通信算子;
[0084]
切分特征获取单元,用于根据所述目标切分策略将所述目标切分算子的输入特征进行切分处理,以获取各切分特征,并将各所述切分特征发送到各训练参与设备;
[0085]
总计算结果获取单元,用于通过所述目标通信算子对各所述训练参与设备反馈的计算结果进行通信汇总,以获取所述输入特征对应的总计算结果。
[0086]
可选的,所述预设策略搜索算法包括贪心算法和/或遗传算法。
[0087]
可选的,所述切分算子包括行切分算子、列切分算子和/或复制算子,所述通信算子包括规约算子和/或收集算子。
[0088]
本发明实施例所提供的大规模语言模型的开放域问答实现装置可执行本发明任意实施例所提供的大规模语言模型的开放域问答实现方法,具备执行方法相应的功能模块和有益效果。
[0089]
实施例三:
[0090]
图3示出了可以用来实施本发明的实施例的电子设备30的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备(如头盔、眼镜、手表等)和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本发明的实现。
[0091]
如图3所示,电子设备30包括至少一个处理器31,以及与至少一个处理器31通信连接的存储器,如只读存储器(rom)32、随机访问存储器(ram)33等,其中,存储器存储有可被至少一个处理器执行的计算机程序,处理器31可以根据存储在只读存储器(rom)32中的计算机程序或者从存储单元38加载到随机访问存储器(ram)33中的计算机程序,来执行各种适当的动作和处理。在ram 33中,还可存储电子设备30操作所需的各种程序和数据。处理器31、rom 32以及ram 33通过总线34彼此相连。输入/输出(i/o)接口35也连接至总线34。
[0092]
电子设备30中的多个部件连接至i/o接口35,包括:输入单元36,例如键盘、鼠标等;输出单元37,例如各种类型的显示器、扬声器等;存储单元38,例如磁盘、光盘等;以及通信单元39,例如网卡、调制解调器、无线通信收发机等。通信单元39允许电子设备30通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
[0093]
处理器31可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器31的一些示例包括但不限于中央处理单元(cpu)、图形处理单元(gpu)、各种专用的人工智能(ai)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(dsp)、以及任何适当的处理器、控制器、微控制器等。处理器31执行上文所描述的各个方法和处理,例如大规模语言模型的开放域问答实现方法。
[0094]
在一些实施例中,大规模语言模型的开放域问答实现方法可被实现为计算机程序,其被有形地包含于计算机可读存储介质,例如存储单元38。在一些实施例中,计算机程序的部分或者全部可以经由rom 32和/或通信单元39而被载入和/或安装到电子设备30上。当计算机程序加载到ram 33并由处理器31执行时,可以执行上文描述的大规模语言模型的开放域问答实现方法的一个或多个步骤。备选地,在其他实施例中,处理器31可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行大规模语言模型的开放域问答实现方
法。
[0095]
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(fpga)、专用集成电路(asic)、专用标准产品(assp)、芯片上系统的系统(soc)、负载可编程逻辑设备(cpld)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
[0096]
用于实施本发明的方法的计算机程序可以采用一个或多个编程语言的任何组合来编写。这些计算机程序可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器,使得计算机程序当由处理器执行时使流程图和/或框图中所规定的功能/操作被实施。计算机程序可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
[0097]
在本发明的上下文中,计算机可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的计算机程序。计算机可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。备选地,计算机可读存储介质可以是机器可读信号介质。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(ram)、只读存储器(rom)、可擦除可编程只读存储器(eprom或快闪存储器)、光纤、便捷式紧凑盘只读存储器(cd-rom)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
[0098]
为了提供与用户的交互,可以在电子设备上实施此处描述的系统和技术,该电子设备具有:用于向用户显示信息的显示装置(例如,crt(阴极射线管)或者lcd(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给电子设备。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
[0099]
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(lan)、广域网(wan)、区块链网络和互联网。
[0100]
计算系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与vps服务中,存在的
管理难度大,业务扩展性弱的缺陷。
[0101]
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发明中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本发明的技术方案所期望的结果,本文在此不进行限制。
[0102]
上述具体实施方式,并不构成对本发明保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本发明的精神和原则之内所作的修改、等同替换和改进等,均应包含在本发明保护范围之内。

技术特征:
1.一种大规模语言模型的开放域问答实现方法,其特征在于,包括:获取多个切分算子,并获取各所述切分算子对应的多个切分策略,以及各所述切分策略对应的通信算子;根据各所述切分算子、各所述切分算子对应的多个切分策略和各所述切分策略对应的通信算子,获取多个候选并行策略;通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略;根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用所述目标语言模型实现开放域问答。2.根据权利要求1所述的方法,其特征在于,通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略,包括:根据计算开销、通信开销和内存开销,获取损失函数;通过预设策略搜索算法,根据所述损失函数,在所述多个候选并行策略中获取目标并行策略。3.根据权利要求2所述的方法,其特征在于,通过预设策略搜索算法,根据所述损失函数,在所述多个候选并行策略中获取目标并行策略,包括:通过预设策略搜索算法,根据所述损失函数,获取各所述候选并行策略对应的损失值;若检测到当前候选并行策略对应最小损失值,则将所述当前候选并行策略作为目标并行策略。4.根据权利要求1所述的方法,其特征在于,根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,包括:根据所述目标并行策略,获取目标切分算子、目标切分策略和目标通信算子;根据所述目标切分策略将所述目标切分算子的输入特征进行切分处理,以获取各切分特征,并将各所述切分特征发送到各训练参与设备;通过所述目标通信算子对各所述训练参与设备反馈的计算结果进行通信汇总,以获取所述输入特征对应的总计算结果。5.根据权利要求1-3中任一项所述的方法,其特征在于,所述预设策略搜索算法包括贪心算法和/或遗传算法。6.根据权利要求1或4所述的方法,其特征在于,所述切分算子包括行切分算子、列切分算子和/或复制算子,所述通信算子包括规约算子和/或收集算子。7.一种大规模语言模型的开放域问答实现装置,其特征在于,包括:切分算子获取模块,用于获取多个切分算子,并获取各所述切分算子对应的多个切分策略,以及各所述切分策略对应的通信算子;候选并行策略获取模块,用于根据各所述切分算子、各所述切分算子对应的多个切分策略和各所述切分策略对应的通信算子,获取多个候选并行策略;目标并行策略获取模块,用于通过预设策略搜索算法在所述多个候选并行策略中获取目标并行策略;模型训练模块,用于根据所述目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用所述目标语言模型实现开放域问答。8.根据权利要求7所述的装置,其特征在于,所述目标并行策略获取模块,包括:
损失函数获取单元,用于根据计算开销、通信开销和内存开销,获取损失函数;目标并行策略获取单元,用于通过预设策略搜索算法,根据所述损失函数,在所述多个候选并行策略中获取目标并行策略。9.一种电子设备,其特征在于,所述电子设备包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的大规模语言模型的开放域问答实现方法。10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机指令,所述计算机指令用于使处理器执行时实现权利要求1-6中任一项所述的大规模语言模型的开放域问答实现方法。

技术总结
本发明涉及深度学习技术领域,公开了一种大规模语言模型的开放域问答实现方法、装置及设备。该方法包括:获取多个切分算子,各切分算子对应的多个切分策略,以及各切分策略对应的通信算子;根据各切分算子、各切分算子对应的多个切分策略和各切分策略对应的通信算子,获取多个候选并行策略;通过预设策略搜索算法在多个候选并行策略中获取目标并行策略;根据目标并行策略进行大规模语言模型的分布式并行训练,以获取训练完成的目标语言模型,并采用目标语言模型实现开放域问答。本实施例的技术方案,通过自动生成候选并行策略和选择最优的并行策略,可以提升大规模语言模型的训练效率,可以提升智能问答的实现效率。可以提升智能问答的实现效率。可以提升智能问答的实现效率。


技术研发人员:吴志华 孙瑞鑫
受保护的技术使用者:太初(无锡)电子科技有限公司
技术研发日:2023.06.09
技术公布日:2023/8/31
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐