一种应用在张力控制系统的CNN-LSTM模型训练方法、装置及介质与流程
未命名
10-21
阅读:53
评论:0
16.其中f(x)为教师-学生损失和学生模型损失之和,ws为student模型的权重均值,w
t
为teacher模型的权重均值,a为可调节参数。
17.对于张力系统不同的纠偏相关的变量因子,可以通过调节可调节参数大小的值,使得同一教师-学生网络模型可以适配不同的变量因子的模型训练。
18.进一步地,在通过多次卷积运算得到第一软标签数据前还包括:
19.对多次卷积后的数据进行全局池化。能够将上层卷积提取的高级特征进行全局抽象化进一步地,所述样本数据为:带路偏移量、带路速度、角度中的任意一项。
20.另一方面,本技术还提供一种应用在张力控制系统的cnn-lstm模型训练装置,其包括:
21.教师层模块:用于将样本数据输入至一训练完成的教师模型中,通过多次卷积运算得到第一软标签数据;
22.学生层模块:用于将所述样本数据输入至教师-学生模型的学生模型中,通过多次卷积得到第二软标签数据,并根据所述第一软标签数据和所述第二软标签数据计算教师-学生损失;
23.学生损失计算模块:用于根据第二软标签数据与样本数据中对应的硬标签数据之间的差值计算学生模型损失;
24.知识蒸馏模块:用于根据教师-学生损失和学生模型损失作为知识蒸馏的总损失,对所述学生模型进行知识蒸馏,完成对学生模型的训练。
25.进一步地,所述教师层模块还包括:
26.池化子模块:用于对多次卷积后的数据进行全局池化。
27.另一方面,本技术还提供一种存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现如上述任一项所述的一种应用在张力控制系统的cnn-lstm模型训练方法的步骤。
28.本发明所述的一种应用在张力控制系统的cnn-lstm模型训练方法,在张力控制系统中,引入教师-学生模型,通过知识蒸馏对教师-学生模型进行训练,利用大模型学习到的知识去指导小模型训练,使得小模型具有与大模型相当的性能,但是参数数量大幅降低,实现对cnn-lstm模型的压缩与加速,并进一步优化知识蒸馏的总损失函数,充分考虑在张力系统模型中学生模型和教师模型之间存在权重相差较大的情况导致训练过程中模型难以收敛的情况,因此将学生模型和教师模型的权重均值之差作为总损失函数的考虑项,使得模型训练得以收敛,进一步引入一个可调节参数,用于针对张力系统不同的纠偏相关的变量因子,可以通过调节可调节参数大小的值,使得同一教师-学生网络模型可以适配不同的变量因子的模型训练。
29.为了更好地理解和实施,下面结合附图详细说明本发明。
附图说明
30.图1为本技术提供的一种应用在张力控制系统的cnn-lstm模型训练方法的流程图;
31.图2为本技术提供的一种应用在张力控制系统的cnn-lstm模型训练装置的结构框图;
32.图3为本技术提供的一示例性的教师模型的结构图。
33.下面将结合本技术实施例的附图,对本发明的技术方案进行清楚完整的描述。
具体实施方式
34.请参阅图1和图2,图1为本技术提供的一种应用在张力控制系统的cnn-lstm模型训练方法的流程图;图2为本技术提供的一种应用在张力控制系统的cnn-lstm模型训练装置的结构框图;本技术提供一种应用在张力控制系统的cnn-lstm模型训练方法的实现方式,其包括:
35.s10:将样本数据输入至一训练完成的教师模型中,通过多次卷积运算得到第一软标签数据。步骤s10由教师层模块10执行。
36.本技术训练的cnn-lstm模型主要运用于张力控制系统,因此样本数据为多个带路上的相关的变量因子,包括偏移量、速度、角度等,训练集在带路上采集得到。结合图3教师模型由卷积神经网络组成,根据带路上的变量因子与张力控制结果之间的关系设计。其包括输入层,卷积层,多个池化层,四个密集连接的残差模块.通过输入层接收图片数据,在输入层后是一个卷积层,卷积层的卷积核大小为7x7,在第一层卷积后面,池化层用于提取更加抽象的特征,在第一层池化后,有四个密集连接的残差模块,每个密集连接残差模块通过将层与层之间两两连接来加强层与层之间的信息流动。第一个密集连接残差模块有7个3x3大小的卷积层,其他三个密集连接残差模块和第一个结构基本相同,分别有12,24,16个3x3大小的卷积层。之后一个全局池化层直接将上层卷积提取的高级特征进行全局抽象化,其作用和全连接层通过自主学习特征的全局抽象基本相同,然而无法对局部细节信息进行提取,但是全局池化层节省了大量的训练参数,从而降低了模型的大小。最后输出层的softmax函数输出每个类别的概率矩阵。其中概率最大的数字对应的类别索引为最终计算的类别结果。
37.以带路的偏移量为例,将偏移量的样本数据输入至教师模型中进行训练,根据教师模型的损失函数对教师模型不断进行训练,得到训练完成后的教师模型,再以测试集中选取多个样本数据x1~xn,输入到教师模型中,获取到教师模型对每个样本的第一软标签y1~yn。
38.s20:将所述样本数据输入至教师-学生模型的学生模型中,通过多次卷积得到第二软标签数据,并根据所述第一软标签数据和所述第二软标签数据计算教师-学生损失。步骤s20由学生层模块20执行。
39.我们的学生模型通常为浅层的resnet,这里我们采用resnet-18,
40.resnet18的基本含义是,网络的基本架构是resnet,网络的深度是18层。但是这里的网络深度指的是网络的权重层,也就是包括池化,激活,线性层。而不包括批量化归一层,池化层。学生模型依次包括:
41.7*7卷积层,这个卷积层的卷积核的大小为77,步长为2,padding为3,输出通道为64。
42.池化层这一层的卷积核的大小是33,步长为2,padding为1。最后输出数据的大小为64*56*56,也就是说这个池化不改变数据的通道数量,而会减半数据的大小。
43.3*3卷积层,此卷积层的卷积核的大小为33,步长为1,padding为1。最后通过两个
第一个卷积层的输出数据大小为64*54*54,也就是这一层不改变数据的大小和通道数。
44.3*3卷积层,再次通过一个卷积核大小为11的卷积层,并经过一个下采样。这样最后的输出数据为128*28*28。也就是将输出通道翻倍,输出数据大小全部减半。
45.再次通过一个卷积核大小为11的卷积层和下采样。得到的输出为256*14*14。也就是将输出通道翻倍,输出数据大小全部减半。
46.和上述同理,再次通过一个卷积核大小为11的卷积层和下采样。最后的输出为512*7*7。也就是将输出通道翻倍,输出数据大小全部减半。输入的数据经过上述的学生模型得到预测结果。
47.s30:根据第二软标签数据与样本数据中对应的硬标签数据之间的差值计算学生模型损失。步骤s30由学生损失计算模块30执行。
48.以带路的偏移量为例,在样本数据中选取与输入教师模型中相同样本x1~xn,并输入到学生模型中,获取到学生模型对每个样本的第二软标签y1~yn,计算第二软标签与第一软标签对应样本之间的差值,得到教师-学生模型损失,通过教师-学生模型损失指导学生模型学习已训练好的教师模型的先验知识。同样根据样本数据的真实偏移量与第二软标签数据之间的差值,也计算得到学生模型与真实值之间的损失,即学生模型损失。
49.s40:根据教师-学生损失和学生模型损失作为知识蒸馏的总损失,对所述学生模型进行知识蒸馏,完成对学生模型的训练。步骤s40由知识蒸馏模块40执行。
50.通过教师-学生损失和学生模型损失对学生模型进行优化,不断将教师模型的知识转移到学生模型中,以提高学生模型的性能和泛化能力。通过使用第二软标签数据和教师模型的第一软标签数据来训练学生模型,可以让学生模型更好地学习到教师模型的知识,而使用样本数据对学生模型进行微调,以便使得学生模型能够更好地适应样本数据的特征,经过知识蒸馏,得到一个准确度高且模型大小小的学生模型,可以用于张力控制系统的偏移量控制。
51.在另一个优选的实施例中,发明人发现在知识蒸馏的过程中,学生模型会有一些权重和教师模型相差较大,从而影响学生模型训练时候的精度,使得模型较难收敛,基于此,发明人还对知识蒸馏的损失函数进行了优化,优化后的知识蒸馏的损失函数为:
52.g(x)=f(x)+a(w
s-w
t
)253.其中f(x)为现有的知识蒸馏的损失函数,ws为student模型的权重均值,w
t
为teacher模型的权重均值,a为可调节参数。
54.本技术以带路的偏移量示例性的给出,如何获得一个应用于张力控制系统中的偏移量控制cnn-lstm小模型,但是在张力控制系统中还存在速度,角度等多个带路上的相关的变量因子,对于每一变量因子,其收敛情况并不一致,因此引入一个可调节参数a,对于不同的变量因子的,cnn-lstm模型设置,其收敛条件对应改变,提高本训练方法的普适性。
55.本发明所述的一种应用在张力控制系统的cnn-lstm模型训练方法,在张力控制系统中,引入教师-学生模型,通过知识蒸馏对教师-学生模型进行训练,利用大模型学习到的知识去指导小模型训练,使得小模型具有与大模型相当的性能,但是参数数量大幅降低,实现对cnn-lstm模型的压缩与加速,并进一步优化知识蒸馏的总损失函数,充分考虑在张力系统模型中学生模型和教师模型之间存在权重相差较大的情况导致训练过程中模型难以收敛的情况,因此将学生模型和教师模型的权重均值之差作为总损失函数的考虑项,使得
模型训练得以收敛,进一步引入一个可调节参数,用于针对张力系统不同的纠偏相关的变量因子,可以通过调节可调节参数大小的值,使得同一教师-学生网络模型可以适配不同的变量因子的模型训练。
56.本技术实施例还提供了一种计算机可读存储介质,其上储存有计算机程序,该计算机程序被处理器执行时实现上述任意一个实施例所述的一种应用在张力控制系统的cnn-lstm模型训练方法。
57.本发明可采用在一个或多个其中包含有程序代码的存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。计算机可读储存介质包括永久性和非永久性、可移动和非可移动媒体,可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其它数据。计算机的存储介质的例子包括但不限于:相变内存(pram)、静态随机存取存储器(sram)、动态随机存取存储器(dram)、其它类型的随机存取存储器(ram)、只读存储器(rom)、电可擦除可编程只读存储器(eeprom)、快闪记忆体或其它内存技术、只读光盘只读存储器(cd-rom)、数字多功能光盘(dvd)或其它光学存储、磁盒式磁带,磁带磁磁盘存储或其它磁性存储设备或任何其它非传输介质,可用于存储可以被计算设备访问的信息。
58.以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,则本发明也意图包含这些改动和变形。
技术特征:
1.一种应用在张力控制系统的cnn-lstm模型训练方法,其特征在于,包括:将样本数据输入至一训练完成的教师模型中,通过多次卷积运算得到第一软标签数据;将所述样本数据输入至教师-学生模型的学生模型中,通过多次卷积得到第二软标签数据,并根据所述第一软标签数据和所述第二软标签数据计算教师-学生损失;根据第二软标签数据与样本数据中对应的硬标签数据之间的差值计算学生模型损失;根据教师-学生损失和学生模型损失作为知识蒸馏的总损失,对所述学生模型进行知识蒸馏,完成对学生模型的训练。2.根据权利要求1所述的一种应用在张力控制系统的cnn-lstm模型训练方法,其特征在于,所述知识蒸馏的总损失的计算公式优化为:g(x)=f(x)+(w
s-w
t
)2其中f(x)为教师-学生损失和学生模型损失之和,w
s
为student模型的权重均值,w
t
为teacher模型的权重均值。3.根据权利要求2所述的一种应用在张力控制系统的cnn-lstm模型训练方法,其特征在于,所述知识蒸馏的总损失还包括了一可调节参数a,具体的总损失的计算公式优化为:g(x)=f(x)+a(w
s-w
t
)2其中f(x)为教师-学生损失和学生模型损失之和,w
s
为student模型的权重均值,w
t
为teacher模型的权重均值,a为可调节参数。4.根据权利要求3所述的一种应用在张力控制系统的cnn-lstm模型训练方法,其特征在于,在通过多次卷积运算得到第一软标签数据前还包括:对多次卷积后的数据进行全局池化。5.根据权利要求4所述的一种应用在张力控制系统的cnn-lstm模型训练方法,其特征在于,所述样本数据为:带路偏移量、带路速度、角度中的任意一项。6.一种应用在张力控制系统的cnn-lstm模型训练装置,其特征在于,包括:教师层模块:用于将样本数据输入至一训练完成的教师模型中,通过多次卷积运算得到第一软标签数据;学生层模块:用于将所述样本数据输入至教师-学生模型的学生模型中,通过多次卷积得到第二软标签数据,并根据所述第一软标签数据和所述第二软标签数据计算教师-学生损失;学生损失计算模块:用于根据第二软标签数据与样本数据中对应的硬标签数据之间的差值计算学生模型损失;知识蒸馏模块:用于根据教师-学生损失和学生模型损失作为知识蒸馏的总损失,对所述学生模型进行知识蒸馏,完成对学生模型的训练。7.根据权利要求6所述的一种应用在张力控制系统的cnn-lstm模型训练装置,其特征在于,所述教师层模块包括:池化子模块:用于对多次卷积后的数据进行全局池化。8.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至5任一项所述的一种应用在张力控制系统的cnn-lstm模型训练方法的步骤。
技术总结
本发明提供的一种应用在张力控制系统的CNN-LSTM模型训练方法,将样本数据输入至一训练完成的教师模型中,通过多次卷积运算得到第一软标签数据;将所述样本数据输入至教师-学生模型的学生模型中,通过多次卷积得到第二软标签数据,并根据所述第一软标签数据和所述第二软标签数据计算教师-学生损失;根据第二软标签数据与样本数据中对应的硬标签数据之间的差值计算学生模型损失;根据教师-学生损失和学生模型损失作为知识蒸馏的总损失,对所述学生模型进行知识蒸馏,完成对学生模型的训练。能够在不影响模型精度的情况下完成对CNN-LSTM模型大小的压缩,得到一个可以用于张力控制系统的小模型CNN-LSTM网络。LSTM网络。LSTM网络。
技术研发人员:黄卫民 张小虎
受保护的技术使用者:海目星激光科技集团股份有限公司
技术研发日:2023.07.10
技术公布日:2023/10/19
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
航空商城 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/