基于并行自编码器与权重丢弃的网络入侵检测方法及系统

未命名 08-29 阅读:96 评论:0


1.本发明涉及入侵检测技术领域,尤其涉及基于并行自编码器与权重丢弃的网络入侵检测方法及系统。


背景技术:

2.随着文件共享,移动支付和即时通信等新的互联网技术的出现,当前网络安全环境变得越来越复杂多变,与此同时,网络攻击者变得更加隐匿,攻击成本进一步降低,所有这些因素都严重威胁着网络安全环境;
3.为了抵御网络中的恶意流量攻击,入侵检测技术得到了快速的发展,入侵检测作为一道网络屏障可以很好的检测出恶意流量,但是随着网络攻击手段的日益丰富以及网络流量的急剧增多,入侵检测系统的检测器需要不断更新,这也对入侵检测系统的检测率和误报率提出了更高的要求,随着机器学习的不断发展与广泛运用,基于机器学习模型的入侵检测系统在性能上得到了大幅提升,机器学习模型较强的特征自动提取能力能够很好应对大量的网络流量以及多样的网络攻击,更重要的是,深度学习作为一种更先进的机器学习方法,在复杂网络环境下的入侵检测系统中得到了很好的运用,它能够自动提取高维网络流量数据中的特征,记录恶意流量的特点并进行识别,由于网络流量基于时间序列的特点,rnn能够具有更强的检测恶意流量能力,尽管rnn存在梯度爆炸和梯度消失的缺点,但随着rnn的不断发展出现了更多性能更好的模型,如门控循环单元(gru)、长短期记忆网络(lstm),这些模型在入侵检测的模型上得到了很好的运用,但网络仍然存在容易过拟合的风险。为了规避这种风险,通过使用dropout技术降低过拟合的风险在现有许多循环神经网络模型中都有着广泛应用,然而,dropout是以一个概率直接丢弃神经元,由于被丢弃的神经元在下一时间步的隐藏状态和记忆状态都将被丢弃,这会导致时间序列中的信息流动被破坏,另外,自编码器作为一种无监督的神经网络模型,可以对网络流量进行非线性特征降维,提取更有效的新特征。但只使用单个自编码器对流量特征降维时只能学习到一种特征表示,可能无法捕捉到更加丰富和复杂的流量特征。


技术实现要素:

4.为了解决上述技术问题,本发明的目的是提供基于并行自编码器与权重丢弃的网络入侵检测方法及系统,能够提高模型的鲁棒性并在流量特征的依赖关系不受破坏的同时减少模型过拟合的风险。
5.本发明所采用的第一技术方案是:基于并行自编码器与权重丢弃的网络入侵检测方法,包括以下步骤:
6.获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集;
7.基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建paen-wdgru入侵检测模型;
8.通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈
值,输出训练后的paen-wdgru入侵检测模型;
9.将测试集输入至训练后的paen-wdgru入侵检测模型进行预测,得到预测值;
10.将预测值与网络流量数据集进行比较,获取比较结果,并根据比较结果判定所述网络流量数据集中是否包括入侵网络流量数据。
11.进一步,所述获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集这一步骤,其具体包括:
12.获取网络流量数据集;
13.将网络流量数据集中的字符特征数据转换成数值,得到网络流量特征数值;
14.对网络流量特征数值进行one-hot编码,得到编码后的网络流量特征数值;
15.对编码后的网络流量特征数值进行归一化处理,得到归一化的网络流量特征数值;
16.根据预设比例对归一化的网络流量特征数值进行划分与标注处理,得到训练集与测试集。
17.进一步,所述构建paen-wdgru入侵检测模型这一步骤,其具体包括:
18.结合并行自编码器网络模型、拼接层、权重丢弃门控循环单元神经网络模型和全连接层,构建paen-wdgru入侵检测模型;
19.所述并行自编码器网络模型包括稀疏自编码器网络和深度自编码器网络,所述稀疏自编码器网络和深度自编码器网络为并行连接关系,其中,所述稀疏自编码器网络包括一个编码层,两个隐藏层和一个解码层,并在编码层的输出引入稀疏性惩罚项,所述深度自编码器网络包括多个编码层、潜在特征表示层与多个解码层;
20.所述权重丢弃门控循环单元神经网络模型包括门控循环单元的重置门、门控循环单元的更新门、引入weight-drop技术的候选隐藏层和输出层。
21.进一步,所述通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的paen-wdgru入侵检测模型这一步骤,其具体包括:
22.将训练集输入至paen-wdgru入侵检测模型进行训练;
23.基于paen-wdgru入侵检测模型的稀疏自编码器网络和深度自编码器网络分别对训练集进行特征降维处理,得到对应降维后的训练数据集;
24.基于paen-wdgru入侵检测模型的拼接层对降维后的训练数据集进行拼接处理,得到拼接后的训练数据集;
25.基于paen-wdgru入侵检测模型的权重丢弃门控循环单元神经网络模型对拼接后的训练数据集进行特征提取处理,得到特征训练数据集;
26.基于paen-wdgru入侵检测模型的全连接层对特征训练数据集进行分类处理,得到分类结果,所述分类结果包括异常入侵流量数据与正常流量数据;
27.循环上述对paen-wdgru入侵检测模型进行训练的步骤,直至达到预设迭代训练次数,得到训练后的paen-wdgru入侵检测模型。
28.进一步,paen-wdgru入侵检测模型中深度自编码器网络对训练集进行训练的步骤,其具体包括:
29.对于深度自编码器网络的编码层使用relu函数作为激活函数;
30.对于深度自编码器网络的解码层,除最后一层解码层使用sigmoid函数外,其它解
码层使用relu函数作为激活函数;
31.对于深度自编码器网络的潜在特征表示层为多个神经元数量递减的隐藏层组成,隐藏层神经元数量设置为32,使用优化器选择adam优化器来最小化深度自编码器网络的损失函数。
32.进一步,所述深度自编码器网络的损失函数的表达式为:
[0033][0034]
上式中,xi表示真实数据,x'i表示重构后的数据,a表示输入层神经元的数量。
[0035]
进一步,paen-wdgru入侵检测模型中稀疏自编码器网络对训练集进行训练的步骤,其具体包括:
[0036]
对于稀疏自编码器网络的编码层,激活函数使用relu函数,解码层使用sigmoid函数,隐藏层的神经元数量设置为32;
[0037]
对稀疏自编码器网络的编码层的输出加入稀疏性惩罚项,引入神经元的稀疏程度、神经元的期望激活水平和神经元的平均激活水平并选择adam优化器来最小化稀疏自编码器网络的损失函数。
[0038]
进一步,所述稀疏自编码器网络的损失函数的表达式为:
[0039][0040]
上式中,a
sae
(a,xi,x'i)表示稀疏自编码器网络的损失函数,a
ae
(a,xi,x'i)表示深度自编码器网络的损失函数,ε表示神经元的稀疏程度,ξ表示神经元的期望激活水平,ξj表示神经元的平均激活水平,xi表示真实数据,x'i表示重构后的数据,a和b分别表示输入层神经元和隐藏层神经元的数量。
[0041]
进一步,所述基于paen-wdgru入侵检测模型的权重丢弃门控循环单元神经网络模型对拼接后的训练数据集进行特征提取处理,得到特征训练数据集这一步骤,其具体包括:
[0042]
将拼接后的训练数据集输入至权重丢弃门控循环单元神经网络模型;
[0043]
基于权重丢弃门控循环单元神经网络模型的重置门,对当前时间步骤的状态信息进行重置遗忘处理,得到重置后的数据集;
[0044]
基于权重丢弃门控循环单元神经网络模型的更新门,控制在当前时间步骤,对重置后的数据集与当前输入信息结合起来,以更新当前时间步骤的状态信息,得到更新后的数据信息;
[0045]
对权重丢弃门控循环单元神经网络模型的候选隐藏层的权重矩阵使用weight-drop技术,计算当前时刻的候选隐藏层状态;
[0046]
结合更新后的数据信息与当前时刻的候选隐藏层状态,计算当前时刻的输出,得到特征训练数据集。
[0047]
本发明所采用的第二技术方案是:基于并行自编码器与权重丢弃的网络入侵检测系统,包括:
[0048]
预处理模块,用于获取网络流量数据集并进行数据预处理,得到对应的训练集与
测试集;
[0049]
构建模块,基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建paen-wdgru入侵检测模型;
[0050]
训练模块,用于通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的paen-wdgru入侵检测模型;
[0051]
测试模块,用于将测试集输入至训练后的paen-wdgru入侵检测模型进行预测,得到预测值;
[0052]
比较模块,用于将预测值与网络流量数据集进行比较,获取比较结果,并根据比较结果判定所述网络流量数据集中是否包括入侵网络流量数据。
[0053]
本发明方法及系统的有益效果是:本发明获取网络流量数据集并进行数据预处理,进一步基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建paen-wdgru入侵检测模型,通过并行自编码器网络模型特征进行提取,得到更显著与更具表达能力的特征,提高模型的鲁棒性,权重丢弃门控循环单元神经网络模型是在gru的基础上对其隐藏层使用了weight-drop技术,随机丢弃权重矩阵中某行的权重,相比于dropout直接丢弃神经元,由于被丢弃的神经元在下一时间步的隐藏状态和记忆状态都将被丢弃,这会导致时间序列中的信息流动被破坏,因此,权重丢弃门控循环单元神经网络模型可以更好地减少模型过拟合的风险并提高模型的泛化能力。
附图说明
[0054]
图1是本发明基于并行自编码器与权重丢弃的网络入侵检测方法的步骤流程图;
[0055]
图2是本发明基于并行自编码器与权重丢弃的网络入侵检测系统的结构框图;
[0056]
图3是本发明paen-wdgru入侵检测模型总体框架流程图;
[0057]
图4是现有的自编码器网络结构的示意图;
[0058]
图5是本发明稀疏自编码器网络结构的示意图;
[0059]
图6是本发明深层自编码器网络结构的示意图;
[0060]
图7是本发明门控循环单元结构的示意图。
具体实施方式
[0061]
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
[0062]
参照图1,本发明提供了基于并行自编码器与权重丢弃的网络入侵检测方法,该方法包括以下步骤:
[0063]
s1、利用编码和数据标准化对数据集进行预处理;
[0064]
具体地,将网络流量数据作为数据集,将数据集的字符特征数据转换成数值,再对该特征数值进行one-hot编码;例如protocol字段下有字符值’tcp’和’udp’,则将’tcp’映射为0,’udp’映射为1,再进行one-hot编码,则’tcp’变为[1,0],’udp’变为[0,1],从而将了离散特征的值映射到欧式空间中。
[0065]
进一步,分别对每个特征数值进行归一化,公式如下:
[0066][0067]
上式中,x
min
为该特征的最小值,x
max
为该特征的最大值;
[0068]
分割数据集,对整个数据集以8:2的比例分成训练集和测试集,分别取出训练集和测试集中的label字段,并逐条流量数据进行判断,若label字段值为

benign’,则标注为0,否则标注为1,即正常样本标注为0,异常样本标注为1,将训练数据保存为train_x,训练标签保存为train_y;测试数据保存为test_x,测试标签保存为test_y。
[0069]
s2、搭建并行自编码器网络(paen)模型;
[0070]
具体地,参照图3,并行自编码器网络模型由两个模型组成,分别是稀疏自编码器网络(sae)和深度自编码器网络。
[0071]
s21、搭建深度自编码器网络模型;
[0072]
具体地,dae(深度自编码器网络模型)是在自编码器的基础上(图4所示)添加了多个编码层,多个解码层,如图6所示,其中每一层隐藏层的神经元数量都比上一层的神经元数量要少,最终得到潜在特征表示,dae中使用均方误差损失函数对权重进行更新,如下所示:
[0073][0074]
上式中,xi表示真实数据,x'i表示重构后的数据,a表示输入层神经元的数量。
[0075]
s22、搭建稀疏自编码器网络模型;
[0076]
具体地,参照图5,sae(稀疏自编码器网络模型)由一个编码层,两个隐藏层和一个解码层组成。编码层的输入为数据的特征维度,第一个隐藏层为编码层的输出,第二个隐藏层为dropout层,解码层主要用于将数据重构,在sae中,还会对编码器层的输出加入稀疏性惩罚项,在sae的训练过程中,引入神经元的稀疏程度ε、神经元的期望激活水平ξ和神经元的平均激活水平ξj,最终需最小化的损失函数如下所示:
[0077][0078]
上式中,xi是真实数据,x'i是重构后的数据;a和b分别指输入层神经元和隐藏层神经元的数量,这意味着编码器层的输出向量中只有少数元素非零,这样可以强制网络学习到更加鲁棒的特征表示。
[0079]
s3、搭建权重丢弃门控循环单元(wdgru)神经网络模型;
[0080]
具体地,参照图7,设计门控循环单元的重置门r
t
,用于控制在当前时间步骤,多少先前的状态信息应该被遗忘或重置,以便更好地适应当前输入信息,重置门计算公式如下:
[0081]rt
=σ(w
rhht-1
+w
rx
x
t
+br)
[0082]
设计门控循环单元的更新门z
t
,用于控制在当前时间步骤,多少先前的状态信息应该被保留并与当前输入信息结合起来,以更新当前时间步骤的状态信息。更新门计算公式如下:
[0083]zt
=σ(w
zhht-1
+w
zx
x
t
+bz)
[0084]
计算当前时刻的候选隐藏层状态,计算公式如下所示:
[0085][0086]
计算当前时刻的输出h
t
,其表达式为:
[0087][0088]
其中,σ是sigmoid函数,

是矩阵的哈达玛乘积,w
rh
,w
rx
与br是重置门r
t
权重与偏置,w
zh
,w
zx
与bz是更新们z
t
的权重与偏置,w
hh
,w
hx
与bh是候选隐藏层的权重与偏置;
[0089]
在gru的基础上,对隐藏层的权重矩阵使用weight-drop技术,从而建立wdgru模型。weight-drop技术是一种正则化技术,使得隐藏层之间的权重矩阵的每一行会以1-p的概率被丢弃,换言之,weight-drop技术是在权重矩阵w上引入动态稀疏性,在训练阶段,会生成一个与w形状相同的二进制掩码矩阵mw,每个元素根据一定的概率分布随机取0或1,将w和mw进行哈达玛乘积操作,得到随机丢弃部分行后的权重矩阵如下式所示:
[0090][0091]
上式中,表示随机丢弃部分行后的权重矩阵,w表示权重矩阵,mw表示二进制掩码矩阵。
[0092]
s4、训练paen模型;
[0093]
具体地,首先先定义最终需要的特征维数,定义编码层、潜在表示层和解码层的节点数并初始化网络的权重,其权重与偏置都满足高斯分布,对于dae的编码层使用relu函数作为激活函数,对于解码层,除最后一层使用sigmoid函数外,其它层都使用relu函数作为激活函数,隐藏层神经元数量设置为32;使用优化器选择adam优化器来最小化损失函数。该优化器参数的更新不受梯度的伸缩变换影响,且无需手动调整参数,可以自动调节学习速率,有效避免陷入局部最小值,适合应用于大规模的数据及参数场景。设置模型的训练轮数为10,即epochs=10,对于sae的编码层,激活函数使用relu函数,解码层使用sigmoid函数;隐藏层的神经元数量设置为32;使用优化器选择adam优化器来最小化损失函数,设置模型的训练轮数为10,即epochs=10,在训练好这两个网络后,取出它们的编码层并输入数据完成对数据的特征降维,并组合它们的输出作为paen的输出;
[0094]
dae中数据首先被输入到编码器中,经过一系列的隐藏层进行特征提取和降维操作,最后输出到编码层。编码层的输出再经过解码器的一系列隐藏层进行逐层重构,最后得到输出结果。整个过程中,网络的目标是使得输入数据经过编码和解码后与原始数据的误差最小化,通过反向传播算法来优化网络参数,从而达到良好的特征提取和重构的效果;在sae中,编码层通过激活函数sigmoid将输入数据映射到一个较小的编码向量,解码层通过sigmoid函数将编码向量映射回原始的输入空间,在训练过程中,自编码器会尽可能地减小加入了稀疏惩罚项的损失函数,以确保编码层能够有效地保留输入数据的关键信息。
[0095]
s5、训练wdgru模型;
[0096]
具体地,首先先定义模型的输入、输出和隐藏层的结构,paen的输出作为wdgru的输入,并初始化它们的权重与偏置,权值和偏置满足正态分布,设置输出层神经元数量为64,在wdgru对特征进行更进一步的提取后,输入至全连接层中使用softmax函数进行分类,softmax函数如下所示:
[0097][0098]
在wdgru模型中,使用交叉熵损失函数进行优化,交叉熵损失函数如下所示:
[0099][0100]
上式中,u是真实的类别标签,是预测的类别概率,设置模型训练轮数为10,10轮训练完成后,得到一个训练好的模型;
[0101]
在训练过程中,使用weight-drop技术对gru的权重矩阵进行正则化。其处理数据的方法与标准的gru相同,即通过循环连接来捕捉序列数据中的长期依赖关系。不同之处在于,wdgru在训练过程中对权重矩阵进行随机丢弃,以防止过拟合。因此,在每个时间步中,通过gru的循环连接对输入数据进行处理,并将随机丢弃某些权重矩阵以进行正则化。
[0102]
s6、在训练阶段完成后,将测试集输入到训练好的模型中,得到预测值;将预测值和流量的真实标签进行比较,得到相应的比较结果。
[0103]
参照图2,基于并行自编码器与权重丢弃的网络入侵检测系统,包括:
[0104]
预处理模块,用于获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集;
[0105]
构建模块,基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建paen-wdgru入侵检测模型;
[0106]
训练模块,用于通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的paen-wdgru入侵检测模型;
[0107]
测试模块,用于将测试集输入至训练后的paen-wdgru入侵检测模型进行预测,得到预测值;
[0108]
比较模块,用于将预测值与网络流量数据集进行比较,获取比较结果,并根据比较结果判定所述网络流量数据集中是否包括入侵网络流量数据。
[0109]
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
[0110]
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本技术权利要求所限定的范围内。

技术特征:
1.基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,包括以下步骤:获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集;基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建paen-wdgru入侵检测模型;通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的paen-wdgru入侵检测模型;将测试集输入至训练后的paen-wdgru入侵检测模型进行预测,得到预测值;将预测值与网络流量数据集进行比较,获取比较结果,并根据比较结果判定所述网络流量数据集中是否包括入侵网络流量数据。2.根据权利要求1所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,所述获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集这一步骤,其具体包括:获取网络流量数据集;将网络流量数据集中的字符特征数据转换成数值,得到网络流量特征数值;对网络流量特征数值进行one-hot编码,得到编码后的网络流量特征数值;对编码后的网络流量特征数值进行归一化处理,得到归一化的网络流量特征数值;根据预设比例对归一化的网络流量特征数值进行划分与标注处理,得到训练集与测试集。3.根据权利要求2所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,所述构建paen-wdgru入侵检测模型这一步骤,其具体包括:结合并行自编码器网络模型、拼接层、权重丢弃门控循环单元神经网络模型和全连接层,构建paen-wdgru入侵检测模型;所述并行自编码器网络模型包括稀疏自编码器网络和深度自编码器网络,所述稀疏自编码器网络和深度自编码器网络为并行连接关系,其中,所述稀疏自编码器网络包括一个编码层,两个隐藏层和一个解码层,并在编码层的输出引入稀疏性惩罚项,所述深度自编码器网络包括多个编码层、潜在特征表示层与多个解码层;所述权重丢弃门控循环单元神经网络模型包括门控循环单元的重置门、门控循环单元的更新门、引入weight-drop技术的候选隐藏层和输出层。4.根据权利要求3所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,所述通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的paen-wdgru入侵检测模型这一步骤,其具体包括:将训练集输入至paen-wdgru入侵检测模型进行训练;基于paen-wdgru入侵检测模型的稀疏自编码器网络和深度自编码器网络分别对训练集进行特征降维处理,得到对应降维后的训练数据集;基于paen-wdgru入侵检测模型的拼接层对降维后的训练数据集进行拼接处理,得到拼接后的训练数据集;基于paen-wdgru入侵检测模型的权重丢弃门控循环单元神经网络模型对拼接后的训练数据集进行特征提取处理,得到特征训练数据集;基于paen-wdgru入侵检测模型的全连接层对特征训练数据集进行分类处理,得到分类
结果,所述分类结果包括异常入侵流量数据与正常流量数据;循环上述对paen-wdgru入侵检测模型进行训练的步骤,直至达到预设迭代训练次数,得到训练后的paen-wdgru入侵检测模型。5.根据权利要求4所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,paen-wdgru入侵检测模型中深度自编码器网络对训练集进行训练的步骤,其具体包括:对于深度自编码器网络的编码层使用relu函数作为激活函数;对于深度自编码器网络的解码层,除最后一层解码层使用sigmoid函数外,其它解码层使用relu函数作为激活函数;对于深度自编码器网络的潜在特征表示层为多个神经元数量递减的隐藏层组成,隐藏层神经元数量设置为32,使用优化器选择adam优化器来最小化深度自编码器网络的损失函数。6.根据权利要求5所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,所述深度自编码器网络的损失函数的表达式为:上式中,x
i
表示真实数据,x'
i
表示重构后的数据,a表示输入层神经元的数量。7.根据权利要求6所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,paen-wdgru入侵检测模型中稀疏自编码器网络对训练集进行训练的步骤,其具体包括:对于稀疏自编码器网络的编码层,激活函数使用relu函数,解码层使用sigmoid函数,隐藏层的神经元数量设置为32;对稀疏自编码器网络的编码层的输出加入稀疏性惩罚项,引入神经元的稀疏程度、神经元的期望激活水平和神经元的平均激活水平并选择adam优化器来最小化稀疏自编码器网络的损失函数。8.根据权利要求7所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,所述稀疏自编码器网络的损失函数的表达式为:上式中,a
sae
(a,x
i
,x'
i
)表示稀疏自编码器网络的损失函数,a
ae
(a,x
i
,x'
i
)表示深度自编码器网络的损失函数,ε表示神经元的稀疏程度,ξ表示神经元的期望激活水平,ξ
j
表示神经元的平均激活水平,x
i
表示真实数据,x'
i
表示重构后的数据,a和b分别表示输入层神经元和隐藏层神经元的数量。9.根据权利要求8所述基于并行自编码器与权重丢弃的网络入侵检测方法,其特征在于,基于paen-wdgru入侵检测模型的权重丢弃门控循环单元神经网络模型对拼接后的训练数据集进行特征提取处理,得到特征训练数据集这一步骤,其具体包括:将拼接后的训练数据集输入至权重丢弃门控循环单元神经网络模型;基于权重丢弃门控循环单元神经网络模型的重置门,对当前时间步骤的状态信息进行重置遗忘处理,得到重置后的数据集;
基于权重丢弃门控循环单元神经网络模型的更新门,控制在当前时间步骤,对重置后的数据集与当前输入信息结合起来,以更新当前时间步骤的状态信息,得到更新后的数据信息;对权重丢弃门控循环单元神经网络模型的候选隐藏层的权重矩阵使用weight-drop技术,计算当前时刻的候选隐藏层状态;结合更新后的数据信息与当前时刻的候选隐藏层状态,计算当前时刻的输出,得到特征训练数据集。10.基于并行自编码器与权重丢弃的网络入侵检测系统,其特征在于,包括以下模块:预处理模块,用于获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集;构建模块,基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建paen-wdgru入侵检测模型;训练模块,用于通过训练集对paen-wdgru入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的paen-wdgru入侵检测模型;测试模块,用于将测试集输入至训练后的paen-wdgru入侵检测模型进行预测,得到预测值;比较模块,用于将预测值与网络流量数据集进行比较,获取比较结果,并根据比较结果判定所述网络流量数据集中是否包括入侵网络流量数据。

技术总结
本发明公开了基于并行自编码器与权重丢弃的网络入侵检测方法及系统,该方法包括:获取网络流量数据集并进行数据预处理,得到对应的训练集与测试集;基于稀疏自编码器与深度自编码器,并引入weight-drop技术,构建PAEN-WDGRU入侵检测模型;通过训练集对PAEN-WDGRU入侵检测模型进行迭代训练,直至达到预设的迭代阈值,输出训练后的PAEN-WDGRU入侵检测模型;将测试集输入至训练后的PAEN-WDGRU入侵检测模型进行预测并进行比较。通过使用本发明,能够提高模型的鲁棒性并在流量特征的依赖关系不受破坏的同时减少模型过拟合的风险。本发明作为基于并行自编码器与权重丢弃的网络入侵检测方法及系统,可广泛应用于入侵检测技术领域。领域。领域。


技术研发人员:欧毓毅 周仲潇
受保护的技术使用者:广东工业大学
技术研发日:2023.06.01
技术公布日:2023/8/28
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐