一种基于协同训练的深度多视图聚类方法及系统

未命名 08-29 阅读:109 评论:0


1.本发明属于数据挖掘和机器学习领域,尤其涉及一种基于协同训练的深度多视图聚类方法及系统。


背景技术:

2.本部分的陈述仅仅是提供了与本发明相关的背景技术信息,不必然构成在先技术。
3.聚类分析作为一种高效的无监督处理手段,在数据挖掘和机器学习领域中占有重要的地位,并广泛应用于机器学习、计算机视觉、数据挖掘和模式识别等领域。传统聚类算法在小规模数据集上具有良好的表现,但是只适用于低维数据,随着当今社会的科学技术水平飞速发展,数据的规模的迅速扩大,传统聚类算法对于处理高维数据场景时遭遇到了瓶颈,如何有效处理高维数据成为聚类问题的一个重要挑战。
4.针对此场景,异军突起的深度学习框架以其强大的特征表示和非线性拟合能力出现在研究人员的视野,深度神经网络可以很好地连接特征表示和聚类目标两部分;而深度学习与聚类算法的结合本质上是通过深度学习强大的表示能力来提升性能的一种聚类方式,这种方式有效解决了传统聚类在高维海量数据场景下的收敛难、精度低的问题。
5.例如:具有不同语言翻译版本的信息数据、具有不同形式的富文本信息、不同角度摄像机收集的人体动作捕捉数据等。
6.并且随着科学技术的迅速发展,同一对象的多方位信息化已经成为现实生活中越来越常见的现象。图1是多视图数据集示例图,如图1所示,多视图数据相较于单视图数据而言,具有互补性和一致性,可以提供更为丰富且全面的信息,因此成为了研究人员广泛关注的热门问题;而多视图聚类作为一种分析方法,可以将来自不同视图的数据合并起来进行聚类分析,以揭示不同视图之间的相关性和数据的内在结构。在众多多视图聚类算法中,基于协同训练的深度多视图聚类算法因为简洁有效的思想和出色的算法性能成为了该子领域中的研究热点。
7.当前的主流深度多视图算法在处理多视图数据时,往往更加关注不同视图间的信息交互,而忽略了每个视图本身所独有的信息,这种情况下,算法的性能往往无法达到最优;同时,由于视图间的学习策略固定,算法也无法充分利用协同训练的优势,这样限制了算法的发挥空间。


技术实现要素:

8.为克服上述现有技术的不足,针对目前主流基于协同训练的深度多视图聚类算法难以聚焦于视图本身的独有信息,以及协同训练中学习过程的过于粗粒度的控制问题,本发明提供了一种基于协同训练的深度多视图聚类方法及系统,设计了基于动态协同训练的深度多视图加权图嵌入聚类算法,针对多视图数据,采用动态协同训练思想,深入挖掘多视图间的互补信息,提高面向于多视图数据集的聚类效果。
9.为实现上述目的,本发明的一个或多个实施例提供了如下技术方案:
10.本发明第一方面提供了一种基于协同训练的深度多视图聚类方法。
11.一种基于协同训练的深度多视图聚类方法,包括:
12.获取待聚类的多视图,用每个视图预训练自己的深度自编码模型;
13.计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子;
14.基于每个视图的亲和矩阵、初始权重和视图间的初始动态学习因子,对每个视图的深度自编码模型进行迭代的正式训练,更新每个视图的权重和视图间的动态学习因子,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心;
15.基于最终的隐层特征和聚类中心,得到聚类结果;
16.其中,所述深度自编码模型,以视图的样本为输入、以隐层特征和聚类中心为输出,预训练以mse重构损失为目标函数,正式训练时,基于每个视图的亲和矩阵、权重和视图间的动态学习因子,构建目标函数。
17.进一步的,所述深度自编码模型,包括编码器、解码器和聚类层;
18.所述编码器,对输入的视图样本进行降维处理,得到视图的隐层特征;
19.所述解码器,基于视图的隐层特征,重构出新的视图样本;
20.所述聚类层,基于视图的隐层特征,利用k-means得到聚类中心。
21.进一步的,所述预训练的目标函数,用于最小化每个视图中原始样本和重构后的样本的误差,具体为:
[0022][0023]
其中,表示第v个视图的重构损失项,n表示视图v的样本个数,xi表示原始样本,f
θ
表示编码器,g
ω
表示解码器,g
ω
(f
θ
(xi)表示重构后的样本。
[0024]
进一步的,所述亲和矩阵,基于径向基函数的距离,量化样本间的相似度,具体公式为:
[0025][0026]
其中,σ表示径向基函数的带宽参数,nbi表示属于样本xi的近邻xj的集合。
[0027]
进一步的,所述正式训练的目标函数,由重构损失函数、聚类损失函数、图嵌入约束损失函数和权重熵损失函数组成,具体公式为:
[0028]
l=l
rec
+γl
clustering
+ηl
graph
+ρlw[0029][0030][0031]
[0032][0033]
其中,l
rec
、l
clustering
、l
graph
、lw分别表示重构损失函数、聚类损失函数、图嵌入约束损失函数和权重熵损失函数,分别表示视图v的重构损失项、聚类损失项、图嵌入约束损失项和权重熵损失项,γ、η、ρ分别表示聚类损失函数、图嵌入约束损失函数和权重熵损失函数的超参数;
[0034]
进一步的,所述聚类项,用来最大化原始样本学生t分布和锐化后的辅助分布之间的相似度,具体公式为:
[0035][0036]
其中,qv表示视图v的学生t分布,pr表示视图r的qv分布进行锐化操作后的辅助分布,ξ
vr
表示视图v向视图r学习的动态学习因子,d
kl
表示kl散度公式。
[0037]
进一步的,所述图嵌入约束项,用来约束样本间的邻近关系,具体公式为:
[0038][0039]
其中,表示视图v中第i样本与第j样本之间的相似度,n表示视图v的样本个数,k为视图v的聚类中心个数,l表示每个样本的邻居个数,分别表示视图v的第i和第j个样本隶属度。
[0040]
进一步的,所述每个视图的权重,具体公式为:
[0041][0042]
其中,ωv表示视图v的权重,分别表示视图v的聚类项、图嵌入约束项,γ、η分别表示聚类、图嵌入约束的超参数。
[0043]
进一步的,所述视图间的动态学习因子,具体公式为:
[0044][0045][0046][0047]
其中,θ为一个大于0的参数,用来控制学习因子更新的速度,β表示两个视图价值的度量,qv是当前视图v的学生t分布,qr是目标视图r的学生t分布,表示全局学生t分布,用来作为所有视图的全局共识。
[0048]
本发明第二方面提供了一种基于协同训练的深度多视图聚类系统。
[0049]
一种基于协同训练的深度多视图聚类系统,包括预训练模块、初始化模块、训练模块和聚类模块:
[0050]
预训练模块,被配置为:获取待聚类的多视图,用每个视图预训练自己的深度自编码模型;
[0051]
初始化模块,被配置为:计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子;
[0052]
训练模块,被配置为:基于每个视图的亲和矩阵、初始权重和视图间的初始动态学习因子,对每个视图的深度自编码模型进行迭代的正式训练,更新每个视图的权重和视图间的动态学习因子,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心;
[0053]
聚类模块,被配置为:基于最终的隐层特征和聚类中心,得到聚类结果;
[0054]
其中,所述深度自编码模型,以视图的样本为输入、以隐层特征和聚类中心为输出,预训练以mse重构损失为目标函数,正式训练时,基于每个视图的亲和矩阵、权重和视图间的动态学习因子,构建目标函数。
[0055]
以上一个或多个技术方案存在以下有益效果:
[0056]
本发明为每一个视图提供近邻亲和度的先验知识,保证在算法关注全局信息的同时也不会忽视对局部信息的利用;引入动态学习因子,使得算法在进行聚类任务的过程中可以充分满足视图间的互补性原则;为了关注各个视图的真实价值程度,本发明为每个视图赋予一个权重,来体现视图数据本身的差异性;这些优化措施进一步提高了面向于多视图数据集的聚类效果。
[0057]
本发明附加方面的优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
[0058]
构成本发明的一部分的说明书附图用来提供对本发明的进一步理解,本发明的示意性实施例及其说明用于解释本发明,并不构成对本发明的不当限定。
[0059]
图1为多视图数据集示例图。
[0060]
图2为第一个实施例的方法流程图。
[0061]
图3为第一个实施例目标函数的构建示意图。
[0062]
图4为第二个实施例的系统结构图。
具体实施方式
[0063]
应该指出,以下详细说明都是例示性的,旨在对本技术提供进一步的说明。除非另有指明,本发明使用的所有技术和科学术语具有与本技术所属技术领域的普通技术人员通常理解的相同含义。
[0064]
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本技术的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
[0065]
本发明涉及基于协同训练的深度多视图聚类方法,结合当前主流研究的现状,所
面临的技术问题及其解决方案如下:
[0066]
(1)基于协同训练的方式的主要核心思想就促进各个视图间进行互相学习以达成最终结果的最优化,但是由于这种方式过多地关注视图间的差异性,只考虑了样本与聚类中心的距离,而忽略了样本间的近邻关系,即每个视图本身所独有的信息;这种情况下,对簇边界的样本进行划分时会造成错误结果,从而影响聚类的性能。为了解决这个问题,本发明在进行聚类分配的同时,为模型输入提供了额外的基于样本间的相似度的亲和矩阵,这样使得算法在聚焦于整体的样本聚类分配任务的同时,也同时关注样本间的近邻信息。
[0067]
(2)考虑到多视图数据集中对同一个对象的不同视图的描述都包含各自独特的信息,但是目前大多数算法中单个视图去学习其他视图的程度是固定的,即视图间的学习策略固定,并且在学习过程中无法改变,因此在实际中无法充分发挥协同训练的优势;此外,考虑到固定一个全局学习因子很难对所有视图的信息都照顾周全,较小的值会导致当前源视图学习不充分,而较大的值会导致来自其他视图的知识比重过高而造成自己本身目标被忽略。本发明认为在深度聚类对多视图之间的协同学习应该按照学习过程中程度的不断加深而智能调整学习的速率,为此设计一个动态学习因子来调整每个视图向其他视图的学习程度,具体的,设计一个全局共识,作为衡量知识价值的基准,通过将源视图和目标视图与全局共识进行比较来确定当前状态下学习因子的大小,从而实现动态学习。
[0068]
(3)考虑到动态学习策略虽然优化了学习方式,但是在评估视图的价值程度方面并不可靠,算法需要更加关注各个视图的数据本身,了解它们之间的差异,这样能够更加准确地展示各个视图的重要性和价值程度;所以本发明为每个视图赋予一个权重,这样在全局协同训练的过程中,可以时刻关注每个视图对整体聚类的重要程度,并在迭代过程中强调可靠视图对全局聚类的促进作用;在这个过程中,通过分析每个视图的贡献,确定其特点和重要性,并在后续的训练过程中提高对这些重要视图的倾斜程度。
[0069]
实施例一
[0070]
在一个或多个实施方式中,公开了一种基于协同训练的深度多视图聚类方法,具有适用面广、性能优秀的特点;针对多视图数据,采用动态协同训练思想,深入挖掘多视图间的互补信息,图2是方法的流程,如图2所示,包括如下步骤:
[0071]
步骤s1:获取待聚类的多视图,用每个视图预训练自己的深度自编码模型。
[0072]
读入一组需要进行聚类的包含v个视图的多视图数据集x={x1,x2,

,xv},每一个视图表示为其中,i表示视图v的样本数量。
[0073]
预训练阶段,对于多视图数据集的每个视图数据,构建自己的深度自编码模型,通过基于mse重构损失的目标函数,来最小化预训练过程中每个视图中原始样本和重构后的样本的误差,目标函数具体为:
[0074][0075]
其中,表示第v个视图的重构损失项,n表示视图v的样本个数,xi表示原始样本,f
θ
表示编码器,g
ω
表示解码器,g
ω
(f
θ
(xi)表示重构后的样本。
[0076]
深度自编码模型,包括编码器f
θ
、解码器g
ω
和聚类层;编码器,对输入的视图样本进行降维处理,得到视图的隐层特征;解码器,基于视图的隐层特征,重构出新的视图样本;
聚类层,基于视图的隐层特征,利用k-means得到聚类中心;深度自编码模型以视图的样本为输入、以隐层特征和聚类中心为输出。
[0077]
具体的,预训练阶段的迭代次数epoch设置300,在预训练过程中,利用编码器f
θ
对整个多视图数据集进行降维处理得到隐层特征z={z1,z2,

,zv},然后用解码器g
ω
重构出新的视图样本,最后,先为每个视图随机初始化k个聚类中心cv={c1,c2,...,ck},然后利用k-means处理所有视图的隐层特征得到全部视图的初始聚类中心ck={c1,c2,...,cv},并用所有视图的聚类中心初始化预训练完成的深度自编码器模型中的聚类层。
[0078]
步骤s2:计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子。
[0079]
设置每个视图的初始权重ωv=1/v,设置合适的批处理大小batch_size,设置正式训练的迭代次数epoch为300,设置视图间的初始动态学习因子ξ
vr
的值为1。
[0080]
计算多视图数据集每个视图的亲和矩阵,基于径向基函数的距离,量化样本间的相似度,具体公式为:
[0081][0082]
其中,σ表示径向基函数的带宽参数,设置为1,nbi表示属于样本xi的近邻xj的集合。
[0083]
步骤s3:基于每个视图的亲和矩阵、初始权重和视图间的初始动态学习因子,对每个视图的深度自编码模型进行迭代的正式训练,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心。
[0084]
正式训练过程中,使用for循环来不断学习各个视图样本间的邻近关系、样本分布,更新每个视图的权重和视图间的动态学习因子,基于每个视图的亲和矩阵、权重和视图间的动态学习因子,构建目标函数,具体步骤为:
[0085]
步骤s301:迭代epoch次数自增一。
[0086]
步骤s302:采用和预训练相同的迭代训练方式,用预训练后的深度自编码器模型通过公式(1)的目标函数来对每个视图的样本进行重构,输出隐层特征z和聚类中心ck。
[0087]
在每个视图的重构损失项基础上,得到重构损失函数l
rec
,具体为:
[0088][0089]
步骤s303:基于隐层特征z和聚类中心ck,计算每个视图的聚类项,用来最大化原始样本学生t分布和锐化后的辅助分布之间的相似度,具体为:
[0090]
通过公式计算样本的隶属度,构建学生t分布,接着
用隶属度q
ij
通过公式构建相较于原始学生t分布置信度更高的辅助分布p
ij
,利用这两个分布通过kl散度公式来最大化q和p之间的相似度,再根据多视图数据本身具有多个视图的形式、结合赋予到各个视图的权重以及视图之间相互学习的动态学习因子,得到每个视图的聚类项公式:
[0091][0092]
其中,pr表示视图r的锐化后的辅助分布,qv表示视图v的学生t分布,ξ
vr
表示视图v向视图r学习的动态学习因子,d
kl
表示kl散度公式。
[0093]
在每个视图的聚类项基础上,得到聚类损失函数l
clustering
,具体为:
[0094][0095]
其中,ωv是视图v的权重。
[0096]
步骤s304:计算每个视图v的原始样本与其最近邻数据之间的图嵌入约束项,用来约束样本间的邻近关系,具体公式为:
[0097][0098]
其中,表示视图v中第i样本与第j样本之间的相似度,n表示视图v的样本个数,k为视图v的聚类中心个数,l表示每个样本的邻居个数,分别表示视图v的第i和第j个样本隶属度。
[0099]
在每个视图的图嵌入约束项基础上,得到图嵌入约束损失函数l
graph
,具体为:
[0100][0101]
其中,ωv是视图v的权重。
[0102]
步骤s305:每一轮epoch结束后,基于步骤s302-304中得到重构损失函数l
rec
、聚类损失函数l
clustering
和图嵌入约束损失函数l
graph
,并通过添加权重熵损失函数lw,构建整体的目标函数,采用随机梯度下降的方法完成一次整体算法的迭代。
[0103]
权重熵损失函数lw,用来限制权重的权重熵项,即平衡权重,公式为:
[0104][0105]
其中,ωv表示视图v的权重。
[0106]
图3是目标函数的构建示意图,如图3所示,整体的目标函数为:
[0107]
l=l
rec
+γl
clustering
+ηl
graph
+ρlwꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(9)
[0108]
其中,l
rec
、l
clustering
、l
graph
、lw分别表示重构损失函数、聚类损失函数、图嵌入约束损失函数和权重熵损失函数,γ、η、ρ分别表示聚类损失函数、图嵌入约束损失函数和权重
熵损失函数的超参数。
[0109]
步骤s306:每一轮epoch结束后,更新视图间的更新动态学习因子,具体公式为:
[0110][0111][0112][0113]
其中,θ为一个大于0的参数,用来控制学习因子更新的速度,β表示两个视图价值的度量,qv是当前视图v的学生t分布,qr是目标视图r的学生t分布,表示全局学生t分布,用来作为所有视图的全局共识。
[0114]
步骤s307:每一轮epoch结束后,更新每个视图的权重,具体公式为:
[0115][0116]
其中,ωv表示视图v的权重,分别表示视图v的聚类项、图嵌入约束项,γ、η分别表示聚类、图嵌入约束的超参数。
[0117]
步骤s308:每一轮epoch结束后,计算当前轮数的聚类精确度,具体计算方式为:
[0118]
首先,计算每个样本的标签:
[0119][0120]
其中,为全局学生t分布,li为算法为第i个样本计算得到的标签。
[0121]
然后,基于样本标签,计算聚类精确度其中,n为样本个数,yi为样本i的真实标签,map为重分配函数,δ为指示函数,具体如下:
[0122][0123]
步骤s309:如果当前迭代轮数epoch到达设定阈值则终止迭代;如果不满足重复执行步骤s301-308,在迭代停止后,取正式训练过程中聚类精确度最高的迭代轮中的隐层特征和聚类中心作为最终的隐层特征和聚类中心。
[0124]
步骤s4:基于最终的隐层特征和聚类中心,通过公式(12)计算得到的样本标签作为最终聚类结果。
[0125]
实施例二
[0126]
在一个或多个实施例中,公开了一种基于协同训练的深度多视图聚类系统,如图4所示,包括预训练模块、初始化模块、训练模块和聚类模块:
[0127]
预训练模块,被配置为:获取待聚类的多视图,用每个视图预训练自己的深度自编
码模型;
[0128]
初始化模块,被配置为:计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子;
[0129]
训练模块,被配置为:基于每个视图的亲和矩阵、初始权重和视图间的初始动态学习因子,对每个视图的深度自编码模型进行迭代的正式训练,更新每个视图的权重和视图间的动态学习因子,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心;
[0130]
聚类模块,被配置为:基于最终的隐层特征和聚类中心,得到聚类结果;
[0131]
其中,所述深度自编码模型,以视图的样本为输入、以隐层特征和聚类中心为输出,预训练以mse重构损失为目标函数,正式训练时,基于每个视图的亲和矩阵、权重和视图间的动态学习因子,构建目标函数。
[0132]
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

技术特征:
1.一种基于协同训练的深度多视图聚类方法,其特征在于,包括:获取待聚类的多视图,用每个视图预训练自己的深度自编码模型;计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子;基于每个视图的亲和矩阵、初始权重和视图间的初始动态学习因子,对每个视图的深度自编码模型进行迭代的正式训练,更新每个视图的权重和视图间的动态学习因子,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心;基于最终的隐层特征和聚类中心,得到聚类结果;其中,所述深度自编码模型,以视图的样本为输入、以隐层特征和聚类中心为输出,预训练以mse重构损失为目标函数,正式训练时,基于每个视图的亲和矩阵、权重和视图间的动态学习因子,构建目标函数。2.如权利要求1所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述深度自编码模型,包括编码器、解码器和聚类层;所述编码器,对输入的视图样本进行降维处理,得到视图的隐层特征;所述解码器,基于视图的隐层特征,重构出新的视图样本;所述聚类层,基于视图的隐层特征,利用k-means得到聚类中心。3.如权利要求1所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述预训练的目标函数,用于最小化每个视图中原始样本和重构后的样本的误差,具体为:其中,表示第v个视图的重构损失项,n表示视图v的样本个数,x
i
表示原始样本,f
θ
表示编码器,g
ω
表示解码器,g
ω
(f
θ
(x
i
)表示重构后的样本。4.如权利要求1所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述亲和矩阵,基于径向基函数的距离,量化样本间的相似度,具体公式为:其中,σ表示径向基函数的带宽参数,nb
i
表示属于样本x
i
的近邻x
j
的集合。5.如权利要求1所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述正式训练的目标函数,由重构损失函数、聚类损失函数、图嵌入约束损失函数和权重熵损失函数组成,具体公式为:l=l
rec
+γl
clustering
+ηl
graph
+ρl
www
其中,l
rec
、l
clustering
、l
graph
、l
w
分别表示重构损失函数、聚类损失函数、图嵌入约束损失函数和权重熵损失函数,分别表示视图v的重构损失项、聚类损失项、图嵌入约束损失项和权重熵损失项,γ、η、ρ分别表示聚类损失函数、图嵌入约束损失函数和权重熵损失函数的超参数。6.如权利要求5所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述聚类项,用来最大化原始样本学生t分布和锐化后的辅助分布之间的相似度,具体公式为:其中,q
v
表示视图v的学生t分布,p
r
表示视图r的q
v
分布进行锐化操作后的辅助分布,ξ
vr
表示视图v向视图r学习的动态学习因子,d
kl
表示kl散度公式。7.如权利要求5所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述图嵌入约束项,用来约束样本间的邻近关系,具体公式为:其中,表示视图v中第i样本与第j样本之间的相似度,n表示视图v的样本个数,k为视图v的聚类中心个数,l表示每个样本的邻居个数,分别表示视图v的第i和第j个样本隶属度。8.如权利要求1所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述每个视图的权重,具体公式为:其中,ω
v
表示视图v的权重,分别表示视图v的聚类项、图嵌入约束项,γ、η分别表示聚类、图嵌入约束的超参数。9.如权利要求1所述的一种基于协同训练的深度多视图聚类方法,其特征在于,所述视图间的动态学习因子,具体公式为:图间的动态学习因子,具体公式为:图间的动态学习因子,具体公式为:其中,θ为一个大于0的参数,用来控制学习因子更新的速度,β表示两个视图价值的度
量,q
v
是当前视图v的学生t分布,q
r
是目标视图r的学生t分布,表示全局学生t分布,用来作为所有视图的全局共识。10.一种基于协同训练的深度多视图聚类系统,其特征在于,包括预训练模块、初始化模块、训练模块和聚类模块:预训练模块,被配置为:获取待聚类的多视图,用每个视图预训练自己的深度自编码模型;初始化模块,被配置为:计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子;训练模块,被配置为:基于每个视图的亲和矩阵、初始权重和视图间的初始动态学习因子,对每个视图的深度自编码模型进行迭代的正式训练,更新每个视图的权重和视图间的动态学习因子,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心;聚类模块,被配置为:基于最终的隐层特征和聚类中心,得到聚类结果;其中,所述深度自编码模型,以视图的样本为输入、以隐层特征和聚类中心为输出,预训练以mse重构损失为目标函数,正式训练时,基于每个视图的亲和矩阵、权重和视图间的动态学习因子,构建目标函数。

技术总结
本发明提出了一种基于协同训练的深度多视图聚类方法及系统,涉及数据挖掘和机器学习领域,具体方案包括:获取待聚类的多视图,用每个视图预训练自己的深度自编码模型;计算每个视图的亲和矩阵,设置每个视图的初始权重和视图间的初始动态学习因子;对每个视图的深度自编码模型进行迭代的正式训练,更新每个视图的权重和视图间的动态学习因子,直到满足预设的迭代停止条件,输出最终的隐层特征和聚类中心;基于最终的隐层特征和聚类中心,得到聚类结果;本发明设计了基于动态协同训练的深度多视图加权图嵌入聚类算法,针对多视图数据,采用动态协同训练思想,深入挖掘多视图间的互补信息,提高面向于多视图数据集的聚类效果。提高面向于多视图数据集的聚类效果。提高面向于多视图数据集的聚类效果。


技术研发人员:周劲 陈聪 韩士元 王琳 陈月辉 杜韬 杨程 刘博文
受保护的技术使用者:济南大学
技术研发日:2023.05.30
技术公布日:2023/8/28
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐