一种基于元路径的上下文进行特征增强的群组推荐方法

未命名 10-08 阅读:88 评论:0


1.本发明属于推荐算法技术领域,特别是涉及一种基于元路径的上下文进行特征增强的群组推荐方法。


背景技术:

2.随着互联网技术的高速发展,互联网上的数据飞速增长,由此带来了严重的信息过载问题;特别地,在这样的背景下,推荐系统应运而生,成为造成人们解决信息过载的工具;现有的针对单用户的个性化推荐系统正在不断完善,并成功应用于各个领域,与我们的生活息息相关。然而,随着各项社交媒体的发展,人们有更多的机会以团体的方式去参加活动。例如,一群朋友一起去看电影、参加聚会或旅游。因此,为了满足各个群组的利益,给他们推荐感兴趣的项目,群组推荐系统被提出。群组推荐旨在帮助群组筛选大量的信息,向群组推荐满意的项目。
3.根据群组是否具有固定的成员,群组可分为长久性群组与偶然性群组。长久性群组是预先定义的,具有稳定的成员和足够的群组-物品交互记录,例如一个部门的全部成员。而偶然性群组是临时形成的,成员之间可能不具有社会关系,例如参加聚会或者学术会议的一群人。由于现实生活中偶然性群组更加普遍,因此本发明专注于为偶然性群组进行推荐。
4.现有技术中的大多数群组推荐方法利用预定义的策略来聚合群组成员的偏好。这些方法简单地将群组中成员的最大、最小或者平均偏好作为群组的偏好,这不能完整地模拟群组的动态决策过程,会降低推荐的性能。近期的一些方法尝试采用注意力机制去建模动态的群组决策过程,然而,其中的大多数方法仅仅利用群组-物品交互的历史数据来构建模型,这通常存在严重的数据稀疏性问题。


技术实现要素:

5.为了解决上述问题,本发明提供了一种基于元路径的上下文进行特征增强的群组推荐方法。
6.本发明的技术方案在于,通过群组表示学习、特征增强和模型优化,准确地建模群组的动态决策过程,并且利用基于元路径的上下文来增强群组与物品的表示,缓解数据稀疏性问题,提升推荐的准确性;首先,采用注意力机制来分别建模候选物品与用户之间的交互讨论对群组决策的影响,得到基于用户兴趣感知的群组表示与基于用户交互的群组表示,并通过一个融合门来融合这两种表示以得到统一的群组表示;然后,指定元路径模式,对异构信息网络上连接群组与物品的路径实例进行采样;并利用一个层次注意力网络来对采样的路径实例进行建模,得到基于元路径的上下文表示,将其用于增强群组与物品的表示;最后,利用mlp来得到群组对物品的预测评分以及用户对物品的预测评分,并采用
一种两阶段的训练策略来先后训练用户推荐与群组推荐任务。
7.本发明包括如下步骤:步骤1:在群组表示学习部分,利用用户兴趣感知模块来得到基于用户兴趣感知的群组表示,令作为群组g
t
的嵌入向量,是物品vj的原始嵌入向量,其中d是嵌入的尺寸;,群组内用户的嵌入向量写成其中动态调整群组成员的影响权重,使用一个注意力模块来模拟群组内的不同成员对候选物品的感兴趣程度,称为用户兴趣感知模块;对于候选物品vj与群组内的任一用户,将它们输入神经注意力网络中来得到群组内的每个用户的注意力得分α(i),然后使用softmax函数来归一化影响权重得到α(i)=h
t
relu(w
u1
ui+w
v1
vj+b),其中,分别是隐藏层的权重矩阵与偏差向量,d
α
控制隐藏层的尺寸;使用relu作为非线性激活函数;向量将隐藏层的输出向量变换为注意力权重;通过对群组成员的嵌入表示进行加权求和来得到基于用户兴趣感知的群组表示如下所示:步骤2:在群组表示学习部分,利用用户交互模块来得到基于用户交互的群组表示,使用自注意力网络来学习每个群组中用户之间的交互关系,给定由n个查询向量n个键向量n个值向量组成的矩阵,注意力得分的计算形式如下所示:为了捕获群组中用户之间的固有关系,将用户的嵌入组合表示为矩阵使用不同的线性变换将输入矩阵x映射为查询、键和值矩阵,其中,是学习的线性变换矩阵,这是自注意力层的一个重要的部分,因为x被投影到不同的表征子空间;
使用h个平行头在不同的位置上共同关注来自不同表征子空间的信息,对于第i个头,计算查询矩阵和键矩阵之间的相关性,并输出混合表示:mi=attention(qi,ki,vi),其中,最后,将由平行头产生的所有向量连接在一起,形成单个向量,随后进一步用线性映射混合来自不同头部的表示:其中,是基于用户交互的群组g
t
的整体表示;采用一个平均池化层来得到最终的基于用户交互的群组表示个平均池化层来得到最终的基于用户交互的群组表示步骤3:在群组表示学习部分,利用一个融合门来融合基于用户兴趣感知与基于用户交互的群组表示,得到统一的群组表示;为了捕获两种群组特征表示中的有用信息,使用一个融合门来融合两种群组表示,以得到统一的群组表示,具体计算公式如下所示:示,以得到统一的群组表示,具体计算公式如下所示:其中,f表示门控状态,与分别表示参数矩阵和向量,

表示元素积;步骤4:在特征增强部分,首先对异构信息网络上群组与物品交互元路径上的路径实例进行采样,使用deepwalk来学习群组和物品的初始嵌入向量,deepwalk通过在图上进行游走来学习结点的高阶关系,以得到每个结点的潜在表示,在异构信息网络中,如果下一个结点和当前结点的嵌入是相似的,则到下一结点的路径更有可能被连接;使用基于相邻节点相似性的方法来对路径上的下一个节点进行采样,对于每个指定的元路径,通过计算当前节点和候选输出节点之间的相似度来度量优先级,优先级分数直接反映了两个节点之间的关联度,为每种元路径采样到一些路径实例;步骤5:在特征增强部分,使用结点层注意力对路径实例进行建模,得到路径实例的表示,随后使用一个池化操作得到元路径的表示;元路径的语义信息由不同的路径实例提供,使用结点层级注意力来对结点序列进行建模,提取每条路径实例的丰富语义信息,同时区分序列中所有结点的重要性分布;给定某个元路径ρ的一条路径p,令表示通过连接节点嵌入形成的嵌入矩阵,其中l是路径实例的长度,d是实体的嵌入维度;将x
p
输入bi-lstm来捕获路径序列的信息,如下所示:h=bi-lstm(x
p
;θ),其中为bi-lstm的输出,θ表示bi-lstm的参数;自注意力网络层区分路径序列中不同结点的重要性程度,将h输入自注意力网络,并重复r次,获得r组注意力权重,然后将其作用到h,如下所示:
a=(a1,a2,

,ar)
th′
=ah其中与为注意力网络层的训练参数,da为网络层的神经元数量,与为注意力权重,为通过自注意力交互后的路径实例的表示矩阵;将h

进行平均池化,便可以得到路径实例p的嵌入表示h
p
,如下所示:h
p
=mean_pooling(h

)其中,步骤6:在特征增强部分,使用元路径层注意力聚合不同元路径模式的表示,得到基于元路径的上下文表示;用元路径层级注意力来建模群组对不同元路径的偏好程度,给定群组嵌入向量g
t
,物品嵌入向量vj,元路径嵌入向量c
ρ
,计算每种元路径的注意力得分β(ρ),如下所示:β(ρ)=h
t
f(w
g2g′
t
+w
v2
vj+w
c2cρ
+b),其中,表示权重矩阵,表示偏差向量,表示权重向量;f(
·
)表示激活函数,在这里它被设置为relu函数。然后,使用softmax函数对元路径注意力权重进行归一化得到如下所示:其中,表示从群组g
t
到物品vj的元路径集合,在得到元路径注意力得分后,可以通过聚合元路径的嵌入来得到基于元路径的上下文的表示cg→v:其中,使用一个前馈神经网络对基于元路径的上下文表示的各个维度的特征进行充分交互,挖掘元路径所含的高阶语义信息,并将其映射到d维空间中,如下所示:其中,与分别表示权重矩阵和偏差,为最终的基于元路径的上下文表示;步骤7:在特征增强部分,利用基于元路径的上下文所含的丰富语义信息增强群组与物品的表示,采用注意力机制来分别增强群组与物品的表示,如下所示:
其中,为权重矩阵,为偏差向量;步骤8:在模型优化部分,首先使用mlp来得到群组对物品的预测评分,随后采用bpr loss作为模型训练的目标函数,在获得元路径信息增强后的群组表示g
t
与物品表示vj,以及基于元路径的上下文的表示后,将三个向量进行连接并,馈送到mlp以得到预测分数如下所示:如下所示:其中,[;]表示向量的连接操作,编码来自三个层面的一次交互信息;mlp包括一个将relu作为激活函数的多隐藏层的神经网络与将sigmoid作为激活函数的输出层构成;从排序的角度来处理推荐任务,选择成对学习方法来优化模型参数;使用bayesian personalized ranking(bpr)loss,如下所示:其中,θ表示模型的参数集合,λ是l2正则化系数,表示群组的训练集,在里面的每个实例是一个三元组(g,v
p
,vn),它意味着群组g已经与正物品v
p
交互过,但是没有与负物品vn交互过,上述损失函数通过最大化正物品和负物品之间的阈值来优化模型参数;步骤9:在模型优化部分,使用mlp得到用户对物品的预测评分,采用bpr loss作为模型训练的目标函数,随后采用一种两阶段的训练策略来先后训练用户推荐与群组推荐任务,以提升群组推荐的性能;应用一种两阶段的学习策略,在群组任务训练前,首先利用用户-物品交互数据来对用户推荐任务进行训练来得到用户与物品更准确的偏好表示,在特征增强部分,将群组g
t
替换为用户ui,对用户ui、物品vj以及它们所处的异构信息网络进行建模,得到增强后的用户表示ui、物品表示vj与基于元路径上下文的表示随后,将它们进行连接并馈送到mlp,得到用户ui对物品vj的预测评分如下所示:如下所示:使用bayesian personalized ranking(bpr)loss来对用户推荐任务进行训练,如下所示:其中,θ表示模型的参数集合,λ是l2正则化系数,表示用户的训练集,在里面的
每个实例是一个三元组(u,v
p
,vn),它意味着用户u已经与正物品v
p
交互过,但是没有与负物品vn交互过;在第一阶段优化完损失函数便可以进行第二阶段群组任务的训练,即优化损失函数
[0008]
本发明的有益效果是,(1)本发明将异构信息网络引入群组推荐,并提出了一种新的群组推荐技术,它可以捕获异构信息网络中包含的群组、用户和物品的丰富结构和语义信息,从而缓解群组-物品交互数据的稀疏问题;(2)本发明强调了在群组决策中建模用户对候选物品的感兴趣程度以及用户之间的交互的重要性,并且设计了用户兴趣感知模块与用户交互模块来分别得到基于用户兴趣感知与用户交互的群组表示;然后,使用一个融合门模块来充分融合它们以得到更加准确与统一的群组表示,提升推荐的准确度;(3)本发明设计了一个新颖的层次注意力网络来获得群组与物品交互元路径上的重要语义信息,以提炼基于元路径的上下文表示,用于增强群组与物品的表示。具体地,结点层注意力可以区分不同结点的重要性,元路径层注意力可以区分不同元路径的重要性,能更加有效与准确地学习到群组与物品交互的上下文信息,从而缓解数据稀疏性问题,提升模型的性能;(4)本发明在三个真实的数据集上进行了充分的实验。实验结果验证了本发明技术的有效性。
附图说明
[0009]
图1为本发明的流程图。
具体实施方式
[0010]
为使本发明的目的、技术方案和优点更加清楚明了,下面结合具体实施方式并参照附图,对本发明进一步详细说明。应该理解,这些描述只是示例性的,而并非要限制本发明的范围。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本发明的概念;此外,下面所描述的本发明不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。以下将参照附图更详细地描述本发明。
[0011]
通过群组表示学习、特征增强和模型优化,准确地建模群组的动态决策过程,并且有效地利用基于元路径的上下文来增强群组与物品的表示,缓解数据稀疏性问题,提升推荐的准确性;首先,采用注意力机制来分别建模候选物品与用户之间的交互讨论对群组决策的影响,得到基于用户兴趣感知的群组表示与基于用户交互的群组表示,并通过一个融合门来融合这两种表示以得到统一的群组表示;然后,指定元路径模式,对异构信息网络上连接群组与物品的路径实例进行采样;并利用一个层次注意力网络来对采样的路径实例进行建模,得到基于元路径的上下文表示,将其用于增强群组与物品的表示;最后,利用mlp来得到群组对物品的预测评分以及用户对物品的预测评分,并采用
一种两阶段的训练策略来先后训练用户推荐与群组推荐任务。
[0012]
本发明包括如下步骤:步骤1:在群组表示学习部分,利用用户兴趣感知模块来得到基于用户兴趣感知的群组表示,令作为群组g
t
的嵌入向量,是物品vj的原始嵌入向量,其中d是嵌入的尺寸;,群组内用户的嵌入向量写成其中在群组内,不同成员的影响力是不同的。在面对同一物品时,不同成员对该物品的感兴趣程度也不一样。如果一个成员对某一个物品越感兴趣,那么他在群组决策过程中应当有更大的影响力。因此,在对用户嵌入表示进行融合以得到群组表示的过程中,需要动态调整群组成员的影响权重。动态调整群组成员的影响权重,使用一个注意力模块来模拟群组内的不同成员对候选物品的感兴趣程度,称为用户兴趣感知模块;具体来说,对于候选物品vj与群组内的任一用户,将它们输入神经注意力网络中来得到群组内的每个用户的注意力得分α(i),然后使用softmax函数来归一化影响权重得到α(i)=h
t
relu(w
u1
ui+w
v1
vj+b),其中,分别是隐藏层的权重矩阵与偏差向量,d
α
控制隐藏层的尺寸;使用relu作为非线性激活函数;向量将隐藏层的输出向量变换为注意力权重;通过对群组成员的嵌入表示进行加权求和来得到基于用户兴趣感知的群组表示如下所示:步骤2:在群组表示学习部分,利用用户交互模块来得到基于用户交互的群组表示,现实生活中,群组决策的过程是十分复杂的,群组成员之间往往会经过一个慎重的讨论过程而决定是否消费某个物品。例如,一个群组想要去某个城市旅游,用户u1可能对城市v1特别了解,而用户u2对城市v2更加了解,其他用户也有自己特别熟悉的地方,这时为了进行团队的决策,它们就会相互讨论,每个成员将自己的想法传达给组内的其他成员,称这个过程为群组内的用户交互。因此,尝试用建模和捕获群组内用户之间的交互关系。受最近使用自注意力机制学习单词之间的关系的成功启发,使用自注意力网络来学习每个群组中用户之间的交互关系。使用自注意力网络来学习每个群组中用户之间的交互关系,自注意力,也称为内部注意力,是一种注意力机制,自动捕捉单个序列的内部关系并计算其表示,无需任何附加信息;自注意力已成功应用于各种任务,如语义角色标注、阅读理解、语言理解等。在本发明中,采用多头自注意力机制。给定由n个查询向量n个键向量n个值向量组成的矩
阵,注意力得分的计算形式如下所示:为了捕获群组中用户之间的固有关系,将用户的嵌入组合表示为矩阵使用不同的线性变换将输入矩阵x映射为查询、键和值矩阵,其中,是学习的线性变换矩阵,这是自注意力层的一个重要的部分,因为x被投影到不同的表征子空间;使用h个平行头在不同的位置上共同关注来自不同表征子空间的信息,对于第i个头,计算查询矩阵和键矩阵之间的相关性,并输出混合表示:mi=attention(qi,ki,vi),其中,最后,将由平行头产生的所有向量连接在一起,形成单个向量,随后进一步用线性映射混合来自不同头部的表示:其中,是基于用户交互的群组g
t
的整体表示;由于每个群组的成员数量可能不相同,因此需要通过一个聚合层将群组g
t
的整体表示矩阵转化成单一向量。采用一个平均池化层来得到最终的基于用户交互的群组表示成单一向量。采用一个平均池化层来得到最终的基于用户交互的群组表示步骤3:在群组表示学习部分,利用一个融合门来融合基于用户兴趣感知与基于用户交互的群组表示,得到统一的群组表示;为了捕获两种群组特征表示中的有用信息,使用一个融合门来融合两种群组表示,以得到统一的群组表示,具体计算公式如下所示:示,以得到统一的群组表示,具体计算公式如下所示:其中,与分别表示参数矩阵和向量,

表示元素积;步骤4:在特征增强部分,首先对异构信息网络上群组与物品交互元路径上的路径实例进行采样,实际上,在异构信息网络中探索连接两个目标结点的所有路径实例是十分困难的。随着路径的长度和结点的链接的增加,路径的数量会呈爆炸式增长,这会导致探索路径的成本越来越大。此外,一些路径实例提供的有效信息少,甚至伴随着很多噪音,这会降低推荐的性能。因此,选择适量的高质量路径在减少时间成本的同时也能保证推荐的性能。本发明提出的路径采样策略如下所示:使用deepwalk来学习群组和物品的初始嵌入向量,deepwalk通过在图上进行游走
来学习结点的高阶关系,以得到每个结点的潜在表示,在异构信息网络中,如果下一个结点和当前结点的嵌入是相似的,则到下一结点的路径更有可能被连接;使用基于相邻节点相似性的方法来对路径上的下一个节点进行采样,具体来说,对于每个指定的元路径,通过计算当前节点和候选输出节点之间的相似度来度量优先级,优先级分数直接反映了两个节点之间的关联度,为每种元路径采样到一些路径实例;以yelp数据集上的元路径g-b-g'-b'为例,g与g’表示两个不同的群组,b与b'表示两个不同的商户,首先根据g与b,g'与b'的相似性对元路径实例进行采样,分别得到前k个起始子路径和结束子路径,然后将这些起始的元路径与结束元路径相连接,并计算连接后所有路径的b与g'的相似性,便可以得到前k个相似度最高的采样路径。步骤5:在特征增强部分,使用结点层注意力对路径实例进行建模,得到路径实例的表示,随后使用一个池化操作得到元路径的表示;元路径的语义信息由不同的路径实例提供,首先需要研究如何对路径实例进行建模,路径实例本质上是一个结点序列,因此可以将对路径实例的建模转换为对序列的建模。在序列建模领域比较常用的是长短期记忆网络。lstm具有提取特征、处理序列数据以及捕捉依赖关系的优势。另一方面,序列当中每个结点的重要性程度是不一样的。使用结点层级注意力来对结点序列进行建模,提取每条路径实例的丰富语义信息,同时区分序列中所有结点的重要性分布;给定某个元路径ρ的一条路径p,令表示通过连接节点嵌入形成的嵌入矩阵,其中l是路径实例的长度,d是实体的嵌入维度;将x
p
输入bi-lstm来捕获路径序列的信息,如下所示:h=bi-lstm(x
p
;θ),其中为bi-lstm的输出,θ表示bi-lstm的参数;自注意力网络层区分路径序列中不同结点的重要性程度,将h输入自注意力网络,并重复r次,获得r组注意力权重,然后将其作用到h,如下所示:a=(a1,a2,

,ar)
th′
=ah其中与为注意力网络层的训练参数,da为网络层的神经元数量,与为注意力权重,为通过自注意力交互后的路径实例的表示矩阵;将h

进行平均池化,便可以得到路径实例p的嵌入表示h
p
,如下所示:h
p
=mean_pooling(h

)其中,步骤6:在特征增强部分,使用元路径层注意力聚合不同元路径模式的表示,得到基于元路径的上下文表示;直观来说,不同的群组可能对元路径有不同的偏好。例如,群组g1,群组g2都对商户b2感兴趣,群组g1感兴趣的原因是g1交互过的商户b1与商户b2是同种类型的商户(例如都是中式餐馆),在这里群组g1对元路径gbcab的偏好程度更大;而群组g2感兴趣的原因是与g2有
相同消费记录的群组g3(例如,g2与g3都消费过b3)曾经与商户b2发生过交互,在这里群组g2对元路径gbgb的偏好程度更大。用元路径层级注意力来建模群组对不同元路径的偏好程度,给定群组嵌入向量g
t
,物品嵌入向量vj,元路径嵌入向量c
ρ
,计算每种元路径的注意力得分,如下所示:β(ρ)=h
t
f(w
g2g′
t
+w
v2
vj+w
c2cρ
+b),其中,表示权重矩阵,表示偏差向量,表示权重向量;f(
·
)表示激活函数,在这里它被设置为relu函数。然后,使用softmax函数对元路径注意力权重进行归一化,如下所示:其中,表示从群组g
t
到物品vj的元路径集合,在得到元路径注意力得分后,可以通过聚合元路径的嵌入来得到基于元路径的上下文的表示cg→v:其中,使用一个前馈神经网络对基于元路径的上下文表示的各个维度的特征进行充分交互,挖掘元路径所含的高阶语义信息,并将其映射到d维空间中,如下所示:其中,与分别表示权重矩阵和偏差,为最终的基于元路径的上下文表示;步骤7:在特征增强部分,利用基于元路径的上下文所含的丰富语义信息增强群组与物品的表示,采用注意力机制来分别增强群组与物品的表示,如下所示:与物品的表示,采用注意力机制来分别增强群组与物品的表示,如下所示:其中,为权重矩阵,为偏差向量;步骤8:在模型优化部分,首先使用mlp来得到群组对物品的预测评分,随后采用bpr loss作为模型训练的目标函数,在获得元路径信息增强后的群组表示g
t
与物品表示vj,以及基于元路径的上下文的表示后,将三个向量进行连接并,馈送到mlp以得到预测分数如下所示:
其中,[;]表示向量的连接操作,编码来自三个层面的一次交互信息;mlp包括一个将relu作为激活函数的多隐藏层的神经网络与将sigmoid作为激活函数的输出层构成;然后进行模型的优化训练。从排序的角度来处理推荐任务,选择成对学习方法来优化模型参数;成对学习的假设是,观察到的交互应该以比未观察到的交互更高的分数进行预测。使用bayesian personalized ranking(bpr)loss,如下所示:其中,θ表示模型的参数集合,λ是l2正则化系数,表示群组的训练集,在里面的每个实例是一个三元组(g,v
p
,vn),它意味着群组g已经与正物品v
p
交互过,但是没有与负物品vn交互过,上述损失函数通过最大化正物品和负物品之间的阈值来优化模型参数;步骤9:在模型优化部分,使用mlp得到用户对物品的预测评分,采用bpr loss作为模型训练的目标函数,随后采用一种两阶段的训练策略来先后训练用户推荐与群组推荐任务,以提升群组推荐的性能;对于偶然性群组来说,可观察到的群组-物品交互数据非常稀疏,因此学习到的群组表示与物品表示通常不够准确与可靠。为了进一步缓和这种数据稀疏性问题,我们应用一种两阶段的学习策略。应用一种两阶段的学习策略,在群组任务训练前,首先利用用户-物品交互数据来对用户推荐任务进行训练来得到用户与物品更准确的偏好表示,在特征增强部分,将群组g
t
替换为用户ui,对用户ui、物品vj以及它们所处的异构信息网络进行建模,得到增强后的用户表示ui、物品表示vj与基于元路径上下文的表示随后,将它们进行连接并馈送到mlp,得到用户ui对物品vj的预测评分如下所示:如下所示:使用bayesian personalized ranking(bpr)loss来对用户推荐任务进行训练,如下所示:其中,θ表示模型的参数集合,λ是l2正则化系数,表示用户的训练集,在里面的每个实例是一个三元组(u,v
p
,vn),它意味着用户u已经与正物品v
p
交互过,但是没有与负物品vn交互过;在第一阶段优化完损失函数便可以进行第二阶段群组任务的训练,即优化损失函数
[0013]
在本实施例中,使用现有的技术与本发明提出的技术方案进行实验对比,实验结
果如表1所示,其中实验基于大型的真实基准数据集movielens-1m与yelp,ml-1m-simi表示群组是由相似的用户所组成,ml-1m-rand表示群组内的用户是随机组成的:rand表示群组内的用户是随机组成的:表1实验结果如表1所示,与基于预定义聚合策略的推荐方法相比,即mf+(lm/mp/avg)与herec+(lm/mp/avg),本发明在三个数据集的两个评估指标上均取得了最佳的性能,这说明了预定义的静态分数聚合策略不足以很好地模拟复杂的群组决策过程。相比之下,本发明的技术方案可以通过注意力机制来分别建模用户对候选物品的感兴趣程度以及群组内成员之间的交互过程,以得到更加准确的群组表示。与近几年表现出色的群组推荐方法agree与cuberec相比,本发明在三个数据集的两个评估指标上也取得了最佳的性能。这是因为agree与cuberec仅仅利用群组-物品交互或者用户-物品交互的历史数据来构建模型,这通常会存在严重的数据稀疏性问题。相比之下,本发明的技术方案设计了一个新颖的层次注意力网络来获得群组与物品交互元路径上的重要语义信息,以增强群组与物品的表示,一定程度上缓解了数据稀疏性问题,从而提升了模型的性能。注:lm、mp、avg分别表示预定义策略中的最少痛苦、最大愉悦度、平均满意度策略。
[0014]
显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。

技术特征:
1.一种基于元路径的上下文进行特征增强的群组推荐方法,其特征在于:通过群组表示学习、特征增强和模型优化,准确地建模群组的动态决策过程,并且利用基于元路径的上下文来增强群组与物品的表示,缓解数据稀疏性问题,提升推荐的准确性;首先,采用注意力机制来分别建模候选物品与用户之间的交互讨论对群组决策的影响,得到基于用户兴趣感知的群组表示与基于用户交互的群组表示,并通过一个融合门来融合这两种表示以得到统一的群组表示;然后,指定元路径模式,对异构信息网络上连接群组与物品的路径实例进行采样;并利用一个层次注意力网络来对采样的路径实例进行建模,得到基于元路径的上下文表示,将其用于增强群组与物品的表示;最后,利用mlp来得到群组对物品的预测评分以及用户对物品的预测评分,并采用一种两阶段的训练策略来先后训练用户推荐与群组推荐任务。2.根据权利要求1所述的一种基于元路径的上下文进行特征增强的群组推荐方法,其特征在于包括如下步骤:步骤1:在群组表示学习部分,利用用户兴趣感知模块来得到基于用户兴趣感知的群组表示,令作为群组g
t
的嵌入向量,是物品v
j
的原始嵌入向量,其中d是嵌入的尺寸;,群组内用户的嵌入向量写成其中动态调整群组成员的影响权重,使用一个注意力模块来模拟群组内的不同成员对候选物品的感兴趣程度,称为用户兴趣感知模块;对于候选物品v
j
与群组内的任一用户,将它们输入神经注意力网络中来得到群组内的每个用户的注意力得分α(i),然后使用softmax函数来归一化影响权重得到α(i)=h
t
relu(w
u1
u
i
+w
v1
v
j
+b),其中,分别是隐藏层的权重矩阵与偏差向量,d
α
控制隐藏层的尺寸;使用relu作为非线性激活函数;向量将隐藏层的输出向量变换为注意力权重;通过对群组成员的嵌入表示进行加权求和来得到基于用户兴趣感知的群组表示如下所示:步骤2:在群组表示学习部分,利用用户交互模块来得到基于用户交互的群组表示,使用自注意力网络来学习每个群组中用户之间的交互关系,给定由n个查询向量n个键向量n个值向量组成的矩阵,注意力得分的计算形式如下所示:
为了捕获群组中用户之间的固有关系,将用户的嵌入组合表示为矩阵使用不同的线性变换将输入矩阵x映射为查询、键和值矩阵,其中,是学习的线性变换矩阵,这是自注意力层的一个重要的部分,因为x被投影到不同的表征子空间;使用h个平行头在不同的位置上共同关注来自不同表征子空间的信息,对于第i个头,计算查询矩阵和键矩阵之间的相关性,并输出混合表示:m
i
=attention(q
i
,k
i
,v
i
),其中,最后,将由平行头产生的所有向量连接在一起,形成单个向量,随后进一步用线性映射混合来自不同头部的表示:其中,是基于用户交互的群组g
t
的整体表示;采用一个平均池化层来得到最终的基于用户交互的群组表示均池化层来得到最终的基于用户交互的群组表示步骤3:在群组表示学习部分,利用一个融合门来融合基于用户兴趣感知与基于用户交互的群组表示,得到统一的群组表示;为了捕获两种群组特征表示中的有用信息,使用一个融合门来融合两种群组表示,以得到统一的群组表示,具体计算公式如下所示:得到统一的群组表示,具体计算公式如下所示:其中,f表示门控状态,与分别表示参数矩阵和向量,表示元素积;步骤4:在特征增强部分,首先对异构信息网络上群组与物品交互元路径上的路径实例进行采样,使用deepwalk来学习群组和物品的初始嵌入向量,deepwalk通过在图上进行游走来学习结点的高阶关系,以得到每个结点的潜在表示,在异构信息网络中,如果下一个结点和当前结点的嵌入是相似的,则到下一结点的路径更有可能被连接;使用基于相邻节点相似性的方法来对路径上的下一个节点进行采样,对于每个指定的元路径,通过计算当前节点和候选输出节点之间的相似度来度量优先级,优先级分数直接反映了两个节点之间的关联
度,为每种元路径采样到一些路径实例;步骤5:在特征增强部分,使用结点层注意力对路径实例进行建模,得到路径实例的表示,随后使用一个池化操作得到元路径的表示;元路径的语义信息由不同的路径实例提供,使用结点层级注意力来对结点序列进行建模,提取每条路径实例的丰富语义信息,同时区分序列中所有结点的重要性分布;给定某个元路径ρ的一条路径p,令表示通过连接节点嵌入形成的嵌入矩阵,其中l是路径实例的长度,d是实体的嵌入维度;将x
p
输入bi-lstm来捕获路径序列的信息,如下所示:h=bi-lstm(x
p
;θ),其中为bi-lstm的输出,θ表示bi-lstm的参数;自注意力网络层区分路径序列中不同结点的重要性程度,将h输入自注意力网络,并重复r次,获得r组注意力权重,然后将其作用到h,如下所示:a=(a1,a2,,a
r
)
t
h

=ah其中与为注意力网络层的训练参数,da为网络层的神经元数量,与为注意力权重,为通过自注意力交互后的路径实例的表示矩阵;将h

进行平均池化,便可以得到路径实例p的嵌入表示h
p
,如下所示:h
p
=mean_pooling(h

)其中,步骤6:在特征增强部分,使用元路径层注意力聚合不同元路径模式的表示,得到基于元路径的上下文表示;用元路径层级注意力来建模群组对不同元路径的偏好程度,给定群组嵌入向量g
t
,物品嵌入向量v
j
,元路径嵌入向量c
ρ
,计算每种元路径的注意力得分β(ρ),如下所示:β(ρ)=h
t
f(w
g2
g

t
+w
v2
v
j
+w
c2
c
ρ
+b),其中,表示权重矩阵,表示偏差向量,表示权重向量;f(
·
)表示激活函数,在这里它被设置为relu函数;然后,使用softmax函数对元路径注意力权重进行归一化得到如下所示:其中,表示从群组g
t
到物品v
j
的元路径集合,在得到元路径注意力得分后,可以通过聚合元路径的嵌入来得到基于元路径的上下文的表示c
g

v
:
其中,使用一个前馈神经网络对基于元路径的上下文表示的各个维度的特征进行充分交互,挖掘元路径所含的高阶语义信息,并将其映射到d维空间中,如下所示:其中,与分别表示权重矩阵和偏差,为最终的基于元路径的上下文表示;步骤7:在特征增强部分,利用基于元路径的上下文所含的丰富语义信息增强群组与物品的表示,采用注意力机制来分别增强群组与物品的表示,如下所示:品的表示,采用注意力机制来分别增强群组与物品的表示,如下所示:其中,为权重矩阵,为偏差向量;步骤8:在模型优化部分,首先使用mlp来得到群组对物品的预测评分,随后采用bpr loss作为模型训练的目标函数,在获得元路径信息增强后的群组表示g
t
与物品表示v
j
,以及基于元路径的上下文的表示后,将三个向量进行连接并,馈送到mlp以得到预测分数如下所示:如下所示:其中,[;]表示向量的连接操作,编码来自三个层面的一次交互信息;mlp包括一个将relu作为激活函数的多隐藏层的神经网络与将sigmoid作为激活函数的输出层构成;从排序的角度来处理推荐任务,选择成对学习方法来优化模型参数;使用bayesian personalized ranking(bpr)loss,如下所示:其中,θ表示模型的参数集合,λ是l2正则化系数,表示群组的训练集,在里面的每个实例是一个三元组(g,v
p
,v
n
),它意味着群组g已经与正物品v
p
交互过,但是没有与负物品v
n
交互过,上述损失函数通过最大化正物品和负物品之间的阈值来优化模型参数;步骤9:在模型优化部分,使用mlp得到用户对物品的预测评分,采用bpr loss作为模型训练的目标函数,随后采用一种两阶段的训练策略来先后训练用户推荐与群组推荐任务,以提升群组推荐的性能;应用一种两阶段的学习策略,在群组任务训练前,首先利用用户-物品交互数据来对用户推荐任务进行训练来得到用户与物品更准确的偏好表示,在特征增强部分,将群组g
t
替换为用户u
i
,对用户u
i
、物品v
j
以及它们所处的异构信息网络进行建模,得到增强后的用户
表示u
i
、物品表示v
j
与基于元路径上下文的表示随后,将它们进行连接并馈送到mlp,得到用户u
i
对物品v
j
的预测评分如下所示:如下所示:使用bayesian personalized ranking(bpr)loss来对用户推荐任务进行训练,如下所示:其中,θ表示模型的参数集合,λ是l2正则化系数,表示用户的训练集,在里面的每个实例是一个三元组(u,v
p
,v
n
),它意味着用户u已经与正物品v
p
交互过,但是没有与负物品v
n
交互过;在第一阶段优化完损失函数便可以进行第二阶段群组任务的训练,即优化损失函数

技术总结
本发明属于推荐算法技术领域,特别是涉及一种基于元路径的上下文进行特征增强的群组推荐方法。通过群组表示学习、特征增强和模型优化,准确地建模群组的动态决策过程;首先,采用注意力机制来分别建模候选物品与用户之间的交互讨论对群组决策的影响;然后,利用一个层次注意力网络来对采样的路径实例进行建模,得到基于元路径的上下文表示,将其用于增强群组与物品的表示;最后,利用MLP来得到群组对物品的预测评分以及用户对物品的预测评分。有益效果在于,设计了用户兴趣感知模块与用户交互模块,提升推荐的准确度;设计了一个新颖的层次注意力网络来获得群组与物品交互元路径上的重要语义信息,以此提升模型的性能。以此提升模型的性能。以此提升模型的性能。


技术研发人员:杨超 李焘
受保护的技术使用者:湖南大学
技术研发日:2023.07.03
技术公布日:2023/10/6
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐