基于提示学习与外部知识联合的立场检测方法、装置及系统
未命名
09-03
阅读:87
评论:0

1.本发明属于自然语言处理领域,具体涉及一种基于提示学习与外部知识联合的立场检测方法、装置及系统。
背景技术:
2.社交媒体平台已经成为个人与外界互动的主要组成部分,是智慧城市的有机成分。人们通过这些社交媒体平台来表达自己的一些观点,并与他人进行讨论。近年来,针对各种热点事件已经在网络上产生了大量有价值而繁杂的评论。近年的立场检测任务在社交媒体中得到深入的研究。用户所发表言论通常会围绕着一个主题,即讨论的主要目标。在早期的立场检测任务中,特征工程是最常用方法,但由于推文这样的特点导致根据实际需求很难准确提取特征。后来,基于深度学习的方法由于能够自动提取特征在立场检测中得到了广泛应用,且提升了立场检测的准确度。
3.然而,这些工作大多聚焦于文本本身的内容,主要的工作仍然集中在文本的表示上,忽略了数据中所携带的目标信息。也有一些工作虽然结合注意力机制增强了文本对目标信息的利用。但是目标本身所含的信息量比较匮乏,而文本本身也不一定会携带与目标相关的信息。从外部引入目标的相关外部知识信息能够有效缓解这个问题。目前,在立场检测任务中利用外部知识的工作大多都使用不同的模块分别对文本和知识的内容进行学习,最后再整合起来。这种做法使文本的学习与知识的学习相分割,无法获取文本与外部知识的关联特征,导致立场检测任务的精确度提升有限。
技术实现要素:
4.针对上述问题,本发明提出一种基于提示学习与外部知识联合的立场检测方法、装置及系统,不但扩充了文本中缺乏的话题信息量,而且充分考虑了文本信息和外部目标信息的内在关联特征,明显提高了立场检测的准确性。
5.为了实现上述技术目的,达到上述技术效果,本发明通过以下技术方案实现:
6.第一方面,本发明提供了一种基于提示学习与外部知识联合的立场检测方法,包括:
7.获取待检测的立场检测文本;
8.将所述待检测的立场检测文本输入至预先训练好的立场检测模型,使得所述立场检测模型输出立场检测结果;
9.其中,所述立场检测模型的训练过程如下:
10.获取若干个样本立场检测文本,并确定出每个立场检测文本的目标话题,通过tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;
11.生成与每个立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;
12.基于各新的样本立场检测文本及其对应的立场标签词集,生成训练样本集;
13.应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型。
14.可选地,立场检测文本通过三元组(target,text,stance)表示,target表示目标话题,text表示文本内容,stance表示文本立场;目标话题包括一个或者几个单词,文本内容包括一长串单词;基于所述文本内容推断对给定的目标话题的立场。
15.可选地,所述与每个立场检测文本的目标话题相关的外部知识的获取方法包括:
16.对从外部获取到的文本内容使用tf-idf算法,计算出每个词汇的tf-idf值;
17.挑选tf-idf值最大的前k个词汇作为每个立场检测文本的目标话题相关的外部知识。
18.可选地,所述新的样本立场检测文本的表达式为:
[0019][0020]
其中,x’表示新的样本立场检测文本,x表示样本立场检测文本,tempet表示立场检测文本的目标话题相关的模板,te表示立场检测文本的目标话题相关的外部知识,[sep]用于分割样本立场检测文本与外部知识。
[0021]
可选地,所述应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型,具体包括:
[0022]
将各新的样本立场检测文本x’及其对应的立场标签词集输入到预设的掩码语言模型;
[0023]
利用所述掩码语言模型对立场检测文本的目标话题相关的模板tempet中被遮掩的部分进行预测,得到一个立场标签词,该立场标签词属于一个立场标签词集,该立场标签词集内的所有立场标签词都被映射到一个立场标签。
[0024]
可选地,立场标签词集被表示为vy={v1,...,vi,...,vn},vy内的所有立场标签词都被映射到立场标签y上,vy中的每个立场标签词vi在立场检测文本的目标话题相关的模板中被遮掩的部分mask被填充的概率表示为p(y∈y|x)=p([mask]=v∈vy|x
′
)。
[0025]
可选地,所述立场检测方法还包括:对立场标签词集进行扩展:
[0026]
将若干个样本立场检测文本分别输入至预先训练过的掩码语言模型,预测出对应的立场标签词;
[0027]
统计与每个立场标签对应的立场检测文本所预测出的前k个立场标签词;
[0028]
以不同立场标签对应的立场标签词不同,针对每个立场标签,去除在至少两个立场标签中均出现的立场标签词;
[0029]
将每个立场标签中剩余的立场标签词与情感词典进行匹配,获得每个立场标签词的极性,若立场标签词的极性与立场标签的极性相同,则会被加入相应的立场标签词集。
[0030]
第二方面,本发明提供了一种基于提示学习与外部知识联合的立场检测装置,包括:
[0031]
数据获取模块,用于获取待检测的立场检测文本;
[0032]
立场检测模块,用于将所述立场检测文本输入至预先训练好的立场检测模型,使得所述立场检测模型输出立场检测结果;
[0033]
其中,所述立场检测模型的训练过程如下:
[0034]
获取若干个样本立场检测文本,并确定出每个立场检测文本的目标话题,通过tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;
[0035]
生成与每个立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;
[0036]
基于各新的样本立场检测文本及其对应的立场标签词,生成训练样本集;
[0037]
应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型。
[0038]
第三方面,本发明提供了一种基于提示学习与外部知识联合的立场检测系统,包括存储介质和处理器;
[0039]
所述存储介质用于存储指令;
[0040]
所述处理器用于根据所述指令进行操作以执行根据第一方面中任一项所述的方法。
[0041]
与现有技术相比,本发明的有益效果:
[0042]
本发明通过提示方法建立目标话题相关的模板,并利用掩码语言模型的多头注意力机制来学习立场检测文本与外部知识的关联特征,改善数据中的话题信息匮乏的问题。同时利用提示学习能够将外部的目标话题相关知识结合到任务中来,使模型能够同时根据上下文与外部知识信息来完成任务。从话题信息的扩充、文本和外部知识联合学习两方面有效提升了立场检测的准确度。
附图说明
[0043]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图,其中:
[0044]
图1为本发明一种实施例的基于提示学习与外部知识联合的立场检测方法的流程示意图;
[0045]
图2为提示学习方法的原理示意图;
[0046]
图3为本发明一种实施例的基于提示学习方法与外部知识联合的立场检测方法。
具体实施方式
[0047]
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
[0048]
另外,若本发明实施例中有涉及“第一”、“第二”等的描述,则该“第一”、“第二”等的描述仅用于描述目的,而不能理解为指示或暗示其相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。另外,各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本发明要求的保护范围之内。
[0049]
实施例1
[0050]
本发明实施例中提供了一种基于提示学习与外部知识联合的立场检测方法,如图
1所示,包括以下步骤:
[0051]
(1)获取待检测的立场检测文本;
[0052]
(2)将所述待检测的立场检测文本输入至预先训练好的立场检测模型,使得所述立场检测模型输出立场检测结果;
[0053]
其中,所述立场检测模型的训练过程如下:
[0054]
获取若干个样本立场检测文本,并确定出每个立场检测文本的目标话题,通过tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;
[0055]
生成与每个立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;
[0056]
基于各新的样本立场检测文本及其对应的立场标签词集,生成训练样本集;
[0057]
应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型。
[0058]
在本发明实施例的一种具体实施方式中,立场检测文本通过三元组(target,text,stance)表示,target表示目标话题,text表示文本内容,stance表示文本立场,可以被表示为y(against,favor,none);目标话题包括一个或者几个单词,可以被表示为t(t1,...,tn);文本内容包括一长串单词,可以被表示为x(x1,...,xn);基于所述文本内容推断对给定的目标话题的立场。
[0059]
在本发明实施例的一种具体实施方式中,所述与每个立场检测文本的目标话题相关的外部知识的获取方法包括:
[0060]
在wiki等知识网站站上搜索目标,使用爬虫抓取目标页面中的文本内容;
[0061]
对文本内容使用tf-idf算法,计算出每个词汇的tf-idf值;
[0062]
挑选tf-idf值最大的前k个词汇作为每个立场检测文本的目标话题相关的外部知识。
[0063]
在本发明实施例的一种具体实施方式中,所述新的样本立场检测文本的表达式为:
[0064][0065]
其中,x’表示新的样本立场检测文本,x表示样本立场检测文本,tempet表示立场检测文本的目标话题相关的模板,te表示立场检测文本的目标话题相关的外部知识,[sep]用于分割样本立场检测文本与外部知识。
[0066]
在本发明实施例的一种具体实施方式中,所述应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型,具体包括:
[0067]
将各新的样本立场检测文本x’及其对应的立场标签词集输入到预设的掩码语言模型;
[0068]
利用所述掩码语言模型对立场检测文本的目标话题相关的模板tempet中被遮掩的部分进行预测,得到一个立场标签词,该立场标签词属于一个立场标签词集,该立场标签词集内的所有立场标签词都被映射到一个立场标签。
[0069]
在本发明实施例的一种具体实施方式中,立场标签词集被表示为vy={v1,...,vi,...,vn},vy内的所有立场标签词都被映射到立场标签y上,vy中的每个立场标签词vi在立场检测文本的目标话题相关的模板中被遮掩的部分mask被填充的概率表示为p(y∈y|x)=p([mask]=v∈vy|x
′
)。
[0070]
在本发明实施例的一种具体实施方式中,所述立场检测方法还包括:对立场标签词集进行扩展:
[0071]
将若干个样本立场检测文本分别输入至预先训练过的掩码语言模型,预测出对应的立场标签词;
[0072]
统计与每个立场标签对应的立场检测文本所预测出的前k个立场标签词;
[0073]
以不同立场标签对应的立场标签词不同,针对每个立场标签,去除在至少两个立场标签中均出现的立场标签词;
[0074]
将每个立场标签中剩余的立场标签词与情感词典进行匹配,获得每个立场标签词的极性,若立场标签词的极性与立场标签的极性相同,则会被加入相应的立场标签词集。
[0075]
下面将结合具体的实例来对本发明进行进一步说明,本实例为从互联网上采集的semeval-2016 task 6 a立场检测数据集,其具体信息如表1与表2所示。
[0076]
表1:semeval-2016 task 6 a训练集细节
[0077][0078]
表2:semeval-2016 task 6 a测试集细节
[0079][0080]
所述立场检测方法具体包括以下步骤:
[0081]
步骤一:从semeval-2016 task 6a立场检测数据集中获取立场检测文本数据集,所述立场检测文本数据集中包括若干个立场检测文本,确定每个立场检测文本的立场标签向量,文本立场则表示为y(against,favor,none),tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;tf是词频,表示知识在文本中出现的频率。
[0082]
idf是逆向文件频率,某一特定词语的idf,可以由总文件数目除以包含该词语的文件的数目,再将得到的商取对数得到。如果包含目标的文档越少,idf越大,则说明词条具有很好的类别区分能力。
[0083]
tf-idf则表示为tf与idf的乘积。其具体计算方式如下:
[0084][0085]
[0086]
tf-idf=tf
×
idf
[0087]
挑选tf-idf值最大的前k个词汇作为每个立场检测文本的目标话题相关的外部知识。
[0088]
步骤二:通过提示学习方法建立立场检测文本的目标话题相关的模板,利用掩码语言模型的多头注意力机制来学习立场检测文本与外部知识的关联特征,所述外部知识作为一个独立的句子加入到掩码语言模型的输入层中,利用预训练的掩码语言模型本身的注意力结构来计算外部知识与立场检测文本的关系,改造后的输入如图3所示。每个立场检测文本的目标话题相关的外部知识可以被表示为te(t1,t2,...,tn),其中,tn表示为与目标话题t相关的一个知识点。将立场检测文本的目标话题相关的外部知识与立场检测文本、提示模板相拼接形成输入预训练掩码语言模型的token embeddings将输入转换成词向量并进行编码。segment embeddings使用[sep]来分割立场检测文本与外部知识,使掩码语言模型通过注意力机制来学习立场检测文本与外部知识之间的关联信息。position embeddings来编码每个词的绝对位置。将三层embedding相加得到模型的输入e0。
[0089]
模型的输入e0被送入到编码器结构中,编码器由多层encoder编码器组成。每层encoder编码器包含一个多头注意力结构,每个多头注意力结构又由多个注意力机制组成。前一层的encoder编码器的输出作为下一层的输入。模型的输入只在进入第一层的encoder编码器时,首先经过线性变换层进行三次线性变换,分别得到查询向量q,健向量k,值向量v,接着三个向量被送入到第一层的多头注意力结构,单个注意力机制的计算方式如下:
[0090]
headi=attention(qw
iq
,kw
ik
,vw
iv
)
[0091]
其中,w
iq
,w
ik
,w
iv
时可学习的参数矩阵。
[0092]
最后,将所有的注意力权重矩阵合并起来,再进行一个线性计算wo,得到该层多头注意力机制的输出multihead(e0):
[0093]
multihead(e0)=multihead(q,k,v)=concact(head1,head2,...,headn)wo[0094]
将第一层的多头注意力机制的输出multihead(e0)与模型输入e0相加,并进行层归一化(ln),得到一个中间结果e
mid
:
[0095]emid
=ln(e0+multihead(e0))
[0096]
将中间结果e
mid
输入到一个前馈神经网络(ffn)中,将其结果与中间结果e
mid
相加,并进行层归一化(ln),得到第一层encoder编码器的输出e
out
:
[0097]eout
=ln(e
mid
+ffn(e
mid
))
[0098]
将该输出作为下一层encoder编码器的输入。
[0099]
最后经过多个encoder编码器的多头注意力结构,能够同时捕获特殊编码[mask]位置的更多不同的上下文信息和外部知识信息对该位置的重要程度,在预测提示模板[mask]部分缺失的词汇时能够考虑到更多的信息特征。
[0100]
步骤三:在训练掩码语言模型的同时通过结合情感词典对立场标签词集进行扩展。
[0101]
将若干个样本立场检测文本分别输入至预先训练过的掩码语言模型,预测出对应的立场标签词;
[0102]
统计与每个立场标签对应的立场检测文本所预测出的前k个立场标签词;
[0103]
以不同立场标签对应的立场标签词不同,针对每个立场标签,去除在至少两个立场标签中均出现的立场标签词;
[0104]
将每个立场标签中剩余的立场标签词与情感词典进行匹配,获得每个立场标签词的极性,若立场标签词的极性与立场标签的极性相同,则会被加入相应的立场标签词集e{v1,...,vn}。扩展后的标签词集可以表示为vy={v1,...,vn}∪e{v1,...,vn}。其中vy是整个词汇v的一个子集,v∈v,而v内的所有词汇都被映射到一个立场标签y上。
[0105]
在实验中,输入的最大句子长度被设定为128,batch size为12,由于预训练模型的强拟合能力,为了方便进行调整,初始的学习率被设定为1e-5。同时为了防止过拟合,对layernorm层的权重衰减设置为1e-3。
[0106]
评估指标依据官方所提供的标准,采用宏观平均f-1分数来评估每个目标的表现。官方提供的标准中只计算了“赞成”与“反对”这俩个标签,这是因为比起第三个“无”,两个分类结果的表现对任务来说有着更重要的价值。总得来说,评估的标准如下,
[0107][0108]
其中,f
avg
是f
favor
和f
against
的平均f-1分数,f
favor
和f
against
的计算方式如下,
[0109][0110][0111]
其中,p
favor
和r
favor
分别为favor标签的精确度和召回率;p
against
和r
against
分别为against标签的精确度和召回率。
[0112]
实验中为了说明本发明的优越性,我们选取了semeval-2016任务6a中的优胜方法mttre、传统的svm、使用广泛的微调方法、一种结合了文本表示和相应的常识性知识表示来进行立场分类的ckemn方法、一种基于情感的方法joint以及基本的prompt方法进行比较,实验结果如表3所示:
[0113]
表3:在semeval-2016 task 6 a测试集上的实验结果
[0114][0115][0116]
实验结果表明本发明相比经典算法具有显著优越性。
[0117]
实施例2
[0118]
基于与实施例1相同的发明构思,本发明实施例中提供了一种基于提示学习与外部知识联合的立场检测装置,包括:
[0119]
数据获取模块,用于获取待检测的立场检测文本;
[0120]
立场检测模块,用于将所述立场检测文本输入至预先训练好的立场检测模型,使得所述立场检测模型输出立场检测结果;
[0121]
其中,所述立场检测模型的训练过程如下:
[0122]
获取若干个样本立场检测文本,并确定出每个立场检测文本的目标话题,通过tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;
[0123]
生成与每个立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;
[0124]
基于各新的样本立场检测文本及其对应的立场标签词,生成训练样本集;
[0125]
应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型。
[0126]
其余部分均与实施例1相同。
[0127]
实施例3
[0128]
本发明实施例中提供了一种基于提示学习与外部知识联合的立场检测系统,包括存储介质和处理器;
[0129]
所述存储介质用于存储指令;
[0130]
所述处理器用于根据所述指令进行操作以执行根据实施例1中任一项所述的方法。
[0131]
本领域内的技术人员应明白,本技术的实施例可提供为方法、系统、或计算机程序产品。因此,本技术可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本技术可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、cd-rom、光学存储器等)上实施的计算机程序产品的形式。
[0132]
本技术是参照根据本技术实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
[0133]
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
[0134]
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
[0135]
以上结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多
形式,这些均属于本发明的保护之内。
[0136]
以上显示和描述了本发明的基本原理和主要特征和本发明的优点。本行业的技术人员应该了解,本发明不受上述实施例的限制,上述实施例和说明书中描述的只是说明本发明的原理,在不脱离本发明精神和范围的前提下,本发明还会有各种变化和改进,这些变化和改进都落入要求保护的本发明范围内。本发明要求保护范围由所附的权利要求书及其等效物界定。
技术特征:
1.一种基于提示学习与外部知识联合的立场检测方法,其特征在于,包括:获取待检测的立场检测文本;将所述待检测的立场检测文本输入至预先训练好的立场检测模型,使得所述立场检测模型输出立场检测结果;其中,所述立场检测模型的训练过程如下:获取若干个样本立场检测文本,并确定出每个立场检测文本的目标话题,通过tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;生成与每个立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;基于各新的样本立场检测文本及其对应的立场标签词集,生成训练样本集;应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型。2.根据权利要求1所述的一种基于提示学习与外部知识联合的立场检测方法,其特征在于:立场检测文本通过三元组(target,text,stance)表示,target表示目标话题,text表示文本内容,stance表示文本立场;目标话题包括一个或者几个单词,文本内容包括一长串单词;基于所述文本内容推断对给定的目标话题的立场。3.根据权利要求2所述的一种基于提示学习与外部知识联合的立场检测方法,其特征在于:所述与每个立场检测文本的目标话题相关的外部知识的获取方法包括:对从外部获取到的文本内容使用tf-idf算法,计算出每个词汇的tf-idf值;挑选tf-idf值最大的前k个词汇作为每个立场检测文本的目标话题相关的外部知识。4.根据权利要求1所述的一种基于提示学习与外部知识联合的立场检测方法,其特征在于,所述新的样本立场检测文本的表达式为:其中,x’表示新的样本立场检测文本,x表示样本立场检测文本,tempet表示立场检测文本的目标话题相关的模板,t
e
表示立场检测文本的目标话题相关的外部知识,[sep]用于分割样本立场检测文本与外部知识。5.根据权利要求4所述的一种基于提示学习与外部知识联合的立场检测方法,其特征在于:所述应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型,具体包括:将各新的样本立场检测文本x’及其对应的立场标签词集输入到预设的掩码语言模型;利用所述掩码语言模型对立场检测文本的目标话题相关的模板tempet中被遮掩的部分进行预测,得到一个立场标签词,该立场标签词属于一个立场标签词集,该立场标签词集内的所有立场标签词都被映射到一个立场标签。6.根据权利要求5所述的一种基于提示学习与外部知识联合的立场检测方法,其特征在于,立场标签词集被表示为v
y
={v1,...,v
i
,...,v
n
+,v
y
内的所有立场标签词都被映射到立场标签y上,v
y
中的每个立场标签词v
i
在立场检测文本的目标话题相关的模板中被遮掩的部分mask被填充的概率表示为p(y∈y|x)=p([mask]=v∈v
y
|x
′
)。7.根据权利要求1所述的一种基于提示学习与外部知识联合的立场检测方法,其特征在于,所述立场检测方法还包括:对立场标签词集进行扩展:将若干个样本立场检测文本分别输入至预先训练过的掩码语言模型,预测出对应的立
场标签词;统计与每个立场标签对应的立场检测文本所预测出的前k个立场标签词;以不同立场标签对应的立场标签词不同,针对每个立场标签,去除在至少两个立场标签中均出现的立场标签词;将每个立场标签中剩余的立场标签词与情感词典进行匹配,获得每个立场标签词的极性,若立场标签词的极性与立场标签的极性相同,则会被加入相应的立场标签词集。8.一种基于提示学习与外部知识联合的立场检测装置,其特征在于,包括:数据获取模块,用于获取待检测的立场检测文本;立场检测模块,用于将所述立场检测文本输入至预先训练好的立场检测模型,使得所述立场检测模型输出立场检测结果;其中,所述立场检测模型的训练过程如下:获取若干个样本立场检测文本,并确定出每个立场检测文本的目标话题,通过tf-idf算法获取与每个立场检测文本的目标话题相关的外部知识;生成与每个立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;基于各新的样本立场检测文本及其对应的立场标签词,生成训练样本集;应用所述训练样本集对预设的掩码语言模型进行训练,得到所述立场检测模型。9.一种基于提示学习与外部知识联合的立场检测系统,其特征在于,包括存储介质和处理器;所述存储介质用于存储指令;所述处理器用于根据所述指令进行操作以执行根据权利要求1-7中任一项所述的方法。
技术总结
本发明公开了一种基于提示学习与外部知识联合的立场检测方法、装置及系统,包括获取待检测的立场检测文本;将待检测的立场检测文本输入至预先训练好的立场检测模型,得到立场检测结果;立场检测模型的训练过程为:获取样本立场检测文本,并确定出立场检测文本的目标话题,通过TF-IDF算法获取与每个立场检测文本的目标话题相关的外部知识;生成与立场检测文本的目标话题相关的模板,并将该模板与对应的样本立场检测文本和外部知识拼接后形成新的样本立场检测文本;利用各新的样本立场检测文本及其对应的立场标签词集对预设的掩码语言模型进行训练,得到立场检测模型。本发明能够提高立场检测的准确性。提高立场检测的准确性。提高立场检测的准确性。
技术研发人员:周国强 王令言
受保护的技术使用者:南京邮电大学
技术研发日:2023.05.31
技术公布日:2023/8/31
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/