文本分类方法、装置、电子设备以及计算机可读存储介质与流程

未命名 09-29 阅读:98 评论:0


1.本公开涉及自然语言处理技术领域,尤其涉及一种文本分类方法、装置、电子设备以及计算机可读存储介质。


背景技术:

2.属性类别抽取是属性级情感分析的一项子任务,该任务旨在识别句子中所描述的属性词对应的属性类别,例如商品的价格、服务等。属性类别抽取是当前自然语言处理领域的热点研究之一,也是实现强人工智能和问答系统的关键技术之一。属性类别抽取不仅在学术界,在工业界也引起了广泛的关注。例如产品提供商可以通过属性类别抽取技术让机器自动地分析人们所关注的产品的属性类别,从而提升他们的产品的质量,能够节省大量的时间和人力成本。
3.属性类别抽取方法可为分为三类方法,分别是基于规则和词典的方法、基于传统统计机器学习的方法,基于深度学习的方法。
4.基于规则和词典的方法大多依靠启发式的规则和人工构造的词典实现属性类别的抽取,虽然这类方法取得了一定的成效,但是这类方法的泛化性能较差,较难应用于字典资源不足的领域或者新场景中。
5.传统的统计机器学习算法,例如lda(linear discriminant analysis,线性判别准则)、svm(support vector machine,支持向量机)也广泛应用于属性类别抽取任务中。基于传统的统计机器学习的属性类别抽取方法依赖手工设计的特征,这些特征的好坏能够直接影响模型的性能。随着这类方法获得了不错的表现,但是手工设计特征是一项非常费时费力的工作,且需要一定的专家知识。
6.深度学习通过端到端的方式能够自动地学习适合于具体任务的高阶抽象特征,并在许多自然语言处理任务中获得较好的表现。在基于深度学习的属性类别抽取中,像lstm(long short term memory,长短期记忆)、gru(gated recurrent unit,门控循环单元)这类的循环神经网络应用较多,主要原因在于这类循环神经网络能够较好地捕捉到句子的语序信息和长距离依赖信息。
7.在相关技术中,预训练语言模型获得了长足的发展,并在许多自然语言任务上取得巨大成功,包括属性类别抽取任务。大规模的预训练语言模型通过在大规模的数据集上训练之后可以获得许多知识信息,具有强大的语义表示能力。
8.虽然基于深度学习的方法取得了一定的进展,但是此类属性类别抽取方法仍然存在一些不足。例如,现有的属性类别抽取方法的零样本学习能力较弱;现有的属性类别抽取方法忽略了文档的领域信息,以及建模全局属性信息的能力较弱;现有的属性类别抽取方法尚未有效地探索监督式对比学习;此外,现有的属性类别抽取方法在建模属性类别相关词性上的能力存在不足。
9.需要说明的是,在上述背景技术部分公开的信息仅用于加强对本公开的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。


技术实现要素:

10.本公开提供一种文本分类方法、装置、电子设备以及计算机可读存储介质,至少在一定程度上克服相关技术中忽略了文档的领域信息,对全局属性信息建模的能力较弱的问题。
11.本公开的其他特性和优点将通过下面的详细描述变得显然,或部分地通过本公开的实践而习得。
12.根据本公开的一个方面,提供了一种文本分类方法,所述方法包括:获取待分类的文本,其中,所述文本中包括:至少一个语句,每个语句中包括至少两个词;将所述待分类的文本输入至训练好的文本类别预测模型,输出所述文本的文本类别,其中,所述文本类别包括属性类别和/或领域类别,所述文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,所述格式转换层用于将待分类的文本转换为预定格式的文本,所述向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,所述目标信息处理层用于处理预定格式的文本中每个词的词向量,得到所述文本的全局向量,所述预测层用于根据所述全局向量以及所述文本中每个词的词向量,预测所述文本的属性类别和领域类别。
13.在本公开的一些示例性实施例中,基于前述方案,所述格式转换层将所述文本中的语句根据预设模板进行转换,得到预定格式的语句。
14.在本公开的一些示例性实施例中,基于前述方案,所述向量处理层利用分词模型将预定格式的语句进行分词处理,并对每个语句中词进行向量化处理,得到预定格式的文本中每个词的词向量,其中,所述词向量包括属性向量与领域向量。
15.在本公开的一些示例性实施例中,基于前述方案,所述目标信息处理层包括动态掩码注意力模块和词性感知注意力模块;其中,通过所述动态掩码注意力模块生成所述文本中每个词的词向量的第一权重信息,所述动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;通过所述词性感知注意力模块生成所述文本中每个词的词向量的第二权重信息,所述动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;根据所述文本中每个词的词向量、所述第一权重信息和所述第二权重信息,生成所述待分类的文本对应的全局向量。
16.在本公开的一些示例性实施例中,基于前述方案,通过所述动态掩码注意力模块生成所述文本中每个词的词向量的第一权重信息,包括:根据所述文本中的每个词的词向量,确定所述文本中的每个词的词向量对应的属性信息与领域信息;根据所述属性信息与领域信息,确定所述文本中的每个词的词向量对应的领域类别和属性类别的语义关联关系的注意力系数;根据所述文本中的每个词的词向量对应的属性信息与领域信息以及所述领域类别和属性类别的语义关联关系的注意力系数,生成所述文本中的每个词的词向量的第一权重信息。
17.在本公开的一些示例性实施例中,基于前述方案,通过如下公式生成所述文本中的每个词的词向量的第一权重信息;
18.[0019][0020]
其中,表示所述待分类的文本第c个语句中的第i个词的词向量,hd表示领域向量,表示所述待分类的文本中的第i个词与d1领域类别的语义关系;ha表示属性向量,表示所述待分类的文本中的第i个词与c1属性类别的语义关系;表示所述待分类的文本中的第i个词,与d1领域类别以及c1属性类别的语义关系;表示第i个词的词向量与领域类别和属性类别的语义关联关系得到的注意力系数;表示利用动态掩码注意力模型生成的第i个词的第一权重信息;-inf表示负无穷。
[0021]
在本公开的一些示例性实施例中,基于前述方案,通过所述动态掩码注意力模块生成所述文本中每个词的词向量的第二权重信息,包括:根据所述文本中每个词的词向量对应的属性向量和领域向量,生成所述词向量的领域类别和属性类别的关联参数;根据所述词向量对应的词的词性,确定所述文本中每个词的词向量的领域类别和属性类别的语义关联关系的注意力系数;根据所述文本中的每个词的词向量对应的关联参数和注意力系数,生成所述文本中的每个词的词向量的第二权重信息。
[0022]
在本公开的一些示例性实施例中,基于前述方案,通过如下公式生成所述文本中的每个词的词向量的第二权重信息:
[0023][0024]
其中,中的;表示向量拼接;表示所述待分类的文本中的第i个词的词向量的领域类别和属性类别的关联关系;w和b是词性感知注意力模块的可学习参数;表示所述待分类的文本中第i个词词性的注意力系数;pos(wi)用于判断所述待分类的文本中的第i个词的词向量对应的词的词性,noun表示名词,adj表示形容词;表示通过词性感知注意力模块生成的第i个词的第二权重信息。
[0025]
在本公开的一些示例性实施例中,基于前述方案,在将所述待分类的文本输入至训练好的文本类别预测模型,输出所述待分类的文本的文本类别之前,所述方法还包括:对预先构建的深度学习模型进行训练,得到所述文本类别预测模型。
[0026]
在本公开的一些示例性实施例中,基于前述方案,对预先构建的深度学习模型进行训练,得到所述文本类别预测模型,包括:通过如下公式生成目标损失函数:
[0027][0028]
[0029][0030]
l=l
acl
+λ(l
dcl
+lm)+l
pos

[0031]
其中,n表示批训练样本数量,n表示所述语句的长度,表示预先构建的深度学习模型预测的第j个训练数据中第i个词的词概率分布,表示第j个训练数据中第i个词的真正的词分布概率,lm表示掩码词预测损失函数;表示预先构建的深度学习模型预测的第j个训练数据中第i个词的词性分布,表示第j个训练数据中第i个词的真正的词性分布概率,l
pos
表示名词和形容词词性预测损失函数;k表示第i个相同领域的样本的数量,τ和λ表示预先构建的深度学习模型的超参数;表示第i个语句的全局的属性向量,表示第i个语句的领域向量;表示与第i个语句具有相同领域的第j个语句的全局的属性向量,表示与第i个语句具有相同领域的第j个语句的领域向量;l
dcl
表示领域类别自监督对比损失函数;表示与第i个语句具有相同属性类别的第j个语句中的属性类别向量;l
acl
表示属性类别自监督对比损失函数;通过所述目标损失函数调节预先构建的所述深度学习模型的参数,获得训练完成的所述文本类别预测模型。
[0032]
根据本公开的另一个方面,还提供了一种文本分类装置,所述装置包括:文本获取模块,用于获取待分类的文本,其中,所述文本中包括:至少一个语句,每个语句中包括至少两个词;文本分类模块,用于将所述待分类的文本输入至训练好的文本类别预测模型,输出所述文本的文本类别,其中,所述文本类别包括属性类别和/或领域类别,所述文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,所述格式转换层用于将待分类的文本转换为预定格式的文本,所述向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,所述目标信息处理层用于处理预定格式的文本中每个词的词向量,得到所述文本的全局向量,所述预测层用于根据所述全局向量以及所述文本中每个词的词向量,预测所述文本的属性类别和领域类别。
[0033]
根据本公开的另一个方面,还提供了一种电子设备,该电子设备包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项文本分类方法。
[0034]
根据本公开的另一个方面,还提供了一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项文本分类方法。
[0035]
本公开的实施例中提供的文本分类方法、装置、电子设备以及计算机可读存储介质,首先,获取包括多个词的待分类的文本,然后,将待分类的文本输入至训练好的文本类别预测模型,输出该文本包括属性类别和/或领域类别的文本类别,进一步地,本公开实施例中的文本类别预测模型能够将待分类的文本中的词进行向量化处理,得到每个词的词向
量,通过文本类别预测模型中的向量处理层,将处理后的词向量生成该文本的全局向量,而文本类别预测模型中的预测层能够根据该文本中每个词的词向量以及生成的全局向量,预测出该文本的属性类别和领域类别,从而克服相关技术中忽略了文档的领域信息,对全局属性信息建模的能力较弱的问题,进一步地,本公开实施例中的全局向量帮助文本类别预测模型从全局的视角捕捉属性类别相关信息。
[0036]
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
[0037]
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0038]
图1示出本公开实施例中一种文本分类方法示意图;
[0039]
图2示出本公开实施例中一种通过动态掩码注意力模块生成权重信息示意图;
[0040]
图3示出本公开实施例中一种通过词性感知注意力模块生成权重信息示意图;
[0041]
图4示出本公开实施例中一种文本类别预测模型的框架图;
[0042]
图5示出本公开实施例中一种文本类别预测模型模型处理示意图;
[0043]
图6示出本公开实施例中一种文本分类装置示意图;
[0044]
图7示出本公开实施例中一种电子设备图。
具体实施方式
[0045]
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本公开将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。
[0046]
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本公开的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本公开的技术方案而没有特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知方法、装置、实现或者操作以避免模糊本公开的各方面。
[0047]
附图中所示的流程图仅是示例性说明,不是必须包括所有的内容和操作/步骤,也不是必须按所描述的顺序执行。例如,有的操作/步骤还可以分解,而有的操作/步骤可以合并或部分合并,因此实际执行的顺序有可能根据实际情况改变。
[0048]
图1示出本公开实施例中一种文本分类方法示意图,如图1所示,本公开实施例中提供的文本分类方法,该方法包括如下步骤:
[0049]
s102,获取待分类的文本,其中,文本中包括:至少一个语句,每个语句中包括至少两个词。
[0050]
在一种可选的实施例中,本公开实施例中的待分类的文本可以是一个或多个语句
组成的文本,每个语句不止包括一个词,也就是说,本公开实施例中的文本可以是包括两个词构成的一个语句组成的文本,也可以是由多个词构成的多个语句组成的文本。
[0051]
s 104,将待分类的文本输入至训练好的文本类别预测模型,输出文本的文本类别,其中,文本类别包括属性类别和/或领域类别,文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,格式转换层用于将待分类的文本转换为预定格式的文本,向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,目标信息处理层用于处理预定格式的文本中每个词的词向量,得到文本的全局向量,预测层用于根据全局向量以及文本中每个词的词向量,预测文本的属性类别和领域类别。
[0052]
在一种可选的实施例中,本公开实施例中的文本类别预测模型具体包括格式转换层、向量处理层、目标信息处理层、预测层,将待分类的文本输入至文本类别预测模型时,该文本在格式转换层会转换为预定格式下的的文本,其目的是为了得到符合文本类别预测模型可以处理的语句;之后,预定格式下的文本通过向量处理层,将预定格式下的文本进行向量化处理,得到预定格式的文本中每个词的词向量,然后,预定格式的文本中每个词的词向量再通过目标信息处理层进行处理,得到文本的全局向量;最后,全局向量通过预测层,预测出文本的属性类别和领域类别。
[0053]
本公开实施例中的文本分类方法,首先,获取包括多个词的待分类的文本,然后,将待分类的文本输入至训练好的文本类别预测模型,输出该文本包括属性类别和/或领域类别的文本类别。具体地,本公开实施例中的文本类别预测模型能够将待分类的文本中的词进行向量化处理,得到每个词的词向量,通过文本类别预测模型中的向量处理层,将处理后的词向量生成该文本的全局向量,而文本类别预测模型中的预测层能够根据该文本中每个词的词向量以及生成的全局向量,预测出该文本的属性类别和领域类别,从而克服相关技术中忽略了文档的领域信息,对全局属性信息建模的能力较弱的问题,进一步地,本公开实施例中的全局向量帮助文本类别预测模型从全局的视角捕捉属性类别相关信息。
[0054]
在一种可选的实施例中,格式转换层将文本中的语句根据预设模板进行转换,得到预定格式的语句。
[0055]
具体地,本公开实施例利用预先构造好的prompt(提示)模板,将获取到的待分类的文本中的所有语句依据预先构造好的prompt模板进行转换,得到符合prompt模板要求的语句。
[0056]
进一步地,预先构造好的prompt模板的具体格式为:《text》,所属的领域类别{domain},属性类别{aspect category}。其中,《text》是获取到的待分类的文本中的语句,{domain}和{aspect category}是占位符,分别表示每个语句对应的领域类别以及包含的具体的属性类别。对于获取到的待分类的文本中的语句上下文s={w1,w2,...,wn}和对应的领域类别cd及属性类别ca,依据prompt模板构造的句子为w1,w2,...,wn,所属的领域是cd,属性类别是ca。
[0057]
在一种可选的实施例中,本公开实施例基于预先构造的prompt模板,从而构建了文本类别预测模型,实现了一种零样本属性类别抽取方法,不仅克服了相关技术中的属性类别抽取方法的零样本学习能力较差的问题,而且通过该prompt模板,能够有效地将属性类别抽取和领域分类统一在一个模型中完成,具有领域迁移能力,能够将从训练集中学习
到的属性类别与领域相关知识较好地应用于目标领域或者标签缺失领域的属性类别抽取中。
[0058]
在一种可选的实施例中,向量处理层利用分词模型将预定格式的语句进行分词处理,并对每个语句中词进行向量化处理,得到预定格式的文本中每个词的词向量,其中,词向量包括属性向量与领域向量。
[0059]
进一步地,在本公开实施例中的向量处理层中,使用分词模型先对预定格式的文本中的语句进行分词处理,再对预定格式的文本中的每个词进行向量化处理,从而获得预定格式下的文本中的每个词的词向量。具体地,将依据prompt模板构造的语句输入至分词模型中,得到语句中每个词的词向量,其中《text》对应的获取的待分类的文本中每个词的词向量为词向量为{domain}对应的每个词的词向量为{aspect category}对应的每个词的词向量为其中,表示句子中第i个词的词向量,表示领域{domain}中第i个词的词向量,表示属性类别{aspect category}中第i个词的词向量。对领域{domain}的词向量进行平均池化,得到领域向量hd。对属性类别{aspect category}的词向量进行平均池化,得到属性类别向量ha。
[0060]
在一种可选的实施例中,目标信息处理层包括动态掩码注意力模块和词性感知注意力模块;其中,通过动态掩码注意力模块生成文本中每个词的词向量的第一权重信息,动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;通过词性感知注意力模块生成文本中每个词的词向量的第二权重信息,动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;根据文本中每个词的词向量、第一权重信息和第二权重信息,生成待分类的文本每个语句对应的全局向量。
[0061]
进一步地,本公开实施例中的目标信息处理层包括动态掩码注意力模块和词性感知注意力模块,更为具体的,本公开实施例中的动态掩码注意力模块用于根据领域和属性信息动态地捕捉和建模领域和属性类别相关词信息,而词性感知注意力模块用于显式地捕捉和建模与领域和属性信息相关的名词和形容词信息。
[0062]
在一种可选的实施例中,如图2所示,通过动态掩码注意力模块生成文本中每个词的词向量的第一权重信息,包括如下步骤:
[0063]
s201,根据文本中的每个词的词向量,确定文本中的每个词的词向量对应的属性信息与领域信息。
[0064]
s202,根据属性信息与领域信息,确定文本中的每个词的词向量对应的领域类别和属性类别的语义关联关系的注意力系数。
[0065]
s203,根据文本中的每个词的词向量对应的属性信息与领域信息以及领域类别和属性类别的语义关联关系的注意力系数,生成文本中的每个词的词向量的第一权重信息。
[0066]
在一种可选的实施例中,动态掩码注意力模块接收预定格式下的文本中的每个词的词向量、领域向量以及属性向量作为输入,通过下属公式(1)至(5)生成文本中的每个词的词向量的第一权重信息;
[0067][0068][0069][0070][0071][0072]
其中,表示待分类的文本第c个语句中的第i个词的词向量,hd表示领域向量,表示待分类的文本中的第i个词与d1领域类别的语义关系;ha表示属性向量,表示待分类的文本中的第i个词与c1属性类别的语义关系;表示所述待分类的文本中的第i个词,与d1领域类别以及c1属性类别的语义关系;表示第i个词的词向量与领域类别和属性类别的语义关联关系得到的注意力系数;表示利用动态掩码注意力模型生成的第i个词的第一权重信息;-inf表示负无穷。
[0073]
在一种可选的实施例中,如图3所示,通过词性感知注意力模块生成文本中每个词的词向量的第二权重信息,具体过程包括如下步骤:
[0074]
s301,根据文本中每个词的词向量对应的属性向量和领域向量,生成词向量的领域类别和属性类别的关联参数。
[0075]
s302,根据词向量对应的词的词性,确定文本中每个词的词向量的领域类别和属性类别的语义关联关系的注意力系数。
[0076]
s303,根据文本中的每个词的词向量对应的关联参数和注意力系数,生成文本中的每个词的词向量的第二权重信息。
[0077]
具体地,本公开实施例使用词性感知注意力模块生成文本中每个词的词向量的第二权重信息,显式地建模了属性类别相关词及其词性信息,克服了相关技术中的属性类别抽取方法在建模属性类别相关词及其词性信息上的能力较弱的问题。许多名词一般是属性类别相关词,形容词一般多为情感词,这两类词能够较好地反映所描述属性类别信息。建模名词和形容词等这类属性相关词及其词性信息,能够进一步提升模型对属性类别的理解和建模能力。
[0078]
在一种可选的实施例中,本公开实施例中的词性感知注意力模块接收预定格式下的文本中的每个词的词向量、领域向量以及属性向量作为输入,通过下述公式(6)至(8)生成文本中的每个词的词向量的第二权重信息;
[0079][0080]
[0081][0082]
其中,中的符号“;”表示向量拼接;表示待分类的文本中的第i个词的词向量的领域类别和属性类别的关联关系;w和b是词性感知注意力模块的可学习参数;表示所述待分类的文本中第i个词词性的注意力系数;pos(wi)用于判断待分类的文本中的第i个词的词向量对应的词的词性,noun表示名词,adj表示形容词;表示通过词性感知注意力模块生成的第i个词的第二权重信息。
[0083]
在一种可选的实施例中,通过聚合动态掩码注意力模块输出的第一权重信息和词性感知注意力模块输出的第二权重信息,得到全局的向量,具体地,通过下述公式(9)至(11)生成生成待分类的文本对应的全局向量:
[0084][0085][0086][0087]
其中,表示通过动态掩码注意力模块生成的第i个词的第一权重信息,表示通过词性感知注意力模块生成的第i个词的第二权重信息,n为待分类的文本中的词的个数,表示语句中第i个词的词向量,是待分类的文本每个语句的全局向量。
[0088]
进一步地,本公开实施例通过目标信息处理层生成文本中每个语句的全局向量,能够显式地建模了文档的领域信息及全局的属性信息,克服了相关技术中的属性类别抽取方法忽略了文档的领域信息以及建模全局属性信息的能力较弱的问题,文档的领域信息对属性类别的识别具有重要的作用,不同的领域会有不同的属性类别,并且属性类别信息也能够为文档领域的判定起到帮助作用。此外,本公开实施例能够帮助文本类别预测模型从全局的视角捕捉属性类别相关信息。
[0089]
在一种可选的实施例中,本公开实施例中的预测层主要由多层感知机组成,输出待分类的文本每个语句的领域类别和涉及的属性类别、待分类的文本每个语句中的掩码对应的词、以及词性信息,具体来说,本公开实施例通过下述公式(12)至(15)输出文本的文本类别:
[0090][0091][0092][0093][0094]
其中,是待分类的文本每个语句的全局向量,hd表示领域向量,ha表示属性向量,表示句子中第i个词的词向量。yd是领域类别概率分布,ya是属性类别概率分布,是
第i个词的词概率分布,是第i个词的词性分布,w1、w2、w3、w4、b1、b2、b3、b4是模型的可学习参数。
[0095]
在一种可选的实施例中,在将待分类的文本输入至训练好的文本类别预测模型,输出待分类的文本的文本类别之前,方法还包括:对预先构建的深度学习模型进行训练,得到文本类别预测模型。
[0096]
在一种可选的实施例中,对预先构建的深度学习模型进行训练,得到文本类别预测模型,包括:通过如下公式生成目标损失函数;
[0097][0098][0099][0100][0101][0102][0103]
l=l
acl
+λ(l
dcl
+lm)+l
pos
ꢀꢀꢀꢀ
(22)
[0104]
其中,n表示批训练样本数量,n表示所述语句的长度,表示预先构建的深度学习模型预测的第j个训练数据中第i个词的词概率分布,表示第j个训练数据中第i个词的真正的词分布概率,lm表示掩码词预测损失函数;表示预先构建的深度学习模型预测的第j个训练数据中第i个词的词性分布,表示第j个训练数据中第i个词的真正的词性分布概率,l
pos
表示名词和形容词词性预测损失函数;k表示第i个相同领域的样本的数量,τ和λ表示预先构建的深度学习模型的超参数;表示第i个语句的全局的属性向量,表示第i个语句的领域向量;表示与第i个语句具有相同领域的第j个语句的全局的属性向量,表示与第i个语句具有相同领域的第j个语句的领域向量;l
dcl
表示领域类别自监督对比损失函数;表示与第i个语句具有相同属性类别的第j个语句中的属性类别向量;l
acl
表示属性类别自监督对比损失函数;通过目标损失函数调节预先构建的深度学习模型的参数,获得训练完成的文本类别预测模型。
[0105]
进一步地,本公开实施例创新性地将监督式对比学习用于零样本属性类别抽取
中,克服了相关技术中的属性类别抽取方法尚未有效地探索监督式对比学习的问题。通过监督式对比学习,能够使文本类别预测模型在零样本场景下更好地捕捉到数据中隐含的属性类别信息,提高文本类别预测模型的表达能力。
[0106]
在一种可选的实施例中,在对预先构建的深度学习模型训练时,修改分词模型中掩码词的概率,将名词和形容词的掩码概率分别增加至50%和30%,其他词性的掩码概率保持不变。名词一般多为属性类别相关词,而且形容词也是属性类别及领域类别相关的。
[0107]
具体地,本公开实施例中的名词和形容词词性预测损失函数用于增强模型对名词和形容词词性的感知能力,显式地获得名词和形容词词性信息;领域类别自监督对比损失函数用于将领域类别一致的数据距离更近,而属性类别不一致的数据距离更远;属性类别自监督对比损失函数使属性类别一致的数据距离更近,而属性类别不一致的数据距离更远。
[0108]
进一步地,本公开实施例中的文本类别预测模型的框架图如图4所示,待分类的文本处理过程如图5所示,其中,文本类别预测模型,文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,格式转换层依据预先构造好的prompt模板对获取到的待分类的文本中的所有语句进行转化,得到预定格式的语句;向量处理层利用分词模型将预定格式的语句进行分词、向量化处理,得到预定格式的文本中每个词的词向量;目标信息处理层包括动态掩码注意力模块和词性感知注意力模块,通过动态掩码注意力模块和词性感知注意力模块获取预定格式的文本中每个词的词向量的权重信息,获得待分类的文本每个语句对应的全局向量;预测层则根据全局向量、预定格式的文本中每个词的词向量输出待分类的文本每个语句的领域类别和属性类别。
[0109]
基于同一发明构思,本公开实施例中还提供了一种文本分类装置,如下面的实施例。由于该装置实施例解决问题的原理与上述方法实施例相似,因此该装置实施例的实施可以参见上述方法实施例的实施,重复之处不再赘述。
[0110]
图6示出本公开实施例中一种文本分类装置示意图,如图6所示,该装置包括:
[0111]
文本获取模块601,用于获取待分类的文本,其中,文本中包括:至少一个语句,每个语句中包括至少两个词。
[0112]
文本分类模块602,用于将待分类的文本输入至训练好的文本类别预测模型,输出文本的文本类别,其中,文本类别包括属性类别和/或领域类别,文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,格式转换层用于将待分类的文本转换为预定格式的文本,向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,目标信息处理层用于处理预定格式的文本中每个词的词向量,得到文本的全局向量,预测层用于根据全局向量以及文本中每个词的词向量,预测文本的属性类别和领域类别。
[0113]
一种可选的实施例中,该装置中的格式转换层将文本中的语句根据预设模板进行转换,得到预定格式的语句。
[0114]
一种可选的实施例中,向量处理层利用分词模型将预定格式的语句进行分词处理,并对每个语句中词进行向量化处理,得到预定格式的文本中每个词的词向量,其中,词向量包括属性向量与领域向量。
[0115]
一种可选的实施例中,目标信息处理层包括动态掩码注意力模块和词性感知注意
力模块;其中,通过动态掩码注意力模块生成文本中每个词的词向量的第一权重信息,动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;通过词性感知注意力模块生成文本中每个词的词向量的第二权重信息,动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;根据文本中每个词的词向量、第一权重信息和第二权重信息,生成待分类的文本每个语句对应的全局向量。
[0116]
一种可选的实施例中,通过动态掩码注意力模块生成文本中每个词的词向量的第一权重信息,装置还用于根据文本中的每个词的词向量,确定文本中的每个词的词向量对应的属性信息与领域信息;根据属性信息与领域信息,确定文本中的每个词的词向量对应的领域类别和属性类别的语义关联关系的注意力系数;根据文本中的每个词的词向量对应的属性信息与领域信息以及领域类别和属性类别的语义关联关系的注意力系数,生成文本中的每个词的词向量的第一权重信息。
[0117]
一种可选的实施例中,通过上述公式(1)至(5)生成文本中的每个词的词向量的第一权重信息;
[0118]
一种可选的实施例中,通过动态掩码注意力模块生成文本中每个词的词向量的第二权重信息,该装置还用于根据文本中每个词的词向量对应的属性向量和领域向量,生成词向量的领域类别和属性类别的关联参数;根据词向量对应的词的词性,确定文本中每个词的词向量的领域类别和属性类别的语义关联关系的注意力系数;根据文本中的每个词的词向量对应的关联参数和注意力系数,生成文本中的每个词的词向量的第二权重信息。
[0119]
一种可选的实施例中,通过上述公式(6)至(8)生成文本中的每个词的词向量的第二权重信息;
[0120]
一种可选的实施例中,在将待分类的文本输入至训练好的文本类别预测模型,输出待分类的文本的文本类别之前,装置还包括:模型训练模块,用于对预先构建的深度学习模型进行训练,得到文本类别预测模型。
[0121]
一种可选的实施例中,模型训练模块还用于通过上述公式(16)至(22)生成目标损失函数。
[0122]
所属技术领域的技术人员能够理解,本公开的各个方面可以实现为系统、方法或程序产品。因此,本公开的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
[0123]
下面参照图7来描述根据本公开的这种实施方式的电子设备70。图7显示的电子设备700仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
[0124]
如图7所示,电子设备700以通用计算设备的形式表现。电子设备700的组件可以包括但不限于:上述至少一个处理单元701、上述至少一个存储单元702、连接不同系统组件(包括存储单元702和处理单元701)的总线703。
[0125]
其中,存储单元存储有程序代码,程序代码可以被处理单元701执行,使得处理单元701执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
[0126]
在一些实施例中,当电子设备用于控制例如本公开上述文本分类方法时,处理单元701可以执行上述方法实施例的如下步骤:
[0127]
获取待分类的文本,其中,文本中包括:至少一个语句,每个语句中包括至少两个词;
[0128]
将待分类的文本输入至训练好的文本类别预测模型,输出文本的文本类别,其中,文本类别包括属性类别和/或领域类别,文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,格式转换层用于将待分类的文本转换为预定格式的文本,向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,目标信息处理层用于处理预定格式的文本中每个词的词向量,得到文本的全局向量,预测层用于根据全局向量以及文本中每个词的词向量,预测文本的属性类别和领域类别。
[0129]
存储单元702可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(ram)7021和/或高速缓存存储单元7022,还可以进一步包括只读存储单元(rom)7023。
[0130]
存储单元702还可以包括具有一组(至少一个)程序模块7025的程序/实用工具7024,这样的程序模块7025包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
[0131]
总线703可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
[0132]
电子设备700也可以与一个或多个外部设备704(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备700交互的设备通信,和/或与使得该电子设备700能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(i/o)接口705进行。并且,电子设备700还可以通过网络适配器706与一个或者多个网络(例如局域网(lan),广域网(wan)和/或公共网络,例如因特网)通信。如图所示,网络适配器706通过总线703与电子设备700的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备700使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、raid系统、磁带驱动器以及数据备份存储系统等。
[0133]
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本公开实施方式的方法。
[0134]
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机程序产品,该计算机程序产品包括:计算机程序,所述计算机程序被处理器执行时实现上述文本分类方法。
[0135]
在本公开的示例性实施例中,还提供了一种计算机可读存储介质,该计算机可读存储介质可以是可读信号介质或者可读存储介质。其上存储有能够实现本公开上述方法的程序产品。在一些可能的实施方式中,本公开的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当程序产品在终端设备上运行时,程序代码用于使终端设备执行本说明书上述“示例性方法”部分中描述的根据本公开各种示例性实施方式的步骤。
[0136]
本公开中的计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(ram)、只读存储器(rom)、可擦式可编程只读存储器(eprom或闪存)、光纤、便携式紧凑磁盘只读存储器(cd-rom)、光存储器件、磁存储器件、或者上述的任意合适的组合。
[0137]
在本公开中,计算机可读存储介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
[0138]
可选地,计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、rf等等,或者上述的任意合适的组合。
[0139]
在具体实施时,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开操作的程序代码,程序设计语言包括面向对象的程序设计语言-诸如java、c++等,还包括常规的过程式程序设计语言-诸如“c”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(lan)或广域网(wan),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
[0140]
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本公开的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
[0141]
此外,尽管在附图中以特定顺序描述了本公开中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
[0142]
通过以上实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本公开实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是cd-rom,u盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、移动终端、或者网络设备等)执行根据本公开实施方式的方法。
[0143]
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本公开旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由所附的权利要求指出。

技术特征:
1.一种文本分类方法,其特征在于,所述方法包括:获取待分类的文本,其中,所述文本中包括:至少一个语句,每个语句中包括至少两个词;将所述待分类的文本输入至训练好的文本类别预测模型,输出所述文本的文本类别,其中,所述文本类别包括属性类别和/或领域类别,所述文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,所述格式转换层用于将待分类的文本转换为预定格式的文本,所述向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,所述目标信息处理层用于处理预定格式的文本中每个词的词向量,得到所述文本的全局向量,所述预测层用于根据所述全局向量以及所述文本中每个词的词向量,预测所述文本的属性类别和领域类别。2.根据权利要求1所述的文本分类方法,其特征在于,所述格式转换层将所述文本中的语句根据预设模板进行转换,得到预定格式的语句。3.根据权利要求1所述的文本分类方法,其特征在于,所述向量处理层利用分词模型将预定格式的语句进行分词处理,并对每个语句中词进行向量化处理,得到预定格式的文本中每个词的词向量,其中,所述词向量包括属性向量与领域向量。4.根据权利要求1所述的文本分类方法,其特征在于,所述目标信息处理层包括动态掩码注意力模块和词性感知注意力模块;其中,通过所述动态掩码注意力模块生成所述文本中每个词的词向量的第一权重信息,所述动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;通过所述词性感知注意力模块生成所述文本中每个词的词向量的第二权重信息,所述动态掩码注意力模块用于获取包含属性信息和/或领域信息的向量;根据所述文本中每个词的词向量、所述第一权重信息和所述第二权重信息,生成所述待分类的文本每个语句对应的全局向量。5.根据权利要求4所述的文本分类方法,其特征在于,通过所述动态掩码注意力模块生成所述文本中每个词的词向量的第一权重信息,包括:根据所述文本中的每个词的词向量,确定所述文本中的每个词的词向量对应的属性信息与领域信息;根据所述属性信息与领域信息,确定所述文本中的每个词的词向量对应的领域类别和属性类别的语义关联关系的注意力系数;根据所述文本中的每个词的词向量对应的属性信息与领域信息以及所述领域类别和属性类别的语义关联关系的注意力系数,生成所述文本中的每个词的词向量的第一权重信息。6.根据权利要求5所述的文本分类方法,其特征在于,通过如下公式生成所述文本中的每个词的词向量的第一权重信息;每个词的词向量的第一权重信息;每个词的词向量的第一权重信息;
其中,表示所述待分类的文本第c个语句中的第i个词的词向量,h
d
表示领域向量,表示所述待分类的文本中的第i个词与d1领域类别的语义关系;h
a
表示属性向量,表示所述待分类的文本中的第i个词与c1属性类别的语义关系;表示所述待分类的文本中的第i个词,与d1领域类别以及c1属性类别的语义关系;表示第i个词的词向量与领域类别和属性类别的语义关联关系得到的注意力系数;表示利用动态掩码注意力模型生成的第i个词的第一权重信息;-inf表示负无穷。7.根据权利要求4所述的文本分类方法,其特征在于,通过所述动态掩码注意力模块生成所述文本中每个词的词向量的第二权重信息,包括:根据所述文本中每个词的词向量对应的属性向量和领域向量,生成所述词向量的领域类别和属性类别的关联参数;根据所述词向量对应的词的词性,确定所述文本中每个词的词向量的领域类别和属性类别的语义关联关系的注意力系数;根据所述文本中的每个词的词向量对应的关联参数和注意力系数,生成所述文本中的每个词的词向量的第二权重信息。8.根据权利要求7所述的文本分类方法,其特征在于,通过如下公式生成所述文本中的每个词的词向量的第二权重信息;每个词的词向量的第二权重信息;每个词的词向量的第二权重信息;其中,中的;表示向量拼接;表示所述待分类的文本中的第i个词的词向量的领域类别和属性类别的关联关系;w和b是词性感知注意力模块的可学习参数;表示所述待分类的文本中第i个词词性的注意力系数;pos(w
i
)用于判断所述待分类的文本中的第i个词的词向量对应的词的词性,noun表示名词,adj表示形容词;表示通过词性感知注意力模块生成的第i个词的第二权重信息。9.根据权利要求1所述的文本分类方法,其特征在于,在将所述待分类的文本输入至训练好的文本类别预测模型,输出所述待分类的文本的文本类别之前,所述方法还包括:对预先构建的深度学习模型进行训练,得到所述文本类别预测模型。10.根据权利要求1所述的文本分类方法,其特征在于,对预先构建的深度学习模型进行训练,得到所述文本类别预测模型,包括:
通过如下公式生成目标损失函数;通过如下公式生成目标损失函数;通过如下公式生成目标损失函数;通过如下公式生成目标损失函数;通过如下公式生成目标损失函数;通过如下公式生成目标损失函数;l=l
acl
+λ(l
dcl
+l
m
)+l
pos
其中,n表示批训练样本数量,n表示所述语句的长度,表示预先构建的深度学习模型预测的第j个训练数据中第i个词的词概率分布,表示第j个训练数据中第i个词的真正的词分布概率,l
m
表示掩码词预测损失函数;表示预先构建的深度学习模型预测的第j个训练数据中第i个词的词性分布,表示第j个训练数据中第i个词的真正的词性分布概率,l
pos
表示名词和形容词词性预测损失函数;k表示第i个相同领域的样本的数量,τ和λ表示预先构建的深度学习模型的超参数;表示第i个语句的全局的属性向量,表示第i个语句的领域向量;表示与第i个语句具有相同领域的第j个语句的全局的属性向量,表示与第i个语句具有相同领域的第j个语句的领域向量;l
dcl
表示领域类别自监督对比损失函数;表示与第i个语句具有相同属性类别的第j个语句中的属性类别向量;l
acl
表示属性类别自监督对比损失函数;通过所述目标损失函数调节预先构建的所述深度学习模型的参数,获得训练完成的所
述文本类别预测模型。11.一种文本分类装置,其特征在于,所述装置包括:文本获取模块,用于获取待分类的文本,其中,所述文本中包括:至少一个语句,每个语句中包括至少两个词;文本分类模块,用于将所述待分类的文本输入至训练好的文本类别预测模型,输出所述文本的文本类别,其中,所述文本类别包括属性类别和/或领域类别,所述文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,所述格式转换层用于将待分类的文本转换为预定格式的文本,所述向量处理层用于对预定格式的文本进行向量化处理,得到预定格式的文本中每个词的词向量,所述目标信息处理层用于处理预定格式的文本中每个词的词向量,得到所述文本的全局向量,所述预测层用于根据所述全局向量以及所述文本中每个词的词向量,预测所述文本的属性类别和领域类别。12.一种电子设备,其特征在于,包括:处理器;以及存储器,用于存储所述处理器的可执行指令;其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1~10中任意一项所述的文本分类方法。13.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1~10中任意一项所述的文本分类方法。

技术总结
本公开提供了一种文本分类方法、装置、电子设备以及计算机可读存储介质,涉及自然语言处理技术领域。该方法包括:获取待分类的文本;将待分类的文本输入至训练好的文本类别预测模型,输出文本的文本类别,其中,文本类别包括属性类别和/或领域类别,文本类别预测模型包括格式转换层、向量处理层、目标信息处理层、预测层,目标信息处理层用于处理预定格式的文本中每个词的词向量,得到文本的全局向量,预测层用于根据全局向量以及文本中每个词的词向量,预测文本的属性类别和领域类别。本公开能够在一定程度上克服相关技术中忽略了文档的领域信息,对全局属性信息建模的能力较弱的问题。题。题。


技术研发人员:刘宁
受保护的技术使用者:中国电信股份有限公司
技术研发日:2023.07.13
技术公布日:2023/9/26
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐