标签提取方法、设备及计算机可读存储介质与流程
未命名
10-26
阅读:112
评论:0
1.本发明涉及信息处理技术领域,尤其涉及标签提取方法、设备及计算机可读存储介质。
背景技术:
2.为快速获取到需要的信息,越来越多的用户会选择自动化提取方式,即利用计算机技术从海量数据中提取出精炼的、有价值的信息,极大提升了信息提取的效率。
3.在相关技术中,通常使用正则表达式快速提取所需信息,具体步骤如下:寻找模式,即确定要提取的信息的模式,例如日期、号码等;构建正则表达式,即基于所需的模式,构建合适的正则表达式;编译正则表达式,即在代码中使用合适的编程语言将正则表达式编译为可执行的模式;匹配文本,即将要提取信息的文本输入到编译后的正则表达式中,以查找匹配的模式;提取信息和处理结果,即根据匹配到的模式,提取所需的信息,并对提取到的信息进行必要的处理。
4.然而,正则表达式只能处理基于模式的匹配,无法理解文本的上下文,因此,针对需要理解语义的非结构化文本,如自然语言文本,正则表达式无法进行信息提取。
5.上述内容仅用于辅助理解本发明的技术方案,并不代表承认上述内容是现有技术。
技术实现要素:
6.本发明的主要目的在于提供一种标签提取方法、设备及计算机可读存储介质,旨在解决现有信息提取方式的提取广度有限的技术问题。
7.为实现上述目的,本发明提供一种标签提取方法,所述标签提取方法包括以下步骤:基于待提取的非结构化文本确定数字向量,所述数字向量表征所述非结构化文本的上下文信息和语义信息;将所述数字向量输入训练好的语义模型,得到对应的语义特征;将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签。
8.可选地,所述数字向量包括加权值向量,所述基于待提取的非结构化文本确定数字向量的步骤包括:根据分词算法,将待提取的非结构化文本中的长句,切割成若干固定长度的词片段;确定每个所述词片段的查询向量、键向量和值向量,并根据所述查询向量和所述键向量,计算每个所述词片段的注意力权重;对所述注意力权重和所述值向量进行加权求和,得到每个所述词片段的加权值向量。
9.可选地,所述训练好的语义模型包括训练好的掩码语言模型和训练好的句子预测
模型,所述将所述数字向量输入训练好的语义模型,得到对应的语义特征的步骤包括:随机选定部分所述数字向量,并将选定的所述数字向量替换为掩码标记;将所述数字向量和所述掩码标记输入训练好的掩码语言模型,预测所述掩码标记所屏蔽的词片段;将所述数字向量输入训练好的句子预测模型,预测各所述词片段所在长句的相邻关系;根据预测词片段和预测相邻关系,理解语义信息,并确定所述语义信息对应的语义特征;将所有所述语义特征划分为若干同类语义特征组,并对各所述同类语义特征组进行池化操作,得到对应的代表语义特征。
10.可选地,所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤包括:获取标签池的若干标签,并比较所述代表语义特征和所有所述标签之间的向量相似度;将所述向量相似度最高的标签确定为目标标签。
11.可选地,所述基于待提取的非结构化文本确定数字向量的步骤之前,包括:通过爬虫技术,爬取网页上的数据,得到半结构化文本;根据本体属性,将所述半结构化文本划分为结构化文本和非结构化文本;所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤之后,包括:按照文本存储时的标准格式,对所述结构化文本进行解析和提取,直接生成关键信息;对所述目标标签和所述关键信息进行数据融合,得到对应的目标结构化文本。
12.可选地,所述基于待提取的非结构化文本确定数字向量的步骤之前,包括:获取训练样本以及对应的标准语义特征,并基于所述训练样本确定训练数字向量,所述训练数字向量表征所述训练样本的上下文信息和语义信息;将所述训练数字向量输入预训练的语义模型,得到对应的训练语义特征;根据预置的损失函数,计算所述训练语义特征和所述标准语义特征之间的损失函数值,并根据所述损失函数值调整所述预训练的语义模型,直至达到最小损失函数值。
13.可选地,所述根据预置的损失函数,计算所述训练语义特征和所述标准语义特征之间的损失函数值,并根据所述损失函数值调整所述预训练的语义模型,直至达到最小损失函数值的步骤之后,包括:通过测试样本评估模型,计算所述预训练的语义模型的准确率、召回率和平衡指标;根据计算结果和对应的权重值,计算所述预训练的语义模型的综合指标值;若所述综合指标值满足指标阈值,则导出训练好的语义模型。
14.可选地,所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤包括:将所述语义特征和标签池进行匹配,若匹配率不满足最低匹配率,则将所述语义
特征作为新的标签,加入所述标签池。
15.此外,为实现上述目的,本发明还提供一种标签提取设备,所述标签提取设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的标签提取程序,所述标签提取程序配置为实现所述的标签提取方法的步骤。
16.此外,为实现上述目的,本发明还提供一种计算机可读存储介质,所述计算机可读存储介质上存储有标签提取程序,所述标签提取程序被处理器执行时实现所述的标签提取方法的步骤。
17.在本发明提供的一个技术方案中,确定非结构化文本的数字向量,然后将数字向量输入训练好的语义模型,得到对应的语义特征,最后根据语义特征和标签池的匹配结果,确定文本的目标标签。本方案通过数据处理和语义模型,可以理解非结构化文本的上下文信息和语义信息,进而对文本中难以理解的抽象信息进行精确提取,并预与之匹配目标标签,实现非结构化文本的自动化提取,后续还可以基于每个文本的目标标签,快速实现文本分类。而且,本方案所采用的语义模型的通用性较高,故在面对新政策时,不存在频繁迭代和更新的问题,从而极大地降低了信息提取工具维护和更新的成本。
附图说明
18.图1为本发明标签提取方法第一实施例的流程示意图;图2为本发明标签提取方法第二实施例的流程示意图;图3为本发明标签提取方法第三实施例的流程示意图;图4为本发明实施例方案涉及的硬件运行环境的标签提取设备的结构示意图。
19.本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
20.应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
21.在自动化提取信息的过程中,通常需要构建正则表达式、构建关系词库等。
22.然而,正则表达式只能处理基于模式的匹配,无法理解文本的上下文,因此,针对需要理解语义的非结构化文本,如自然语言文本,正则表达式无法进行信息提取。而且,不同类型的文件和不同时期的文件,对应的信息模式不同,因此,针对上述文件,需要不断构建和编译正则表达式,造成信息提取成本过高,且通用性较低。
23.至于关系词库,在构建过程中会比较消耗资源,同时随着越来越多的文本录入,词库也需要不断地更新与优化,导致运营成本较高。
24.为解决上述问题,本发明先从非结构化文本中提取出数字向量,将其输入训练好的语义模型得到语义特征,然后经标签池匹配,确定目标标签,以此实现非结构文本的信息理解和标签提取,拓展信息提取广度。
25.为了更好的理解上述技术方案,下面将参照附图更详细地描述本技术的示例性实施例。虽然附图中显示了本技术的示例性实施例,然而应当理解,可以以各种形式实现本技术而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本技术,并且能够将本技术的范围完整的传达给本领域的技术人员。
26.本发明实施例提供了一种标签提取方法,参照图1,图1为本发明一种标签提取方
法第一实施例的流程示意图。
27.本实施例中,所述标签提取方法包括:步骤s11:基于待提取的非结构化文本确定数字向量,所述数字向量表征所述非结构化文本的上下文信息和语义信息;本方案的应用场景包括但不限于:政府部门基于现有政策或者信息进行政策解读、管理公共事务、调研、更新政策等相关工作,法律相关单位或机构处理法律文书、辅助司法决策等工作,企业筛选信息、精炼信息、舆情监控、市场调研等工作,金融相关单位或机构筛选信息、制定方向、进行合规检查等工作。为便于理解,本方案以提取政策文件中的标签为例进行说明。
28.可以理解的是,非结构化文本,是指没有明确的格式或组织结构的文本数据,这种文本通常不遵循特定的模式或规则,难以被直接理解,需要转换为数值形式才能进行进一步的分析和处理;数字向量,是一种典型的非结构文本的数值形式,能够表征非结构化文本的上下文和语义。
29.可选地,词袋模型(bag-of-words model):将待提取的非结构化文本看作是由词语组成的集合,统计每个词语在文本中的出现次数或频率。具体可以使用countvectorizer或tfidfvectorizer等工具将文本转化为词袋模型表示的数字向量。
30.可选地,词频-逆向文件频率提取法(term frequency
–
inverse document frequency,tf-idf):在词袋模型的基础上引入词语的重要性权重,tf表示词语在文本中的频率,idf表示词语在整个文集中的逆文档频率。通过计算tf和idf的乘积,可以得到词语的tf-idf权重。具体可以使用tfidfvectorizer工具将文本转化为tf-idf表示的数字向量。
31.可选地,所述数字向量包括加权值向量,步骤s11包括:步骤s111:根据分词算法,将待提取的非结构化文本中的长句,切割成若干固定长度的词片段;可以理解的是,政策文件通常是由长句子按段落形式构成的,而bert模型所需的输入格式是固定长度的词片段,并且需要将文字转换为数字。因此,在进行政策文件预处理时,需要进行分词、编码和添加掩码等步骤,以使政策文件能够适配bert模型。
32.可选地,使用分词算法,如基于规则的分词算法、统计分词算法、基于机器学习的分词算法、基于深度学习的分词算法等,将政策文本中的长句,切割成一个个独立的单词或词汇单元,统称为词片段。
33.示例性地,采用word piece算法,经初始化词汇表、计算词频、合并字符片段、切割文本等步骤,将政策文本切割成固定长度的词片段,例如,对于句子“bert is a powerful nlp model”,分词后得到的词片段为:“bert”、“is”、“a”、“powerful”、“nlp”、“model”。
34.步骤s112:确定每个所述词片段的查询向量、键向量和值向量,并根据所述查询向量和所述键向量,计算每个所述词片段的注意力权重;可以理解的是,编码过程涉及基于转换器的双向编码模型(bidirectional encoder representations from transformer,bert),尤其是transformer模型的自注意力机制,自注意力机制允许每个词片段与其他词片段进行交互,以便有效地捕捉上下文的语义关系。
35.可选地,在transformer模型中,每个词片段都会被分别映射为查询向量、键向量
和值向量。这一步骤通常是通过一个线性变换来实现的,具体来说,对于每个词片段的输入向量,会分别乘以三个权重矩阵(查询权重矩阵、键权重矩阵和值权重矩阵)来得到对应的查询向量、键向量和值向量,这些向量用于计算注意力权重,以便将上下文中相关信息聚焦到当前词片段上。
36.进一步地,通过计算查询向量与所有词片段的键向量的点积,然后对点积进行缩放和softmax操作,得到归一化的注意力权重,这些权重表示了当前词片段与其他词片段之间的相似度,即上下文中的重要性。
37.步骤s113:对所述注意力权重和所述值向量进行加权求和,得到每个所述词片段的加权值向量。
38.可选地,使用注意力权重对每个词片段的值向量进行加权求和,得到最终的表示,即每个词片段的加权值向量。
39.一方面,通过计算注意力权重,加权值向量捕捉了词片段与其他词片段之间的关系,模型可以关注与当前词片段相关的其他词片段,从而捕捉上下文中的语义和语法关系,因此,加权值向量可以表征非结构化文本的上下文信息。
40.另一方面,通过注意力机制对值向量进行加权求和,可以将不同词片段的语义信息融合到最终的表示中,因此,加权值向量包含了词片段的综合性的语义信息,故加权值向量可以表征非结构化文本的语义信息。
41.需要注意的是,bert模型采用多头注意力机制,这意味着模型学习了多个不同的注意力权重,从不同的角度关注上下文中的信息。最后,这些不同头的输出会被拼接在一起,并通过线性变换得到最终的向量表示。
42.需要注意的是,词频-逆向文件频率(term frequency
–
inverse document frequency,tf-idf)等文本特征提取方法,对文章长度非常敏感,而文本中可能存在大量短篇通知,如政策延期通知、政策废止通知等。在面对这些政策文件时,tf-idf的关键词提取容易出现不精确的问题。在本方案中,bert模型不局限于非结构文本的长短与否,无论是短文本、长文本,甚至整个文档,都需要进行相应的分词操作,然后对每个片段进行编码,这样可以任何篇幅文本中的局部和全局信息。
43.步骤s12:将所述数字向量输入训练好的语义模型,得到对应的语义特征;可以理解的是,训练好的语义模型是指通过大规模的数据集进行训练,能够理解和表示语义的模型,这些模型通过学习文本数据中的语义关系和上下文信息,可以对自然语言进行理解和处理。
44.可选地,ernie(enhanced representation through knowledge integration)是一种基于transformer的预训练语言模型,通过ernie模型的前向传播过程,获取数字向量对应的语义特征。
45.可选地,使用bert-base,chinese模型,一款专门针对中文语言处理的预训练模型,所述训练好的语义模型包括训练好的掩码语言模型和训练好的句子预测模型,步骤s12包括:步骤s121:随机选定部分所述数字向量,并将选定的所述数字向量替换为掩码标记;步骤s122:将所述数字向量和所述掩码标记输入训练好的掩码语言模型,预测所
述掩码标记所屏蔽的词片段;步骤s123:将所述数字向量输入训练好的句子预测模型,预测各所述词片段所在长句的相邻关系;步骤s124:根据预测词片段和预测相邻关系,理解语义信息,并确定所述语义信息对应的语义特征;步骤s125:将所有所述语义特征划分为若干同类语义特征组,并对各所述同类语义特征组进行池化操作,得到对应的代表语义特征。
46.可以理解的是,将已处理的政策文本数据以固定向量的形式输入到bert模型中,bert通过执行掩码语言模型(maskedlanguagemodel,mlm)和句子预测模型(nextsentenceprediction,nsp),获取语义特征。
47.可选地,在mlm中,模型会随机地屏蔽文本中的一些词片段的数字向量,并将其替换为一个特殊的掩码标记"[mask]"。将数字向量和掩码标记输入训练好的句子预测模型,模型基于之前训练过程中学到的词汇之间的关系,预测掩码标记所屏蔽的词片段。掩码标记可以帮助模型更好地学习上下文信息,并避免过度依赖输入中的某些词汇。
[0048]
进一步地,在nsp中,检测到数字向量(包括预测词片段的数字向量)的输入操作后,模型会基于之前训练过程中学到的句子之间的关系,分析各词片段(包括预测词片段)所在的长句,在原始文本中是否存在相邻关系,即两个句子之间是否是连续的,以把握句子间的语义和连贯性。
[0049]
至此,基于mlm预测的词片段和nsp预测的相邻关系,理解每个数字向量的具体语义信息,进而确定语义信息对应的语义特征,如“通信”、“网络”、“计算机”等。
[0050]
接着,根据语义的相似程度,将所有的语义特征进行划分,归类为若干个同类语义特征组,如a组为建筑类,包括建筑、建设、房地产等语义特征,又如b组为绿色类,包括绿色、节约、环保等语义特征。
[0051]
在完成归类后,对同类语义特征组进行池化操作,池化操作可以通过保留最显著的特征来提取重要的特征信息。池化操作主要分为两种类型,最大池化(maxpooling)和平均池化(averagepooling)。其中,最大池化通过从每个特征维度的向量中选取最大的值,并将其作为该特征维度的输出值,实质上是在每个特征维度上选择具有最高权重或最强表示的词向量,具体来说,就是比较同类语义特征组中,各语义特征的向量值大小,将最大向量值对应的语义特征,作为本组的代表语义特征;平均池化是计算输入向量中每个特征维度的平均值,并将其作为相应特征维度的输出值,可以将平均池化视为对词向量的整体语义的平均表示,具体来说,就是求得一个同类语义特征组中,所有语义特征的平均向量值,并将该平均向量值对应的语义特征,作为本组的代表语义特征。
[0052]
需要注意的是,选择何种池化方式将在后续模型的优化与迭代中决定。然而,池化的最终目的是借助获得的固定长度向量,这样可以将整个文本序列的语义信息进行压缩和表示,便于将数据输入后续的神经网络层或分类器,以实现政策文本的分类任务。
[0053]
步骤s13:将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签。
[0054]
可以理解的是,在多标签学习任务中,每个非结构化文本可以属于多个标签,因此需要一个标签池来表示所有可能的标签。如在行业标签池中,包括建筑工程行业、绿色建筑相关行业、建筑节能相关行业、建筑废弃物相关行业等标签。
[0055]
可选地,预先定义一些规则或规则集,用于判断语义特征和标签之间的匹配关系,这些规则可以基于先验知识、领域专业知识或经验总结而来。根据规则进行匹配,将符合规则的标签与语义特征进行匹配。
[0056]
可选地,步骤s13包括:步骤s131:获取标签池的若干标签,并比较所述代表语义特征和所有所述标签之间的向量相似度;步骤s132:将所述向量相似度最高的标签确定为目标标签。
[0057]
可选地,将语义特征和标签池进行匹配,并根据语义特征和每个标签的匹配结果选择目标标签,具体过程为,获取标签池中的所有标签,然后使用文本相似度计算方法(如余弦相似度、编辑距离等)来比较语义特征和每个标签之间的向量相似度,并选择相似度最高的标签作为目标标签,即非结构化文本的标签信息。
[0058]
需要注意的是,如果语义特征和现有标签的匹配率均低于预置的最低匹配率,即,即向量相似度低于最低相似度,说明现有标签池内没有特别相关的标签,因此,可以将语义特征作为新的标签,加入标签池,便于后续文本的标签提取工作。
[0059]
在本实施例提供的一个技术方案中,确定非结构化文本的数字向量,然后将数字向量输入训练好的语义模型,得到对应的语义特征,最后根据语义特征和标签池的匹配结果,确定文本的目标标签。本方案通过数据处理和语义模型,可以理解非结构化文本的上下文信息和语义信息,进而对文本中难以理解的抽象信息进行精确提取,并预与之匹配目标标签,实现非结构化文本的自动化提取,后续还可以基于每个文本的目标标签,快速实现文本分类。而且,本方案所采用的语义模型的通用性较高,故在面对新政策时,不存在频繁迭代和更新的问题,从而极大地降低了信息提取工具维护和更新的成本。
[0060]
进一步的,参照图2,提出本发明标签提取方法的第二实施例。基于上述图1所示的实施例,所述基于待提取的非结构化文本确定数字向量的步骤之前,包括:步骤s21:通过爬虫技术,爬取网页上的数据,得到半结构化文本;步骤s22:根据本体属性,将所述半结构化文本划分为结构化文本和非结构化文本;可选地,爬虫是一种自动化程序,可以模拟人的操作,访问网页并提取所需的数据。通过爬虫技术,具体包括确定目标网页、发送http请求、解析html内容、数据清洗和整理、存储数据等步骤,爬取网页上的数据,得到半结构化文本。
[0061]
可以理解的是,本体属性是指描述一个物体的体征,在本发明的举例中,本体属性主要是指政策文件的一些特点(例如政策发布时间、政策涉及行业等)。由于半结构化数据具有部分结构化特点,但也包含了一些非结构化的数据,因此,按照本体属性对半结构化数据进行细化。
[0062]
可选地,若本体属性为政策内容中包含的关键信息(例如政策发布机构、政策有效期等),则将该部分内容划分为结构化文本;若本体属性为抽象信息(例如涉及行业、公文对象等),则将该部分内容划分为非结构化文本。
[0063]
所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤之后,包括:步骤s23:按照文本存储时的标准格式,对所述结构化文本进行解析和提取,直接
生成关键信息;步骤s24:对所述目标标签和所述关键信息进行数据融合,得到对应的目标结构化文本。
[0064]
可以理解的是,结构化文本在存储时,是以表格、行、列等标准合适存储的,每一行代表一个独立的数据实例,而每列代表的数据类型是在数据模型设计时就已经确定好的。因此,在对结构化文本进行信息提取时,可以直接按照存储时的标准格式,如参照词语的位置、上下文关系、语法规则等进行解析和提取,汇总生成关键信息。
[0065]
可选地,根据共同的字段或标识符将目标标签和关键信息进行连接或合并,以创建一个包含两者的综合结构化文本,亦或是,使用文本挖掘和自然语言处理技术提取和处理这些信息,本实施例不作具体限定。
[0066]
在本实施例提供的一个技术方案中,将半结构化文本划分为结构化文本和非结构化文本,针对非结构化文本,采用语义模型进行语义理解并提取目标标签,针对结构化文本,采用标准格式进行解析和提取,最后将两者进行数据融合。将结构化数据和非结构化数据分开处理,不仅可以提高数据处理效率,还可以利用各自的特点,进行精确的计算和分析,更好地适应不同的应用需求,提供更准确和有效的数据分析结果。
[0067]
进一步的,参照图3,提出本发明标签提取方法的第三实施例。基于上述图1所示的实施例,所述基于待提取的非结构化文本确定数字向量的步骤之前,包括:步骤s31:获取训练样本以及对应的标准语义特征,并基于所述训练样本确定训练数字向量,所述训练数字向量表征所述训练样本的上下文信息和语义信息;步骤s32:将所述训练数字向量输入预训练的语义模型,得到对应的训练语义特征;步骤s33:根据预置的损失函数,计算所述训练语义特征和所述标准语义特征之间的损失函数值,并根据所述损失函数值调整所述预训练的语义模型,直至达到最小损失函数值。
[0068]
可以理解的是,技术人员会预先准备训练样本,并人工标注对应的标准语义特征,如训练文本“规范建筑废弃物综合利用产品认定活动,进一步提高我市建筑废弃物综合利用水平”,对应的标准语义特征为“绿色”、“节能”等。
[0069]
可选地,获取训练样本以及标准语义特征后,进行数据预处理,即基于训练样本确定训练数字向量,所述数字向量表征训练样本的上下文信息和语义信息,具体过程同步骤s11,在此不作赘述。
[0070]
进一步地,将训练数字向量输入预训练的语义模型,得到对应的训练语义特征,具体过程同步骤s12,在此不作赘述。
[0071]
更进一步地,使用预置的函数值,如均方误差、交叉熵损失等,以均方误差为例,假设训练语义特征的向量为x,标准语义特征的向量为y,损失函数为l(x, y),均方误差损失函数的计算过程为:计算差异,即将训练向量x与标准向量y进行逐元素相减,得到差异向量diff;计算平方差,即对差异向量diff的每个元素进行平方运算,得到平方差向量diff_squared;计算均值,即对平方差向量diff_squared进行求和,并除以向量的长度,得到均值mean_squared;计算损失函数值,即将均值mean_squared作为损失函数值。具体的计算公式如下: l(x, y) = (1/n) * σ(diff_squared),其中,n表示向量的长度,σ表示求和。
[0072]
亦或是,在bert模型中,使用两个主要的损失函数来进行训练,分别是mlm损失函数和nsp损失函数。其中,mlm损失函数用于训练bert模型的预测能力,即通过遮蔽一部分输入的词语,然后让模型预测这些被遮蔽的词语,并将预测结果与原始句子中遮蔽的词语进行比较,计算交叉熵损失;nsp损失函数用于训练bert模型的语义理解能力,即通过预测两个句子是否是连续的,并将预测结果与实际标签进行比较,计算交叉熵损失。
[0073]
最后,根据损失函数值,使用反向传播算法计算模型参数的梯度,并根据梯度值,使用优化算法(如梯度下降法)更新模型参数,使损失函数值逐渐减小。重复前面的步骤,直到达到预设的停止条件,即达到最小损失函数值。
[0074]
需要注意的是,本方案的训练是将模型暴露于训练数据,使其逐渐适应数据的过程,这里的训练目标是使模型能够从训练数据中学习到数据的模式、特征和关系,以便在未见过的数据上表现出好的性能。在训练期间,模型通过与训练数据对比,不断调整模型参数,以最小化定义的损失函数,这有助于模型逐渐调整自身,使其预测与实际标签更加接近。
[0075]
步骤s35:通过测试样本评估模型,计算所述训练好的语义模型的准确率、召回率和平衡指标;步骤s35:根据计算结果和对应的权重值,计算所述预训练的语义模型的综合指标值;步骤s36:若所述综合指标值满足指标阈值,则导出训练好的语义模型。
[0076]
可以理解的是,一旦模型完成了训练,它可能会在训练数据上表现良好,但这并不意味着它在真实世界的未知数据上也能表现得很好。因此,本方案是对训练后的模型进行微调和优化,目的是确保模型的泛化能力,即在未见过的数据上表现良好。
[0077]
可选地,事先将数据样本划分为训练样本和测试样本,确保训练样本和测试样本是相互独立的。在使用训练样本对模型完成训练之后,使用测试样本对模型进行测试,得到测试结果。
[0078]
进一步地,计算准确率,准确率是指模型预测正确的样本数占总样本数的比例,即准确率=预测正确的样本数/总样本数;计算召回率,召回率是指模型正确预测为正例的样本数占真实正例样本数的比例,即召回率=预测正确的正例样本数/真实正例样本数;计算平衡指标,平衡指标综合考虑了准确率和召回率,如f1值是准确率和召回率的调和平均值,f1值= 2 * (准确率*召回率) / (准确率+召回率)。
[0079]
更进一步地,根据计算结果和对应的权重值,如准确率、召回率和平衡指标的权重值分别为0.3、0.3和0.4,相乘后相加,得到预训练的语义模型的综合指标值。
[0080]
如果综合指标值满足指标阈值,说明模型在面对未知数据时也能表现得很好,故导出训练好的语义模型,投入正式使用;如果综合指标值不满足指标阈值,说明模型在训练数据上表现很好,但在测试数据上表现不佳,因此需要进行微调。
[0081]
在本实施例提供的一个技术方案中,先使用训练样本对预训练模型进行训练,并基于损失函数对模型进行调整,在达到最小损失函数之后,使用测试样本评估模型进行评估。训练集是模型用来学习和调整参数的数据,而测试集是用来评估模型在未见过的数据上的性能,如此设置,可以帮助检测和避免过拟合,即模型在训练集上表现良好,但在测试集上表现较差时,可能是因为模型过度拟合了训练集的特定特征,而无法泛化到新的数据。
[0082]
参照图4,图4为本发明实施例方案涉及的硬件运行环境的标签提取设备结构示意图。
[0083]
如图4所示,该标签提取设备可以包括:处理器1001,例如中央处理器(central processing unit,cpu),通信总线1002、用户接口1003,网络接口1004,存储器1005。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(display)、输入单元比如键盘(keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如无线保真(wireless-fidelity,wi-fi)接口)。存储器1005可以是高速的随机存取存储器(random access memory,ram)存储器,也可以是稳定的非易失性存储器(non-volatile memory,nvm),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
[0084]
本领域技术人员可以理解,图4中示出的结构并不构成对标签提取设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
[0085]
如图4所示,作为一种存储介质的存储器1005中可以包括操作系统、数据存储模块、网络通信模块、用户接口模块以及标签提取程序。
[0086]
在图4所示的标签提取设备中,网络接口1004主要用于与其他设备进行数据通信;用户接口1003主要用于与用户进行数据交互;本发明标签提取设备中的处理器1001、存储器1005可以设置在标签提取设备中,所述标签提取设备通过处理器1001调用存储器1005中存储的标签提取程序,并执行本发明实施例提供的标签提取方法。
[0087]
本发明实施例提供一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时实现上述标签提取方法任一实施例中的步骤。
[0088]
由于计算机可读存储介质部分的实施例与方法部分的实施例相互对应,因此计算机可读存储介质部分的实施例请参见方法部分的实施例的描述,在此暂不赘述。
[0089]
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还 包括为这种过程、方法、物品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个
……”
限定的要素,并不排除在包括该要素的过程、 方法、物品或者系统中还存在另外的相同要素。
[0090]
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
[0091]
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述 实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通 过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术作出贡献的部分可以以软件产品的形式体 现出来,该计算机软件产品存储在如上所述的一个存储介质(如rom/ram、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
[0092]
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
技术特征:
1.一种标签提取方法,其特征在于,所述标签提取方法包括以下步骤:基于待提取的非结构化文本确定数字向量,所述数字向量表征所述非结构化文本的上下文信息和语义信息;将所述数字向量输入训练好的语义模型,得到对应的语义特征;将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签。2.如权利要求1所述的标签提取方法,其特征在于,所述数字向量包括加权值向量,所述基于待提取的非结构化文本确定数字向量的步骤包括:根据分词算法,将待提取的非结构化文本中的长句,切割成若干固定长度的词片段;确定每个所述词片段的查询向量、键向量和值向量,并根据所述查询向量和所述键向量,计算每个所述词片段的注意力权重;对所述注意力权重和所述值向量进行加权求和,得到每个所述词片段的加权值向量。3.如权利要求2所述的标签提取方法,其特征在于,所述训练好的语义模型包括训练好的掩码语言模型和训练好的句子预测模型,所述将所述数字向量输入训练好的语义模型,得到对应的语义特征的步骤包括:随机选定部分所述数字向量,并将选定的所述数字向量替换为掩码标记;将所述数字向量和所述掩码标记输入训练好的掩码语言模型,预测所述掩码标记所屏蔽的词片段;将所述数字向量输入训练好的句子预测模型,预测各所述词片段所在长句的相邻关系;根据预测词片段和预测相邻关系,理解语义信息,并确定所述语义信息对应的语义特征;将所有所述语义特征划分为若干同类语义特征组,并对各所述同类语义特征组进行池化操作,得到对应的代表语义特征。4.如权利要求3所述的标签提取方法,其特征在于,所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤包括:获取标签池的若干标签,并比较所述代表语义特征和所有所述标签之间的向量相似度;将所述向量相似度最高的标签确定为目标标签。5.如权利要求1所述的标签提取方法,其特征在于,所述基于待提取的非结构化文本确定数字向量的步骤之前,包括:通过爬虫技术,爬取网页上的数据,得到半结构化文本;根据本体属性,将所述半结构化文本划分为结构化文本和非结构化文本;所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤之后,包括:按照文本存储时的标准格式,对所述结构化文本进行解析和提取,直接生成关键信息;对所述目标标签和所述关键信息进行数据融合,得到对应的目标结构化文本。6.如权利要求1所述的标签提取方法,其特征在于,所述基于待提取的非结构化文本确定数字向量的步骤之前,包括:获取训练样本以及对应的标准语义特征,并基于所述训练样本确定训练数字向量,所
述训练数字向量表征所述训练样本的上下文信息和语义信息;将所述训练数字向量输入预训练的语义模型,得到对应的训练语义特征;根据预置的损失函数,计算所述训练语义特征和所述标准语义特征之间的损失函数值,并根据所述损失函数值调整所述预训练的语义模型,直至达到最小损失函数值。7.如权利要求6所述的标签提取方法,其特征在于,所述根据预置的损失函数,计算所述训练语义特征和所述标准语义特征之间的损失函数值,并根据所述损失函数值调整所述预训练的语义模型,直至达到最小损失函数值的步骤之后,包括:通过测试样本评估模型,计算所述预训练的语义模型的准确率、召回率和平衡指标;根据计算结果和对应的权重值,计算所述预训练的语义模型的综合指标值;若所述综合指标值满足指标阈值,则导出训练好的语义模型。8.如权利要求1所述的标签提取方法,其特征在于,所述将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签的步骤包括:将所述语义特征和标签池进行匹配,若匹配率不满足最低匹配率,则将所述语义特征作为新的标签,加入所述标签池。9.一种标签提取设备,其特征在于,所述标签提取设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的标签提取程序,所述标签提取程序配置为实现如权利要求1至8中任一项所述的标签提取方法的步骤。10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有标签提取程序,所述标签提取程序被处理器执行时实现如权利要求1至8任一项所述的标签提取方法的步骤。
技术总结
本发明公开了一种标签提取方法、设备及计算机可读存储介质,属于信息处理技术领域。该方法包括:基于待提取的非结构化文本确定数字向量,所述数字向量表征所述非结构化文本的上下文信息和语义信息;将所述数字向量输入训练好的语义模型,得到对应的语义特征;将所述语义特征和标签池进行匹配,并根据匹配结果确定目标标签。本发明旨在提取非结构化文本的标签信息。信息。信息。
技术研发人员:郭峻宁 陈晓锋
受保护的技术使用者:深圳市智城软件技术服务有限公司
技术研发日:2023.09.13
技术公布日:2023/10/20
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
航空商城 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/
上一篇:一种带固定功能的插头与插座连接结构的制作方法 下一篇:稀土金属用熔炼炉的制作方法