一种融合相对位置信息的超声心动图可靠分割方法与流程

未命名 10-25 阅读:90 评论:0


1.本发明涉及一种超声心动图可靠分割方法,具体是一种融合相对位置信息的超声心动图可靠分割方法,属于医学图像分割技术领域。


背景技术:

2.语义分割是计算机视觉领域的关键问题之一,通过判断图像每个像素点的类别,按照类别的异同,将图像分为多个块,实现了图像像素级的分类,从而能够进行精确的分割。由于语义分割技术具有分割速度快、分割结果准确率高等诸多优点,目前已广泛应用于医学图像、自动驾驶、场景理解、遥感地图处理等领域。
3.作为医学图像分割技术的最重要的手段,超声心动图可靠分割在语义分割应用中仍然存在误差较大、分割效率低的问题,这些问题在现有技术中并未得到有效解决,因而,其成为了制约图像分割的主要技术瓶颈。准确的超声心动图图像数据集是超声心动图分割的基础,但由于超声图像中存在的散斑噪声,导致边界不连续或模糊,难以准确确定分割部位的位置。因此,如何根据心脏相对位置信息固定的特点有针对地对超声心动图进行数据增强,并进行快速的可靠分割,对提高医学图像分割效率、提高超声心动图分割精度具有十分重要的意义。
4.常见的语义分割的防范研究方式仍处于一种固定模式上,传统的语义分割方法,比如结构化随机森林和支持向量机等,分割效果差并且分割效率较低,耗时且冗余。人很容易根据环境状况分辨出模糊图像所属类别,而对于深度学习的语义分割,假若某个类别很少出现,并且物品和环境其他类别有着很相似的形状或者颜色,则很难分辨出类别。受速度和内存现状影响,考虑降低模型的分辨率,也会导致大量细节信息的缺失,同时,卷积网络模型只能考虑到局部的信息,丢失全局信息。以上种种问题导致了超声心动图分割质量的不确定性,进而会产生许多分割误差。


技术实现要素:

5.本发明旨在至少解决现有技术中存在的技术问题之一。为此,本发明在于提出一种融合相对位置信息的超声心动图可靠分割方法,能够有效解决由于超声图像中存在的散斑噪声导致的分割边界不准确、边缘部位缺失的技术问题。
6.根据本发明的一种融合相对位置信息的超声心动图可靠分割方法,包括以下步骤:
7.步骤一:构建超声心动图数据集:对超声心动图数据进行预处理,然后根据超声心动图数据标注策略对预处理后的超声心动图数据进行标注,最后利用生成对抗网络算法对已标注的超声心动图数据进行数据增强操作,以此构建高质量超声心动图数据集;
8.步骤二:通过超声心动图数据集构建深度卷积神经网络的预训练模型;
9.步骤三:利用心脏四腔心结构中位置信息固定的特点,将transformer神经网络结构中的位置编码向量融入到已训练的深度卷积神经网络模型中,对超声心动图中的每一个
像素点进行编码,分析出超声心动图的相对位置信息,构建出适用于四腔心结构的图像可靠分割模型;
10.步骤四:将经过预处理后的超声心动图输入至适用于四腔心结构的图像可靠分割模型中进行图像分割,基于分割之后的结果,利用birch聚类算法对超声心动图进行多次重复聚类,以实现超声心动图的可靠精确分割。
11.与现有技术相比,本发明利用人体心脏主要有四个腔隙,其位置是固定的,心房在上方,心室在下方,并根据左右位置分为左心房和右心房,左心室和右心室,考虑到心脏相对位置信息固定这一特点,构建深度卷积神经网络模型,利用模型中的位置编码向量,快速捕捉图像中的每一个像素点并编码,以此得出每个图像像素的位置信息,有效地解决了由于超声心动图像中存在的散斑噪声导致的分割边界不准确、边缘部位缺失这一问题。因此,经过训练的深度卷积神经网络模型在超声心动图分割的准确性方面体现出现了较传统分割方法所无法比拟的优势。本发明方法耗时短,较传统的方法对超声数据具有更好的适应能力。本发明实现了对超声心动图的可靠分割,其对于提高医学图像分割效率、提升分割精确度具有十分重要的意义。
附图说明
12.图1是根据本发明一个实施例的融合相对位置信息的超声心动图可靠分割方法的流程图;
13.图2是根据本发明一个实施例的融合相对位置信息的超声心动图可靠分割方法的利用生成对抗网络算法预处理数据流程图;
14.图3是根据本发明一个实施例的融合相对位置信息的超声心动图可靠分割方法的预训练深度神经网络模型的网络架构图;
15.图4是根据本发明一个实施例的融合相对位置信息的超声心动图可靠分割方法的模型注意力优化和特征融合模块结构图;其中,(a)是注意力优化模块,(b)是特征融合模块;
16.图5是根据本发明一个实施例的融合相对位置信息的超声心动图可靠分割方法的融合位置编码后的深度神经网络架构图。
具体实施方式
17.下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本发明,而不能理解为对本发明的限制。
18.下文的公开提供了许多不同的实施例或例子用来实现本发明的不同结构。为了简化本发明的公开,下文中对特定例子的部件和设置进行描述。当然,它们仅仅为示例,并且目的不在于限制本发明。此外,本发明可以在不同例子中重复参考数字和/或字母。这种重复是为了简化和清楚的目的,其本身不指示所讨论各种实施例和/或设置之间的关系。此外,本发明提供了的各种特定的工艺和材料的例子,但是本领域普通技术人员可以意识到其他工艺的可应用性和/或其他材料的使用。
19.下面参考图1描述根据本发明实施例的一种融合相对位置信息的超声心动图可靠
分割方法,包括以下步骤:
20.步骤一:构建超声心动图数据集:对超声心动图数据进行预处理,然后根据超声心动图数据标注策略对预处理后的超声心动图数据进行标注,最后利用生成对抗网络算法对已标注的超声心动图数据进行数据增强操作,以此构建高质量超声心动图数据集,具体方法如下:
21.首先对超声心动图数据进行图像去噪和数据清洗等预处理操作,以此提高图像质量,减少噪声和伪影等干扰;然后根据数据标注策略对预处理后的原始超声心动图数据进行标注,即将超声心动图分割为不同的区域并为每个区域分配标签;最后为了增加标注后的超声心动图数据的多样性和泛化能力,利用生成对抗网络算法对已标注的超声心动图数据进行数据增强操作,以此构建高质量超声心动图数据集。
22.上述技术方案中,生成对抗网络是一种学习噪声到数据之间映射的网络,生成器对输入分布进行学习,模仿真实分布生成一个仿造的数据,生成的仿造数据再经过判别器进行判断。生成对抗网络经过不断循环与对抗的过程,对权值进行不断更新,直至生成的数据接近于真实分布。生成对抗网络算法利用非对称的非局部变量模块减少了网络复杂度的同时,提高了感受野。
23.由于超声心动图图像数据集来源相对较少,以及超声心动图图像易受噪声、声影、运动等影响形成斑点和伪影,图像质量不佳、信噪比低。因此,虽然可以直接利用已标注的大规模超声心动图数据集直接训练得到模型,但由于这些问题的存在,使得在超声心动图数据集上训练的模型往往精度差并且分割效率低,因此,参考图2所示,在训练深度卷积神经网络模型之前,通过数据标注策略和生成对抗网络算法对超声心动图进行图像增强处理操作,以提高超声心动图图像的清晰度。
24.步骤二:通过超声心动图数据集构建深度卷积神经网络的预训练模型:首先将超声心动图数据集随机按照预设比例分为训练集、验证集和测试集,在一些实施例中,本发明训练集、验证集和测试集的比例分别为70%、15%、15%;然后建立深度卷积神经网络模型,采用训练集对深度卷积神经网络模型进行训练并得到超声心动图分割结果,在验证集上评估深度卷积神经网络模型的性能,以防止过拟合,最后利用测试集对训练好的深度卷积神经网络模型进行测试,并再次评估深度卷积神经网络模型的性能和泛化能力,直到训练结果满足使用者的需求后停止训练,换言之,当深度卷积神经网络模型的性能和泛化能力达到使用者的需求后,则可以停止训练。本实施例深度卷积神经网络模型选择训练300次数据停止,此时训练后的深度卷积神经网络模型可满足使用者的需求。
25.参考图3所示,在一些实施例中,本发明深度卷积神经网络模型利用3个卷积层和步幅作为空间路径,以此来保存空间信息并生成高分辨率,以获取超声心动图高像素的特征,同时,采用具有快速下采样策略的上下文路径来获得足够的接受场,上下文路径提供了较大的感受域,上下文路径采用轻量级模型和全局平均池化来提供更大的感受野,同时采用轻量级模型快速对特征映射下采样,以编码高级语义特征的上下文信息,在轻量级模型的尾部添加一个全局平均池化,该池化用于提供具有全局上下文信息的最大感受野。
26.参考图4所示,在一些实施例中,本发明深度卷积神经网络模型还包括面向超声心动图像阶段特征的注意力优化模块,该注意力优化模块借助全局平均池化去捕捉全局上下文语境并且计算一个注意力向量以引导特征学习,以精细特征图。
27.深度卷积神经网络模型可以自动从超声心动图数据中提取图像特征,根据训练数据集中的标签,自动调整深度卷积神经网络模型参数以学习到有用的特征表示。特征学习是指深度卷积神经网络模型从图像数据中学习到具有语义信息的特征表示,通过特征学习深度卷积神经网络模型可以自动学习到边缘、纹理、形状等视觉特征,从而更好地理解图像内容。在深度卷积神经网络中的卷积层将从原始数据中提取出的高级特征以特征图形式表示出来,不同的特征图通道可以对应于不同的边缘方向、纹理、颜色或更高级的语义特征。同时,优化上下文路径中的每一阶段输出的具有语义信息的特征,无需任何上采样操作即可轻易整合全局上下文语境信息,减轻了计算成本。
28.参考图4所示,在一些实施例中,本发明在空间路径和上下文路径之上,引入一个特征融合模块来有效地组合并拼接空间路径和上下文路径的输出特征。利用3
×
3卷积以有效地聚集特征响应并扩展到更高维空间,并在每个单独输出通道上独立执行的3
×
3深度卷积,将深度卷积的输出投影到低通道容量的空间中,从而达到空间路径和上下文路径的特征融合。特征融合模块利用批量归一化来平衡特征的规模,将连接的特征池化到特征向量,并计算其权重向量,从而对空间路径和上下文路径所提取的特征进行聚合,将多个特征的信息融合在一起,从而得到更丰富、更综合的特征表示,有助于提高模型性能和表示能力。
29.本发明深度卷积神经网络模型采用公式(1)来监督整个深度卷积神经网络模型的输出,从而实现了更准确和细致的语义分割结果;采用公式(2)来优化整个深度卷积神经网络模型:
[0030][0031]
式中,l
p
(x;w)是主要损失函数,xi模型是第i阶段的输出特征,li是第i阶段的辅助损耗,k=3;
[0032]
公式(1)表示总体损失函数加权和的主要损失和辅助的损失,并添加了两个辅助损失函数来监督上下文路径的输出,其中一个辅助损失函数是全局分割损失用于衡量深度卷积神经网络模型对图像整体语义分割的准确性,另一个辅助损失函数是局部分割损失有助于保持低级特征和边缘信息的准确性,所有损失函数均为软最大损失;
[0033][0034]
式中,通过参数α来平衡主损失函数和辅助损失函数的权重,α等于1。
[0035]
步骤三:由于深度卷积神经网络模型的损失函数的存在,图像分割的过程中会产生边缘缺失等问题,由此导致图像分割效率低,耗时且冗余,因此,参考图5所示,利用心脏四腔心结构中位置信息固定的特点,将transformer神经网络结构中的位置编码向量融入到已训练的深度卷积神经网络模型中,对超声心动图像中的每一个像素点进行编码,分析出超声心动图的相对位置信息,构建出适用于四腔心结构的图像可靠分割模型,有效提高了超声心动图分割的准确率及分割效率,同时极大地降低了超声心动图数据集成本。
[0036]
transformer模型完全采用注意力机制取代循环神经网络、深度卷积神经网络作为序列学习的基本模型,其利用位置编码来知道每个输入词在句子中的相对和绝对的位置信息。从图像的角度来看,transformer利用位置编码来得出每个图像像素的语义和位置信
息。位置编码是通过在输入的词嵌入中添加位置编码向量来实现的。具体的,在深度卷积神经网络模型的编码层和解码层输入中添加一个transformer神经网络结构中的位置编码向量,该向量能够决定当前词的位置及在一个句子中不同词之间的距离,通过将位置编码向量与词嵌入向量相加,深度卷积神经网络模型在输入序列中的每个位置上都包含了位置信息,同时深度卷积神经网络模型也可以根据位置编码的加权,对不同位置的输入位置信息进行差异化处理。所述位置编码向量表达式如下:
[0037][0038][0039]
式中,pe为二维矩阵,大小跟输入词嵌入的维度一样,行表示词语,列表示词向量;pos表示词语在句子中的位;dmodel表示词向量的维度;i表示词向量的位置。
[0040]
上述公式表示在每个词语的词向量的偶数位置添加sin变量,奇数位置添加cos变量,以此来填满整个pe矩阵,然后加到深度卷积神经网络模型中去,以此完成位置编码的融入,从图像的角度来看,pos代表超声心动图的行,i代表当前行对应的列,以此来对超声心动图图像中的每一个像素点进行编码,从而构建出适用于四腔心结构的图像可靠分割模型。
[0041]
步骤四:将经过预处理后的超声心动图输入至适用于四腔心结构的图像可靠分割模型进行图像分割,基于分割之后的结果,利用birch聚类算法对超声心动图图像进行多次重复聚类,在边缘缺失损耗方面,进一步提高了分割的精度,实现了超声心动图的可靠精确分割,具体方法如下:
[0042]
s4.1将分割后的超声心动图图像数据转换为适合进行聚类的直方图输出格式;
[0043]
s4.2将转换后的直方图图像数据划分为一组聚类簇,根据数据聚类簇的数量和阈值,对转换后的直方图图像数据应用birch聚类算法,根据birch聚类算法的聚类结果生成初步的分割图像,每个聚类簇代表一类相似的像素,每个聚类簇可被视为一个分割区域,使用聚类标签将像素分配到相应的聚类簇;
[0044]
s4.3对birch聚类算法得到的聚类结果进行后处理,以进一步改善分割结果的准确性,实现了超声心动图的可靠精确分割。其中,后处理包括噪声点移除、聚类合并和边界优化三个步骤,具体方法如下:首先根据聚类簇的大小或密度设置阈值来判断并移除噪声点,然后使用距离度量或像素邻接性来判断聚类簇之间的相似性,并将相邻的聚类簇合并为更大的分割区域,最后利用图割算法及边缘检测算法对分割边界进行优化,改善分割边界的质量,得到最终的图像分割结果。
[0045]
本发明首先利用数据标注策略对预处理后的超声心动图数据进行标注,然后利用生成对抗网络算法对已标注的超声心动图数据进行增强操作,构建高质量超声心动图数据集,然后再通过超声心动图数据集和深度学习的方式建立了适用于超声图像的深度卷积神经网络模型的预训练模型,再结合transformer神经网络结构中的位置编码向量,分析出超声心动图的相对位置信息,建立了面向超声心动图的适用于四腔心结构的图像可靠分割模型,有效地提高了图像分割的准确率及分割效率。最后,利用birch聚类算法对超声心动图进行多次重复聚类,实现了边缘等部位的可靠精确分割,从而实现了超声心动图的可靠精确分割。
[0046]
根据本发明实施例的融合相对位置信息的超声心动图可靠分割方法的其他构成例如深度卷积神经网络、生成对抗网络算法、birch聚类算法等以及操作对于本领域普通技术人员而言都是已知的,这里不再详细描述。
[0047]
在本发明的描述中,需要理解的是,术语“中心”、“纵向”、“横向”、“长度”、“宽度”、“厚度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”、“顺时针”、“逆时针”、“轴向”、“径向”、“周向”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。
[0048]
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括一个或者更多个该特征。在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
[0049]
在本发明中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”、“固定”等术语应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或成一体;可以是机械连接,也可以是电连接,还可以是通信;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通或两个元件的相互作用关系。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本发明中的具体含义。
[0050]
在本发明中,除非另有明确的规定和限定,第一特征在第二特征“上”或“下”可以是第一和第二特征直接接触,或第一和第二特征通过中间媒介间接接触。而且,第一特征在第二特征“之上”、“上方”和“上面”可是第一特征在第二特征正上方或斜上方,或仅仅表示第一特征水平高度高于第二特征。第一特征在第二特征“之下”、“下方”和“下面”可以是第一特征在第二特征正下方或斜下方,或仅仅表示第一特征水平高度小于第二特征。
[0051]
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本发明的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
[0052]
尽管已经示出和描述了本发明的实施例,本领域的普通技术人员可以理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同物限定。

技术特征:
1.一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,包括以下步骤:步骤一:构建超声心动图数据集:对超声心动图数据进行预处理,然后根据超声心动图数据标注策略对预处理后的超声心动图数据进行标注,最后利用生成对抗网络算法对已标注的超声心动图数据进行数据增强操作,以此构建高质量超声心动图数据集;步骤二:通过超声心动图数据集构建深度卷积神经网络的预训练模型;步骤三:利用心脏四腔心结构中位置信息固定的特点,将transformer神经网络结构中的位置编码向量融入到已训练的深度卷积神经网络模型中,对超声心动图中的每一个像素点进行编码,分析出超声心动图的相对位置信息,构建出适用于四腔心结构的图像可靠分割模型;步骤四:将经过预处理后的超声心动图输入至适用于四腔心结构的图像可靠分割模型中进行图像分割,基于分割之后的结果,利用birch聚类算法对超声心动图进行多次重复聚类,以实现超声心动图的可靠精确分割。2.根据权利要求1所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,所述步骤一中根据超声心动图数据标注策略对预处理后的超声心动图数据进行标注,具体方法如下:将预处理后的超声心动图分割为不同的区域并为每个区域分配标签。3.根据权利要求1所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,步骤二具体方法如下:首先将超声心动图数据集随机按照预设比例分为训练集、验证集和测试集;然后建立适用于超声心动图的预训练的深度卷积神经网络模型,并采用训练集对深度卷积神经网络模型进行训练并得到超声心动图分割结果,在验证集上评估深度卷积神经网络模型的性能,以防止过拟合,最后利用测试集对训练好的深度卷积神经网络模型进行测试,并再次采用验证集评估深度卷积神经网络模型的性能和泛化能力,直到训练结果满足需求后停止训练。4.根据权利要求3所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,所述深度卷积神经网络模型利用n个卷积层和步幅作为空间路径,以此来保存空间信息并生成高分辨率,以获取超声心动图高像素的特征,同时,采用具有快速下采样策略的上下文路径来获得接受场,所述上下文路径用于提供感受域,其采用轻量级模型和全局平均池化来提供感受野,并采用轻量级模型快速对特征映射下采样,以编码高级语义特征的上下文信息,在轻量级模型的尾部添加一个全局平均池化,该池化用于提供具有全局上下文信息的最大感受野。5.根据权利要求4所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,所述深度卷积神经网络模型还包括面向超声心动图像阶段特征的注意力优化模块,所述注意力优化模块借助全局平均池化去捕捉全局上下文语境,并且计算一个注意力向量以引导特征学习,以精细特征图,同时,优化所述上下文路径中的每一阶段输出的具有语义信息的特征。6.根据权利要求5所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,在所述空间路径和所述上下文路径之上,引入一个特征融合模块来组合并拼接所述空间路径和所述上下文路径的输出特征,所述特征融合模块利用n
×
n卷积以有效地聚集特征响应并扩展到更高维空间,同时在每个单独输出通道上独立执行的n
×
n深度卷积,将深
度卷积的输出投影到低通道容量的空间中,从而达到所述空间路径和所述上下文路径的特征融合。7.根据权利要求3或5所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,所述深度卷积神经网络模型采用公式(1)来监督整个深度卷积神经网络模型的输出,采用公式(2)来优化整个深度卷积神经网络模型:式中,l
p
(x;w)是主要损失函数,x
i
模型是第i阶段的输出特征,l
i
是第i阶段的辅助损耗,k=3;式中,通过参数α来平衡主损失函数和辅助损失函数的权重,α等于1。8.根据权利要求1所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,步骤三具体方法如下:在所述深度卷积神经网络模型的编码层和解码层输入中添加一个transformer神经网络结构中的位置编码向量,该向量用于决定当前词的位置及在一个句子中不同词之间的距离,通过将所述位置编码向量与词嵌入向量相加,使所述深度卷积神经网络模型在输入序列中的每个位置上都包含了位置信息,所述位置编码向量表达式如下:列中的每个位置上都包含了位置信息,所述位置编码向量表达式如下:式中,pe为二维矩阵,大小跟输入词嵌入的维度一样,行表示词语,列表示词向量;pos表示词语在句子中的位;dmodel表示词向量的维度;i表示词向量的位置;上述公式表示在每个词语的词向量的偶数位置添加sin变量,奇数位置添加cos变量,以此来填满整个pe矩阵,然后加到深度卷积神经网络模型中,以此完成位置编码的融入,从图像的角度来看,pos代表超声心动图的行,i代表当前行对应的列,以此来对超声心动图图像中的每一个像素点进行编码,从而构建出适用于四腔心结构的图像可靠分割模型。9.根据权利要求3或5所述的一种融合相对位置信息的超声心动图可靠分割方法,其特征在于,所述步骤四具体方法如下:s4.1将分割后的超声心动图图像数据转换为用于进行聚类的直方图输出格式;s4.2将转换后的直方图图像数据划分为一组聚类簇,根据数据聚类簇的数量和阈值,对转换后的直方图图像数据应用birch聚类算法,根据birch聚类算法的聚类结果生成初步的分割图像,每个聚类簇代表一类相似的像素,每个聚类簇被视为一个分割区域,使用聚类标签将像素分配到相应的聚类簇;s4.3对birch聚类算法得到的聚类结果进行后处理,以实现超声心动图的可靠精确分割。

技术总结
本发明公开一种融合相对位置信息的超声心动图可靠分割方法,首先利用数据标注策略对预处理后的超声心动图数据进行标注,然后利用生成对抗网络算法对已标注的超声心动图数据进行增强操作,构建高质量超声心动图数据集,然后再通过超声心动图数据集和深度学习的方式建立了适用于超声图像的深度卷积神经网络模型的预训练模型,再结合transformer神经网络结构中的位置编码向量,分析出超声心动图的相对位置信息,构建面向超声心动图的适用于四腔心结构的图像可靠分割模型,有效地提高了图像分割的准确率及分割效率。最后,利用Birch聚类算法对超声心动图进行多次重复聚类,实现了边缘等部位的可靠精确分割,从而实现了超声心动图的可靠精确分割。动图的可靠精确分割。动图的可靠精确分割。


技术研发人员:徐晓 张孟璐 陈炳华 杨旭 尹雨晴 鲍衷旭 姜舒 陆璐琦 牛强
受保护的技术使用者:徐州市第一人民医院
技术研发日:2023.07.17
技术公布日:2023/10/20
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

航空商城 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

评论

相关推荐