一种手术场景图像转换方法

未命名 08-02 阅读:88 评论:0


1.本发明涉及手术场景图像转换技术领域,尤其是指一种手术场景图像转换方法。


背景技术:

2.随着手术机器人和深度学习驱动算法的蓬勃发展,通过学习人类的技能使机器人能够自主完成某些子任务的手术自动化正引起巨大关注。然而,由于伦理问题的存在,目前手术场景的数据集对外公开的数量较小,并且场景的种类也处于受限的状态。为了促进手术机器人深度学习得到更好的发展,提供更丰富的手术场景信息的数据集就十分重要,其中就包括增加手术场景的图像数据集。由于该原因,手术图像的转换技术应运而生。从其他场景到所需场景的高质量外科图像转换方法不仅可以增加手术场景数据集的数量,还可以帮助手术机器人的医疗技能训练平台的搭建。
3.为了实现图像转换这一目标,研究人员正在进行广泛的研究,以探寻合适的图像转换方法。其中,gan(generative adversarial network,生成对抗网络)已被广泛应用,其包括一个生成器和一个辨别器,它们都是由深度学习网络搭建而成。生成器被训练以生成目标场景的新图像,辨别器则被训练以辨别生成器生成的图像是否为目标场景的图像,两个网络在训练过程中共同进步,最终生成器生成目标域假图的能力得到显著的提升。然而考虑到两个不同领域下的大多数数据基本上是不成对的(成对:源域和目标域的图像一一对应,即每一张源域的图片都有一张语义信息相同的目标域图片与其对应),这样的数据不能用作gan的训练,因此可以使用这类数据进行图像转换训练的循环生成对抗网络(cyclegan)应运而生。
4.在进行整张手术场景图像转换时,直接使用cyclegan进行操作会出现图像转换的不清晰和手术器械的部分缺失等问题。现有技术中,基于改进的cyclegan模型也只专注于手术器械的图像转换,因此当手术场景的背景不同时,无法使用现有技术方案实现高质量的图像转换。


技术实现要素:

5.本发明所要解决的技术问题在于克服现有技术中存在的不足,提供一种手术场景图像转换方法,其能在背景不同的情况下转换出图像清晰且器械部分完整的手术场景图像,实现高质量的手术图像转换。
6.按照本发明提供的技术方案,所述手术场景图像转换方法包括:
7.构建改进的cyclegan模型,所述改进的cyclegan模型包括第一生成器、第一判别器、第二生成器、第二判别器、对抗生成损失函数、循环一致性损失函数以及器械保护损失函数;
8.获取手术场景图像数据集,所述手术场景图像数据集包括多对样本图像和期望图像,定义所述样本图像为源域图像,所述期望图像为目标域图像,基于所述手术场景图像数据集训练所述改进的cyclegan模型;
9.基于训练后的改进的cyclegan模型,根据所述样本图像,得到转换后的手术场景图像;
10.其中,训练所述改进的cyclegan模型包括:
11.步骤1、执行“源域-目标域-源域”的正向训练;
12.步骤2、执行“目标域-源域-目标域”的逆向训练;
13.步骤3、判断执行所述正向训练和逆向训练的次数是否达到预设值,若到达所述预设值,则完成训练,否则,返回步骤1。
14.其中,正向训练或逆向训练时,根据所述器械保护损失函数更新所述第二生成器和第一生成器的参数。
15.在本发明的一个实施例中,所述正向训练包括:
16.分离所述源域图像的背景以及器械,得到第一背景图和第一器械图;
17.基于所述对抗生成损失函数和目标域图像更新所述第一判别器参数;
18.将所述第一背景图和第一器械图输入第一生成器,得到第一转换图;
19.所述第一判别器判断所述第一转换图是否为目标域图像,若所述第一转换图为目标域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第一生成器参数后返回第一生成器输出转换图的步骤;
20.分离所述第一转换图中的背景以及器械,得到第二背景图像和第二器械图;
21.将所述第二背景图和第二器械图输入第二生成器,得到第二转换图;
22.对比所述第二转换图与源域图像,基于所述循环一致性损失函数更新第一生成器和第二生成器的参数;
23.分离所述第二转换图中的背景以及器械,得到第三背景图和第三器械图;
24.将所述第三器械图与所述第一背景图融合,得到第三转换图,对比所述第三转换图与所述源域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。
25.在本发明的一个实施例中,所述逆向训练包括:
26.基于所述对抗生成损失函数和源域图像更新所述第二判别器参数;
27.将第三背景图和第三器械图输入第二生成器,得到第四转换图;
28.所述第二判别器判断所述第四转换图是否为源域图像,若所述第四转换图为源域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第二生成器参数后返回输出第二生成器输出转换图的步骤;
29.分离所述第四转换图中的背景以及器械,得到第五背景图和第五器械图;
30.将所述第五背景图和第五器械图输入第一生成器,得到第五转换图;
31.对比所述第五转换图与目标域图像,基于所述循环一致性损失函数更新第一生成器和第二生成器的参数;
32.分离所述第五转换图中的背景以及器械,得到第六背景图和第六器械图;
33.将所述第六器械图与所述第三背景图融合,得到第六转换图,对比所述第六转换图与所述目标域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。
34.在本发明的一个实施例中,通过掩码模块分离所述样本图像的背景以及器械,所
述掩码模块为图像分割网络。
35.在本发明的一个实施例中,所述第一生成器包括背景编码器、器械编码器以及解码器,所述背景编码器和器械编码器均与所述解码器连接。
36.在本发明的一个实施例中,所述背景编码器与所述器械编码器均包括多层卷积层,任一卷积层包括下采样/上采样层、校正线性单位激活函数层和残差块。
37.在本发明的一个实施例中,所述解码器包括多层卷积层,任一卷积层包括下采样/上采样层、校正线性单位激活函数层和残差块,所述背景编码器以及器械编码器中的下采样层均与所述解码器中对应的上采样层连接。
38.在本发明的一个实施例中,所述对抗生成损失函数为:
[0039][0040]
其中,a为源域图像;b为目标域图像;g为生成器;d为辨别器。
[0041]
在本发明的一个实施例中,所述循环一致性损失函数为:
[0042][0043]
其中,cyc(a)为第二转换图;cyc(b)为第五转换图。
[0044]
在本发明的一个实施例中,所述器械保护损失函数为:
[0045][0046]
其中,η为合成图像;τ为图像二值化的阈值。
[0047]
本发明的上述技术方案相比现有技术具有以下优点:
[0048]
本发明所述手术场景图像转换方法基于改进的cyclegan模型实现,改进的cyclegan模型包括两个生成器和两个辨别器,每个生成器包括器械编码和背景编码,两个编码器用于视觉特征的解缠,一个解码器用于视觉特征的融合,避免了现有方案中手术背景和手术器械之间发生视觉特征纠缠的问题。此外,在训练过程中,除了现有cyclegan的对抗生成损失函数和循环一致性损失函数来监督网络的训练,本发明还设计了器械保护损失函数来监督训练,使转换过后的图像器械缺失部分减少,以达到提高图像转换的质量的目的。本发明可以用作手术场景的整图的图像转换,在背景不同的情况下也能使用,克服了使用传统图像转换方法时图像模糊和器械部分缺失等问题,实现了高质量的手术图像转换。
附图说明
[0049]
为了使本发明的内容更容易被清楚的理解,下面根据本发明的具体实施例并结合附图,对本发明作进一步详细的说明。
[0050]
图1是本发明手术场景图像转换方法的流程图;
[0051]
图2是本发明生成器的结构图;
[0052]
图3是本发明生成器中卷积层的结构图;
[0053]
图4是本发明一个实施例的转换结果图;
[0054]
图5是本发明另一个实施例的转换结果图。
具体实施方式
[0055]
下面结合附图和具体实施例对本发明作进一步说明,以使本领域的技术人员可以更好地理解本发明并能予以实施,但所举实施例不作为对本发明的限定。
[0056]
参照图1所示,为了能在背景不同的情况下转换出图像清晰且器械部分完整的手术场景图像,实现高质量的手术图像转换,本发明手术场景图像转换方法包括:
[0057]
构建改进的cyclegan模型,所述cyclegan模型包括第一生成器、第一判别器、第二生成器、第二判别器、对抗生成损失函数、循环一致性损失函数以及器械保护损失函数;
[0058]
具体地,现有cyclegan模型包括两个生成器以及两个辨别器,两个生成器各包括一个编码器和一个解码器,通过对抗生成损失函数和循环一致性损失函数对现有cyclegan模型训练,更新生成器和辨别器的参数,能够使样本图像向期望图像实现风格迁移。本发明改进的cyclegan模型中,第一生成器和第二生成器均包括背景编码器、器械编码器和一个解码器,通过对抗生成损失函数、循环一致性损失函数以及器械保护损失函数对改进的cyclegan模型训练,更新第一生成器、第一判别器、第二生成器以及第二判别器的参数,使样本图像向期望图像实现风格迁移。
[0059]
获取手术场景图像数据集,所述手术场景图像数据集包括多对样本图像和期望图像,定义所述样本图像为源域图像,所述期望图像为目标域图像,基于所述手术场景图像数据集训练所述改进的cyclegan模型;
[0060]
本发明实施例中,样本图样和期望图像均为现实手术场景图像,样本图像为需要转换的图像,期望图像可以根据实际需要选择。
[0061]
基于训练后的改进的cyclegan模型,根据所述样本图像,得到转换后的手术场景图像;
[0062]
其中,训练所述改进的cyclegan模型包括:
[0063]
步骤1、执行“源域-目标域-源域”的正向训练;
[0064]
步骤2、执行“目标域-源域-目标域”的逆向训练;
[0065]
步骤3、判断执行所述正向训练和逆向训练的次数是否达到预设值,若到达所述预设值,则完成训练,否则,返回步骤1。
[0066]
其中,正向训练或逆向训练时,根据所述器械保护损失函数更新所述第二生成器和第一生成器的参数。
[0067]
具体地,训练改进的cyclegan模型与现有cyclegan模型的训练方法区别在于:正向训练或逆向训练后,需要将改进的cyclegan模型输出的转换图中的背景和器械分离,在正向训练中,改进的cyclegan模型输出的转换图需要与源域图像做对比,所以将转换图的器械与源域图像的背景融合,此时需要将源域图像中的背景和器械也做分离处理,将融合的图像与源域图像对比,通过器械保护损失函数更新第二生成器和第一生成器的参数,使转换过后的图像器械缺失部分减少,以达到在背景不同的情况下,也能转换出器械清晰的转换图,提高图像转换的质量的目的。在逆向训练中,改进的cyclegan模型输出的转换图需要与目标域图像做对比,所以将转换图的器械与目标域图像的背景融合,此时需要将目标域图像中的背景和器械也做分离处理,将融合的图像与目标域图像对比,通过器械保护损失函数更新第二生成器和第一生成器的参数,使转换过后的图像器械缺失部分减少,以达到在背景不同的情况下,也能转换出器械清晰的转换图,提高图像转换的质量的目的。
[0068]
进一步地,所述正向训练包括:
[0069]
分离所述源域图像的背景以及器械,得到第一背景图和第一器械图;
[0070]
基于所述对抗生成损失函数和目标域图像更新所述第一判别器参数;
[0071]
将所述第一背景图和第一器械图输入第一生成器,得到第一转换图;
[0072]
所述第一判别器判断所述第一转换图是否为目标域图像,若所述第一转换图为目标域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第一生成器参数后返回第一生成器输出转换图的步骤;
[0073]
分离所述第一转换图中的背景以及器械,得到第二背景图和第二器械图;
[0074]
将所述第二背景图和第二器械图输入第二生成器,得到第二转换图;
[0075]
对比所述第二转换图与源域图像,基于所述循环一致性损失函数更新第一生成器和第二生成器的参数;
[0076]
分离所述第二转换图中的背景以及器械,得到第三背景图和第三器械图;
[0077]
将所述第三器械图与所述第一背景图融合,得到第三转换图,对比所述第三转换图与所述源域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。
[0078]
所述逆向训练包括:
[0079]
基于所述对抗生成损失函数和源域图像更新所述第二判别器参数;
[0080]
将第三背景图和第三器械图输入第二生成器,得到第四转换图;
[0081]
所述第二判别器判断所述第四转换图是否为源域图像,若所述第四转换图为源域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第二生成器参数后返回输出第二生成器输出转换图的步骤;
[0082]
分离所述第四转换图中的背景以及器械,得到第五背景图和第五器械图;
[0083]
将所述第五背景图和第五器械图输入第一生成器,得到第五转换图;
[0084]
对比所述第五转换图与目标域图像,基于所述循环一致性损失函数更新第一生成器和第二生成器的参数;
[0085]
分离所述第五转换图中的背景以及器械,得到第六背景图和第六器械图;
[0086]
第三背景图第三器械图
[0087]
将所述第六器械图与所述第三背景图融合,得到第六转换图,对比所述第六转换图与所述目标域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。
[0088]
具体地,正向训练中,首先将需要转换的图片(源域图像)输入第一生成器中,使需要转换的图片的风格向目标域图像迁移,再将第一生成器中输出的第一转换图输入第二生成器中,使得第一转换图的内容能够与源域图像相一致。其中,在将需要转换的图片输入第一生成器之前,需要根据对抗生成损失函数和源域图像对第一判别器进行参数更新,当第一转换图生成后,第一判别器判断第一转换图是否为目标域图像,若第一转换图为目标域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第一生成器参数后再输出转换图,再由第一判别器判别,直到第一判别器判别第一转换图为目标域图像,第一生成器生成的图像才能够输入第二生成器中,得到第二转换图,将第二生成器生成的第二转换图与源域原图对比,通过循环一致性损失函数更新第一生成器和第二生成器的参数。以上
训练过程均与现有cyclegan模型的训练过程相一致,此处不再赘述。
[0089]
本发明改进的cyclegan模型与现有cyclegan模型训练方法不同之处在于:
[0090]
(1)每张图像在输入生成器(第一生成器,第二生成器)之前,需要分离图像中的器械和背景,本发明第一生成器和第二生成器中均包括两个编码器,分别是背景编码器和器械编码器,背景编码器和器械编码器分别对应图像中的背景和器械,两个编码器用于视觉特征的解缠,避免了现有方案中手术背景和手术器械之间发生视觉特征纠缠的问题,使得图像转换清晰,实现了高质量的手术图像转换。
[0091]
(2)第二生成器生成第二转换图后,分离第二转换图中的背景以及器械,得到第三背景图像和第三器械图像;将第三器械图像与所述第一背景图像融合,得到第三转换图,对比第三转换图与源域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数,使转换过后的图像器械缺失部分减少,以达到在背景不同的情况下,也能转换出器械清晰的转换图,提高图像转换的质量的目的。
[0092]
进一步地,逆向训练时,也需在每张图像在输入生成器之前分离图像中的器械和背景,第一生成器生成第五转换图后,也需分离第五转换图中的背景以及器械,得到第六器械图,将第六器械图与第三背景图融合,得到第六转换图,对比第六转换图与所述目标域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。逆向训练的具体情况与工作原理与正向训练相一致,此处不再赘述。
[0093]
进一步地,通过掩码模块分离所述样本图像的背景以及器械,所述掩码模块为图像分割网络。
[0094]
具体地,将图像分割网络与图像每个像素点相乘,即可得到去掉背景的器械图像,或者去掉器械的背景图像,图像分割网络的具体情况与工作原理均与现有相一致,具体为本领域技术人员所熟知,此处不再赘述。
[0095]
进一步地,所述第一生成器包括背景编码器、器械编码器以及解码器,所述背景编码器和器械编码器均与所述解码器连接。
[0096]
所述背景编码器与所述器械编码器均包括多层卷积层,任一卷积层包括下采样/上采样层、校正线性单位激活函数层和残差块。
[0097]
所述解码器包括多层卷积层,任一卷积层包括下采样/上采样层、校正线性单位激活函数层和残差块,所述背景编码器以及器械编码器中的下采样层均与所述解码器中对应的上采样层连接。
[0098]
具体地,如图2和图3所示,两个编码器分别负责编码两个图像的高维特征。然后,将两个编码特征连接起来,并将它们发送到解码器以生成输出图像。
[0099]
本发明实施例中,每个编码器和解码器中有五个跨步数为2的卷积层,卷积核大小为3*3。卷积层的通道数在每个编码器中分别为64、128、256、512、512,在解码器中分别为1024、1536、768、384、192。每层的结构如图3所示,任一卷积层包括下采样层或上采样层、校正线性单位激活函数层和残差块。为了保留图像语义信息,在编码器中的每个下采样完成后,生成的张量不仅被传输到下一层,并且还跨越连接到解码器中的相应上采样层。为了确保输入和输出图像之间的大小一致性,编码器第一个输入层和最后一个输出层中的通道数量设置为相同。
[0100]
进一步地,所述对抗生成损失函数为:
[0101][0102]
其中,a为源域图像;b为目标域图像;g为生成器;d为辨别器。生成器g试图将此函数最小化,而辨别器d试图将其最大化。生成器g生成的图像将越来越真实,辨别器d辨别图像真实性的能力将越来越强。
[0103]
进一步地,所述循环一致性损失函数为:
[0104][0105]
其中,cyc(a)为第二转换图;cyc(b)为第五转换图。
[0106]
这个损失函数需要两个生成器,表示为g和f。对于源域中的每个图像a,循环转换的图像(即图像通过g后再通过f)应该能够将a重新转换回到原始图像,即a

g(a)

f(g(a))=cyc(a),并且图像cyc(a)需要尽可能与图像a相似,称之为前向循环一致性。同样,对于目标域中的每个图像b,g和f也应满足后向循环一致性:即b

f(b)

g(f(b))=cyc(b),并且cyc(b)需要尽可能与b相似。循环一致性损失函数可以使生成器尽可能保留原图的语义信息。
[0107]
进一步地,所述器械保护损失函数为:
[0108][0109]
其中,η为合成图像;τ为图像二值化的阈值。
[0110]
合成图像η的计算公式为:
[0111]
其中,η是合成图像,它由真实图像中的背景和循环图像中的器械组成;τ是用于图像二值化的阈值,语义分割标签也可以被视为τ。和执行逐像素乘法和逐像素加法,(1-τ)是负图像转换。然后,开始比较合成图像和真实图像。
[0112]
如图4所示,具体为使用三个不同的数据集(endovi2018,ucl dataset,自行录制的数据集)进行训练和测试,得到的结果图片。其中输入图片是源域图片,已有模型结果是现有cyclegan模型进行图像转换后得到的结果,新模型结果是改进的cyclegan模型图像转换后的结果。将数据集按照上述工作流程输入网络后可以达到图像转换的效果且效果更好。本发明还用结果进行了fid测试,如表所示,格内为得分结果,fid是衡量生成式网络生成数据的好坏的标准,得分越小的生成效果越好。其中w/o fdfg和w/o ip loss指消融实验中不包括生成器的模型和不包括器械保护损失的模型,proposed指完整的新模型,in-house dataset指自行录制的数据集。由表1可得,改进的cyclegan模型拥有更好的图像转换性能。
[0113]
表1
[0114][0115]
如图5所示,为本发明使用图像分割的数据集进行测试得到的结果图,从更底层说明改进的cyclegan模型对器械转换时的保护作用。如图5所示,在将源域图像转换到目标域图像后,改进的cyclegan模型对器械的转换更为准确,缺失减少,外观形状正确。
[0116]
显然,上述实施例仅仅是为清楚地说明所作的举例,并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引申出的显而易见的变化或变动仍处于本发明创造的保护范围之中。

技术特征:
1.一种手术场景图像转换方法,其特征在于,包括:构建改进的cyclegan模型,所述改进的cyclegan模型包括第一生成器、第一判别器、第二生成器、第二判别器、对抗生成损失函数、循环一致性损失函数以及器械保护损失函数;获取手术场景图像数据集,所述手术场景图像数据集包括多个样本图像和期望图像,定义所述样本图像为源域图像,所述期望图像为目标域图像,基于所述手术场景图像数据集训练所述改进的cyclegan模型;基于训练后的改进的cyclegan模型,根据所述样本图像,得到转换后的手术场景图像;其中,训练所述改进的cyclegan模型包括:步骤1、执行“源域-目标域-源域”的正向训练;步骤2、执行“目标域-源域-目标域”的逆向训练;步骤3、判断执行所述正向训练和逆向训练的次数是否达到预设值,若到达所述预设值,则完成训练,否则,返回步骤1;其中,正向训练或逆向训练时,根据所述器械保护损失函数更新所述第二生成器和第一生成器的参数。2.根据权利要求1所述的手术场景图像转换方法,其特征在于,所述正向训练包括:分离所述源域图像的背景以及器械,得到第一背景图和第一器械图;基于所述对抗生成损失函数和目标域图像更新所述第一判别器参数;将所述第一背景图和第一器械图输入第一生成器,得到第一转换图;所述第一判别器判断所述第一转换图是否为目标域图像,若所述第一转换图为目标域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第一生成器参数后返回第一生成器输出转换图的步骤;分离所述第一转换图中的背景以及器械,得到第二背景图像和第二器械图;将所述第二背景图和第二器械图输入第二生成器,得到第二转换图;对比所述第二转换图与源域图像,基于所述循环一致性损失函数更新第一生成器和第二生成器的参数;分离所述第二转换图中的背景以及器械,得到第三背景图和第三器械图;将所述第三器械图与所述第一背景图融合,得到第三转换图,对比所述第三转换图与所述源域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。3.根据权利要求2所述的手术场景图像转换方法,其特征在于,所述逆向训练包括:基于所述对抗生成损失函数和源域图像更新所述第二判别器参数;将第三背景图和第三器械图输入第二生成器,得到第四转换图;所述第二判别器判断所述第四转换图是否为源域图像,若所述第四转换图为源域图像,则执行下一步骤,否则,基于所述对抗生成损失函数更新所述第二生成器参数后返回输出第二生成器输出转换图的步骤;分离所述第四转换图中的背景以及器械,得到第五背景图和第五器械图;将所述第五背景图和第五器械图输入第一生成器,得到第五转换图;对比所述第五转换图与目标域图像,基于所述循环一致性损失函数更新第一生成器和第二生成器的参数;分离所述第五转换图中的背景以及器械,得到第六背景图和第六器械图;
将所述第六器械图与所述第三背景图融合,得到第六转换图,对比所述第六转换图与所述目标域图像,基于所述器械保护损失函数更新所述第一生成器以及第二生成器的参数。4.根据权利要求2所述的手术场景图像转换方法,其特征在于:通过掩码模块分离所述样本图像的背景以及器械,所述掩码模块为图像分割网络。5.根据权利要求1所述的手术场景图像转换方法,其特征在于:所述第一生成器包括背景编码器、器械编码器以及解码器,所述背景编码器和器械编码器均与所述解码器连接。6.根据权利要求5所述的手术场景图像转换方法,其特征在于:所述背景编码器与所述器械编码器均包括多层卷积层,任一卷积层包括下采样/上采样层、校正线性单位激活函数层和残差块。7.根据权利要求6所述的手术场景图像转换方法,其特征在于:所述解码器包括多层卷积层,任一卷积层包括下采样/上采样层、校正线性单位激活函数层和残差块,所述背景编码器以及器械编码器中的下采样层均与所述解码器中对应的上采样层连接。8.根据权利要求1所述的手术场景图像转换方法,其特征在于,所述对抗生成损失函数为:其中,a为源域图像;b为目标域图像;g为生成器;d为辨别器。9.根据权利要求1所述的手术场景图像转换方法,其特征在于,所述循环一致性损失函数为:其中,cyc(a)为第二转换图;cyc(b)为第五转换图。10.根据权利要求1所述的手术场景图像转换方法,其特征在于,所述器械保护损失函数为:其中,η为合成图像;τ为图像二值化的阈值。

技术总结
本发明涉及一种手术场景图像转换方法,其包括构建改进的CycleGAN模型,所述CycleGAN模型包括第一生成器、第一判别器、第二生成器、第二判别器、对抗生成损失函数、循环一致性损失函数以及器械保护损失函数;获取手术场景图像数据集,所述手术场景图像数据集包括多个样本图像和期望图像,基于手术场景图像数据集训练所述改进的CycleGAN模型;基于训练后的改进的CycleGAN模型,根据所述样本图像,得到转换后的手术场景图像。本发明能在背景不同的情况下转换出图像清晰且器械部分完整的手术场景图像,实现高质量的手术图像转换。实现高质量的手术图像转换。实现高质量的手术图像转换。


技术研发人员:陆波 郭宇豪 周天呈 孙立宁
受保护的技术使用者:苏州大学
技术研发日:2023.04.04
技术公布日:2023/8/1
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐