一种相移干涉图空间像素匹配方法
未命名
07-30
阅读:73
评论:0

1.本发明涉及光学相位测量技术领域,尤其涉及一种相移干涉图空间像素匹配方法。
背景技术:
2.光学干涉测量技术是实现形貌、三维信息和折射率等物理量精密测量的常用手段,其中双通道空域同时相移干涉测量方法可以实现动态相位测量的重要技术,它可以降低环境噪声对样品相位测量精度的影响。使用双通道相移干涉系统测量时,除了要求图像传感器之间的光电性能一致之外,需要图像传感器之间的纵向位置、横向位置、倾斜角度、旋转角度等空间参数严格匹配,才能在不同图像传感器上获得相位精密匹配的干涉图,通过相位恢复算法可快速恢复物体相位分布,从而保证测量结果的精度。
3.双通道空域同时相移干涉技术需要利用两个相机同时采集相移量相差二分之π的两幅相移干涉图。传统的匹配方法是先通过人眼观察,保证两个通道的干涉图在成像靶面位置基本一致。接着分别采集每个通道不同时刻的多副干涉图,使用时域相移干涉法进行相位恢复。然后以其中一个通道为基准,另一个通道通过平移、轴向移动干涉图,直至两个通道的相位差rmse值达到最小。根据得到的移动参数调节待匹配通道干涉图的几何位置,从而保证对应点像素的空间坐标一致,实现高精度的相位恢复。该调节方式需要多次迭代计算,操作过程复杂,计算耗时长。
4.另外一种方法是在双通道相移干涉成像系统的成像模块中放入特征明显的参考物体(如棋盘格),同时利用两个相机记录所述相同的参考物体的预设点在各个光电图像传感器的坐标值,建立仿射变换矩阵。得到两副待匹配的图像后,通过角点检测算法计算出仿射变换矩阵的六个未知数,再对待匹配通道的相移干涉图图像像素坐标乘以仿射变换矩阵的逆矩阵,从而实现各个通道空间位置上的匹配。该方法虽然匹配速度快,但需要制作高精度的参考物体来计算预设点的坐标变换。
5.图像匹配的目的是得到两副图像之间的一种或一系列变换,使得两副图像中对应点达到空间位置上的一致。这两副图像分别称作固定图像和移动图像。图像匹配是将在同一场景由不同传感器、不同角度、不同时间获取的两张图像进行对齐的过程。传统图像配准方法主要分为基于特征的图像配准方法和基于灰度的图像配准方法。上述的两种图像配准算法通常不同的途径来计算最优变换,并配合相似性度量标准来寻找全局最优解以完成图像匹配。然而,传统匹配方法得到的特征点可能包含严重的异常值,容易造成大量误匹配问题,难以反映多时间图像的共同属性。
6.因此,上述图像匹配的过程复杂,耗时长,相移干涉图匹配误差大,适应范围小。
技术实现要素:
7.针对以上相关技术的不足,本发明提出一种相移干涉图空间像素匹配方法,用以解决现有过程复杂,耗时长,相移干涉图匹配误差大的问题。
8.为了解决上述技术问题,本发明实施例提供了一种相移干涉图空间像素的匹配方法,应用于双通道同时相移干涉测量系统,其包括激光器、用于接收所述激光器发射的光源的固定图像传感器和实际图像传感器,所述匹配方法包括以下步骤:
9.s1、获取其中一个通道的相移干涉图数据集,通过高级迭代算法找出相移量为π的一对干涉图像数据,对所述图像数据进行预处理,获得仿射变换参数和相应的三角位移变换参数;并将生成的变换干涉图和未进行所述预处理的干涉图输入网络,且将未进行所述预处理的另一幅干涉图与相应的所述仿射变换参数作为标签进行配对,组成双输入和双输出网络,进行监督训练;
10.s2、使用pytorch深度学习框架,根据所述双输入和所述双输出网络结构搭建所述双通道同时相移干涉测量系统的相移干涉图空间像素匹配网络;
11.s3、对所述干涉图空间匹配网络进行训练;
12.s4、将所述三角位移变换参数进行回归处理,并生成匹配干涉图;
13.s5、对失配干涉图进行矫正处理,得到空间位置矫正干涉图和直接生成匹配好的相移干涉图;
14.s6、选取所述变换干涉图和所述匹配干涉图中间相同位置预设像素的区域,使用两步算法分别提取出包裹相位并解包裹相位后得到相应的两个相位分布,计算两个所述相位分布的相位差。
15.优选的,所述s1的所述处理具体包括以下步骤:
16.通过图像处理方法对所述相移干涉图进行仿射变换,所述仿射变换包括平移、轴向、旋转、缩放及倾斜情况,并记录仿射变换参数和相应的三角位移变换参数。
17.优选的,在所述s1中,获取所述相移干涉图数据集的方法包括以下步骤:
18.搭建马赫曾德干涉系统,采集单通道ccd记录的相移干涉图,对干涉图进行仿射变换,并记录仿射变换参数;所述仿射变换参考实际图像传感器的六个自由度偏移t(α,β,θ,tx,ty,tz),其中,α是所述实际图像传感器的偏移值与所述固定图像传感器绕x轴转动的角度值,β是所述实际图像传感器的偏移值与所述固定图像传感器绕y轴转动的角度值,θ是所述实际图像传感器的偏移值与所述固定图像传感器绕z轴转动的角度值;x是所述实际图像传感器的偏移值与所述固定图像传感器横向偏移的数值,y是所述实际图像传感器的偏移值与所述固定图像传感器纵向偏移的数值,z是所述实际图像传感器的偏移值与所述固定图像传感器轴向偏移的数值,其变换关系分别为:
[0019][0020]
[0021][0022][0023][0024][0025]
将六自由度偏移整理得总体变换关系为:
[0026][0027]
即得:
[0028][0029]
其中,所述马赫曾德干涉系统是以所述变换干涉图t1和未进行仿射变换的干涉图i2为输入,所述仿射变换参数c3和未进行仿射变换的干涉图i1为输出进行数据集的制作;其中(h11,h12,h21,h22)是仿射变换矩阵的旋转项,(h13,h23)是仿射变换矩阵的平移项;
[0030]
所述仿射变换参数c3=[δx1,δx2,δx3,δy1,δy2,δy3],制作所述相移干涉图数据集时,每次对图片进行一次仿射变换,就通过变换关系记录相应的所述仿射变换参数c3数值作为标签。
[0031]
优选的,所述s2中,所述空间像素匹配网络为双输入和双输出的混合卷积神经网络,输入是所述一对干涉图像数据,输出是所述三角位移变换参数和已匹配的干涉图。
[0032]
优选的,所述s3具体包括以下步骤:
[0033]
根据所述预处理好的干涉图数据集及匹配样本中失配干涉图的三角位移变换参数,对所述空间像素匹配网络进行监督训练。
[0034]
优选的,所述监督训练包括数据预处理、损失函数、训练和测试;
[0035]
所述损失函数用于预设网络参数,生成变换参数和干涉图,通过多个损失函数进
行反向传播,获得优化的网络参数;
[0036]
其中,定义所述损失函数包括损失函数loss1、损失函数loss2、损失函数loss3和损失函数loss4,所述损失函数loss1通过最小化回归位移参数net3和真实位移参数c3之间的损失来实现,具体使用回归模型的均方误差算法获得,所述损失函数loss1具体公式如下:
[0037][0038]
其中,net3是网络预测值;
[0039]
即net3=[δx
′1,δx
′2,δx
′3,δy
′1,δy
′2,δy
′3];
[0040]
其中,生成已匹配的干涉图与标签的干涉图i1,通过所述均方误差算法获得,所述损失函数loss2具体公式如下:
[0041][0042]
利用先进的迭代算法计算生成的相移干涉图的相移量
△
θ,所述损失函数loss3具体公式如下:
[0043]
loss3=
△
θ
ꢀꢀꢀ
(11);
[0044]
通过所述回归位移参数net4计算出相应的仿射变换矩阵,然后对失配的干涉图t1做图像处理,得到匹配好的干涉图t1
′
:
[0045]
所述干涉图
[0046]
通过同时对所述干涉图t1
′
和干涉图i1中间裁剪大小相同的图像信息进行均方误差运算,所述损失函数loss4具体公式如下:
[0047][0048]
总体损失函数为:
[0049]
loss=loss1+loss2+loss3+loss4;
[0050]
通过反向传播对网络参数进行调整,最后收敛和最小化损失函数值来完成网络的训练;再通过测试集对训练好的网络进行效果验证。
[0051]
优选的,所述s4具体包括以下步骤:
[0052]
通过使用一种基于深度学习回归模型的不同相移量干涉图像素匹配网络,训练完成后保存网络参数,调用训练好的所述网络参数对干涉图对进行三角位移变换参数预测,同时所述不同相移量干涉图像素匹配网络的另一端输出生成匹配好的干涉图。
[0053]
优选的,所述s5具体包括以下步骤:
[0054]
通过空间匹配网络得到三角位移变换参数后,由得到的三角位移变换参数计算出相应的仿射变换矩阵,将失配干涉图乘以仿射变换矩阵的逆矩阵,插值采用双线性插值,得到空间位置矫正的干涉图。
[0055]
与相关技术相比,本发明通过获取其中一个通道的相移干涉图数据集,通过高级迭代算法找出相移量为π的一对干涉图像数据,对图像数据进行预处理,获得仿射变换参数和相应的三角位移变换参数;并将生成的变换干涉图和未进行预处理的干涉图输入网络,且将未进行预处理的另一幅干涉图与相应的仿射变换参数作为标签进行配对,组成双输入和双输出网络,进行监督训练;使用pytorch深度学习框架,根据双输入和双输出网络结构搭建双通道同时相移干涉测量系统的相移干涉图空间像素匹配网络;对干涉图空间匹配网络进行训练;将三角位移变换参数进行回归处理,并生成匹配干涉图;对失配干涉图进行矫正处理,得到空间位置矫正干涉图和直接生成匹配好的相移干涉图;选取所述变换干涉图和所述匹配干涉图中间相同位置预设像素的区域,使用两步算法分别提取出包裹相位并解包裹相位后得到相应的两个相位分布,计算两个所述相位分布的相位差。这样将训练好的网络可以直接用于两幅干涉图的匹配,而不需要提前设置参考物体提供预设点,可直接计算两副干涉图的空间变换参数,从而实现图像空间上的匹配,并且该方法可以解决匹配好的系统在长使用后需要重新调制的问题。此外,该方法相比与深度学习用于相位恢复的方法(如end-to-end的相位恢复方法和基于深度相移技术的相位方法),我们需要两幅相移干涉图,可以避免网络预测的误差。我们的方法仅解决双通道相移干涉测量技术中两幅干涉图失配的问题,可以最大限度的保证相移干涉图的信息量。
附图说明
[0056]
下面结合附图详细说明本发明。通过结合以下附图所作的详细描述,本发明的上述或其他方面的内容将变得更清楚和更容易理解。附图中:
[0057]
图1为本发明相移干涉图空间像素匹配方法的流程图;
[0058]
图2为本发明双通道同时相移干涉测量系统的结构示意图;
[0059]
图3为本发明双通道同时相移干涉测量系统中双相机的六自由度失配情况示意图;
[0060]
图4为本发明三角位移变换参数与仿射变换矩阵关系图;
[0061]
图5为本发明相移干涉图空间像素匹配方法总体网络架构图;
[0062]
图6为本发明相移干涉图空间像素匹配方法匹配前和匹配后的干涉图对比图;
[0063]
图7为本发明中未匹配情况下双相机通道干涉图相位恢复后各自的相位值;
[0064]
图8为本发明中未匹配情况下双相机通道干涉图相位恢复后两通道相位相减平面平均值和均方根误差;
[0065]
图9为本发明双相机通道干涉图相位恢复后各自的相位值;
[0066]
图10为本发明双相机通道干涉图相位恢复后两通道相位相减平面平均值和均方根误差。
具体实施方式
[0067]
下面结合附图详细说明本发明的具体实施方式。
[0068]
在此记载的具体实施方式/实施例为本发明的特定的具体实施方式,用于说明本发明的构思,均是解释性和示例性的,不应解释为对本发明实施方式及本发明范围的限制。除在此记载的实施例外,本领域技术人员还能够基于本技术权利要求书和说明书所公开的
内容采用显而易见的其它技术方案,这些技术方案包括采用对在此记载的实施例的做出任何显而易见的替换和修改的技术方案,都在本发明的保护范围之内。
[0069]
实施例一
[0070]
请参见附图1-10所示,本发明提供一种相移干涉图空间像素的匹配方法,应用于双通道同时相移干涉测量系统,其包括激光器1、用于接收所述激光器1发射的光源的固定图像传感器16和实际图像传感器17,固定图像传感器16与实际图像传感器17垂直设置,用于分别采集双通道的图像数据,其中,图像数据可以是一帧图片、图像、视频等,此处不再一一描述。固定图像传感器16属于固定位置不动,通过调节实际图像传感器17获得的图像为实际图像。
[0071]
双通道同时相移干涉测量系统还包括可变中密度衰减器2、半波片3、用于扩束的显微物镜4、用于滤波的针孔滤波器5、准直透镜6、偏振分束镜7、第一反射镜8、透镜9、第二反射镜10、第一非偏振分束镜11、四分之一拨片12、第二非偏振分束镜13、第一偏振片14以及第二偏振片15。激光器1、可变中密度衰减器2、半波片3、用于扩束的显微物镜4、用于滤波的针孔滤波器5、准直透镜6及偏振分束镜依次沿光源发射方向连接。所述第一反射镜8和第二反射镜10垂直分别于偏振分束镜。
[0072]
具体的,通过he-ne激光器1发射激光光源到可变中密度衰减器2进行激光密度衰减,通过半波片3进行波长处理,通过显微物镜4进行扩束至针孔滤波器5,通过针孔滤波器5进行滤波,将使用的光源波长通过准直透镜6透到偏振分束镜7,通过偏振分束镜7用于消除反光和炫光,并分别传递到第一反射镜8和第二反射镜10上,通过第一反射镜8和第二反射镜10进行光源反射到第一非偏振分束镜11上,第一反射镜8和第一非偏振分束镜11之间还通过透镜9进行透光,以使第一反射镜8反射的光源透射力强,更加清晰。第一反射镜8和第二反射镜10在第一非偏振分束镜11上的光源重叠,并通过第一非偏振分束镜11传递到四分之一拨片12上,通过四分之一拨片12将光源传递到第二非偏振分束镜13上,并分别通过第一偏振片14和第二偏振片15将图像分别传递到固定图像传感器16和实际图像传感器17上。
[0073]
本实施例中,相移干涉图空间像素的匹配方法方法包括以下步骤:
[0074]
s1、获取其中一个通道的相移干涉图数据集,通过高级迭代算法(aia)找出相移量为π的一对干涉图像数据,对所述图像数据进行预处理,获得仿射变换参数和相应的三角位移变换参数;并将生成的变换干涉图和未进行所述预处理的干涉图输入网络,且将未进行所述预处理的另一幅干涉图与相应的所述仿射变换参数作为标签进行配对,组成双输入和双输出网络,进行监督训练。
[0075]
其中,高级迭代算法(aia)是一种相位提取算法,用于实现单幅图像的相位提取。
[0076]
s2、使用pytorch深度学习框架,根据所述双输入和所述双输出网络结构搭建所述双通道同时相移干涉测量系统的相移干涉图空间像素匹配网络。
[0077]
s3、对所述干涉图空间匹配网络进行训练。利用s1中处理好的数据集以及匹配样本中失配干涉图的三角位移变换参数,对设计的空间像素匹配网进行监督训练。
[0078]
s4、将所述三角位移变换参数进行回归处理,并生成匹配干涉图。训练好的干涉图空间像素匹配网络对干涉图对进行仿射变换参数回归,同时另一个输出匹配好的干涉图。
[0079]
s5、对失配干涉图进行矫正处理,得到空间位置矫正干涉图和直接生成匹配好的相移干涉图。
[0080]
s6、选取所述变换干涉图和所述匹配干涉图中间相同位置预设像素的区域,使用两步算法分别提取出包裹相位并解包裹相位后得到相应的两个相位分布,计算两个所述相位分布的相位差。
[0081]
其中,选取干涉图和已匹配的干涉图中间相同位置256
×
256像素的区域,使用两步算法分别提取出包裹相位并解包裹相位后得到相位分布φ_a(x,y)和φ_b(x,y),计算两个相位的相位差,相位差值比未匹配前明显减小,验证了网络的可行性。
[0082]
具体地,通过上述步骤s1-s6,便于将训练好的网络可以直接用于两幅干涉图的匹配,而不需要提前设置参考物体提供预设点,可直接计算两副干涉图的空间变换参数,从而实现图像空间上的匹配,并且该方法可以解决匹配好的系统在长使用后需要重新调制的问题。此外,该方法相比与深度学习用于相位恢复的方法(如end-to-end的相位恢复方法和基于深度相移技术的相位方法),我们需要两幅相移干涉图,可以避免网络预测的误差。我们的方法仅解决双通道相移干涉测量技术中两幅干涉图失配的问题,可以最大限度的保证相移干涉图的信息量。
[0083]
在本实施例中,所述s1的所述处理具体包括以下步骤:
[0084]
通过图像处理方法对所述相移干涉图进行仿射变换,所述仿射变换包括平移、轴向、旋转、缩放及倾斜情况,并记录仿射变换参数和相应的三角位移变换参数。
[0085]
在本实施例中,在所述s1中,获取所述相移干涉图数据集的方法包括以下步骤:
[0086]
搭建马赫曾德干涉系统,采集单通道ccd记录的相移干涉图,对干涉图进行仿射变换,并记录仿射变换参数;所述仿射变换参考实际图像传感器17的六个自由度偏移t(α,β,θ,tx,ty,tz),其中,α是所述实际图像传感器17的偏移值与所述固定图像传感器16绕x轴转动的角度值,β是所述实际图像传感器17的偏移值与所述固定图像传感器16绕y轴转动的角度值,θ是所述实际图像传感器17的偏移值与所述固定图像传感器16绕z轴转动的角度值;x是所述实际图像传感器17的偏移值与所述固定图像传感器16横向偏移的数值,y是所述实际图像传感器17的偏移值与所述固定图像传感器16纵向偏移的数值,z是所述实际图像传感器17的偏移值与所述固定图像传感器16轴向偏移的数值,其变换关系分别为:
[0087][0088][0089]
[0090][0091][0092][0093]
将六自由度偏移整理得总体变换关系为:
[0094][0095]
即得:
[0096][0097]
其中,所述马赫曾德干涉系统是以所述变换干涉图t1和未进行仿射变换的干涉图i2为输入,所述仿射变换参数c3和未进行仿射变换的干涉图i1为输出进行数据集的制作;其中(h11,h12,h21,h22)是仿射变换矩阵的旋转项,(h13,h23)是仿射变换矩阵的平移项;
[0098]
所述仿射变换参数c3=[δx1,δx2,δx3,δy1,δy2,δy3],制作所述相移干涉图数据集时,每次对图片进行一次仿射变换,就通过变换关系记录相应的所述仿射变换参数c3数值作为标签。
[0099]
在本实施例中,所述s2中,所述空间像素匹配网络为双输入和双输出的混合卷积神经网络,输入是所述一对干涉图像数据,输出是所述三角位移变换参数和已匹配的干涉图。
[0100]
其中,该网络与平常的卷积神经网络不同点在于它能充分利用数据,构成多个对应关系,组成损失函数,对网络收敛和精度都有一定作用,其特点在于通过多个标签特征实现特征重用,因此能够实现更优的性能。该混合网络基本模块是卷积层、池化层,网络具体步骤是先进行卷积,卷积核大小为3
×
3,步长为1;再通过最大池化层,将得到的输入特征图再做卷积、标准化和relu激活函数。每次卷积后会再做1
×
1卷积。当干涉图像对t1和i2卷积到有128层特征图时,通过对两个通道的特征图进行特征拼接(concatenate)操作,之后分开输出,输出1:由一层反卷积、特征拼接(concatenate)和两个3x3的卷积层(relu)反复构成,一共经过4次这样的操作,与特征提取网络刚好相对应,最后接一层1*1卷积,降维处理,
即将通道数降低至特定的数量,得到目标图;输出2:使用flatten函数对拼接的数据做扁平化处理,再使用3个全连接层,最后输出8个数值(四角位移参数)。
[0101]
在本实施例中,所述s3具体包括以下步骤:
[0102]
根据所述预处理好的干涉图数据集及匹配样本中失配干涉图的三角位移变换参数,对所述空间像素匹配网络进行监督训练。
[0103]
在本实施例中,所述监督训练包括数据预处理、损失函数、训练和测试。
[0104]
所述损失函数用于预设网络参数,生成变换参数和干涉图,通过多个损失函数进行反向传播,获得优化的网络参数;数据预处理包含但不限于对数据进行归一化、二值化和简单缩放,从而使网络更容易训练,并得到更好的预测效果;给定干涉图像对、匹配好的干涉图和相应的四角位移,我们的目标是估计网络参数,使其产生准确和稳健的变换参数和干涉图。此处通过多个损失函数进行反向传播,以此提高网络性能。
[0105]
其中,定义所述损失函数包括损失函数loss1、损失函数loss2、损失函数loss3和损失函数loss4,所述损失函数loss1通过最小化回归位移参数net4和真实位移参数c3之间的损失来实现,具体使用回归模型的均方误差算法(mse)获得,所述损失函数loss1具体公式如下:
[0106][0107]
其中,c3是便签值,即c3=[δx1,δx2,δx3,δy1,δy2,δy3]。
[0108]
net3是网络预测值;即net3=[δx
′1,δx
′2,δx
′3,δy
′1,δy
′2,δy
′3]。
[0109]
其中,生成已匹配的干涉图与标签的干涉图i1,通过所述均方误差算法获得,所述损失函数loss2具体公式如下:
[0110][0111]
由于干涉图具有相移信息,利用先进的迭代算法计算生成的相移干涉图的相移量
△
θ,aia是一种高精度迭代算法,已广泛用于计算相移和执行相位检索。由准备的数据集可知,标签的干涉图i1和输入的干涉图i2的相移量为π,由于π不为整数,不方便计算,所述损失函数loss3具体公式如下:
[0112]
loss3=
△
θ
ꢀꢀꢀ
(11);
[0113]
通过所述回归位移参数net4计算出相应的仿射变换矩阵,然后对失配的干涉图t1做图像处理,得到匹配好的干涉图t1
′
:
[0114]
所述干涉图
[0115]
与标签的干涉图i1做均方误差运算,其中不可避免的,该操作会丢失图像边缘的部分信息,通过同时对所述干涉图t1
′
和干涉图i1中间裁剪大小相同的图像信息进行均方误差运算,所述损失函数loss4具体公式如下:
[0116][0117]
总体损失函数为:
[0118]
loss=loss1+loss2+loss3+loss4;
[0119]
通过反向传播对网络参数进行调整,最后收敛和最小化损失函数值来完成网络的训练;再通过测试集对训练好的网络进行效果验证。
[0120]
在本实施例中,所述s4具体包括以下步骤:
[0121]
通过使用一种基于深度学习回归模型的不同相移量干涉图像素匹配网络,训练完成后保存网络参数,调用训练好的所述网络参数对干涉图对进行三角位移变换参数预测,同时所述不同相移量干涉图像素匹配网络的另一端输出生成匹配好的干涉图。
[0122]
在本实施例中,所述s5具体包括以下步骤:
[0123]
通过空间匹配网络得到三角位移变换参数后,由得到的三角位移变换参数计算出相应的仿射变换矩阵,将失配干涉图乘以仿射变换矩阵的逆矩阵,插值采用双线性插值,得到空间位置矫正的干涉图。
[0124]
具体的,此处有通过两个输出得到的已匹配干涉图,分别是通过空间匹配网络得到三角位移变换参数后,由得到的三角位移变换参数计算出相应的仿射变换矩阵,将失配干涉图乘以仿射变换矩阵的逆矩阵,插值采用双线性插值,得到空间位置矫正的所述干涉图以及网络直接生成匹配好的相移干涉图
[0125]
本实施例中,如图6-8所示,在未匹配情况下双相机通道干涉图相位恢复后各自的相位值为:cdd1相位,平均值=28.0908;ccd2相位,平均值=29.5313。未匹配情况下双相机通道干涉图相位恢复后两通道相位相减平面平均值=-1.4405,均方根误差=1.5436rad。
[0126]
如图9-10所示,通过本匹配方法后,双相机通道干涉图相位恢复后各自的相位值,其中,cdd1相位,平均值=28.0908;ccd2相位,平均值=23.0406。双相机通道干涉图相位恢复后两通道相位相减平面平均值=5.0502,均方根误差=0.078534rad。
[0127]
由上可知,通过本匹配方法后,本发明的技术效果如下:
[0128]
通过将训练好的网络可以直接用于两幅干涉图的匹配,而不需要提前设置参考物体提供预设点,可直接计算两副干涉图的空间变换参数,从而实现图像空间上的匹配,并且该方法可以解决匹配好的系统在长使用后需要重新调制的问题。此外,该方法相比与深度学习用于相位恢复的方法(如end-to-end的相位恢复方法和基于深度相移技术的相位方法),我们需要两幅相移干涉图,可以避免网络预测的误差。我们的方法仅解决双通道相移干涉测量技术中两幅干涉图失配的问题,可以最大限度的保证相移干涉图的信息量。
[0129]
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何纂改、等同替换、改进等,均应包含在本发明的权利要求范围之内。
技术特征:
1.一种相移干涉图空间像素的匹配方法,应用于双通道同时相移干涉测量系统,其包括激光器、用于接收所述激光器发射的光源的固定图像传感器和实际图像传感器,其特征在于,所述匹配方法包括以下步骤:s1、获取其中一个通道的相移干涉图数据集,通过高级迭代算法找出相移量为π的一对干涉图像数据,对所述图像数据进行预处理,获得仿射变换参数和相应的三角位移变换参数;并将生成的变换干涉图和未进行所述预处理的干涉图输入网络,且将未进行所述预处理的另一幅干涉图与相应的所述仿射变换参数作为标签进行配对,组成双输入和双输出网络,进行监督训练;s2、使用pytorch深度学习框架,根据所述双输入和所述双输出网络结构搭建所述双通道同时相移干涉测量系统的相移干涉图空间像素匹配网络;s3、对所述干涉图空间匹配网络进行训练;s4、将所述三角位移变换参数进行回归处理,并生成匹配干涉图;s5、对失配干涉图进行矫正处理,得到空间位置矫正干涉图和直接生成匹配好的相移干涉图;s6、选取所述变换干涉图和所述匹配干涉图中间相同位置预设像素的区域,使用两步算法分别提取出包裹相位并解包裹相位后得到相应的两个相位分布,计算两个所述相位分布的相位差。2.如权利要求1所述的相移干涉图空间像素匹配方法,其特征在于,所述s1的所述处理具体包括以下步骤:通过图像处理方法对所述相移干涉图进行仿射变换,所述仿射变换包括平移、轴向、旋转、缩放及倾斜情况,并记录仿射变换参数和相应的三角位移变换参数。3.如权利要求2所述的相移干涉图空间像素匹配方法,其特征在于,在所述s1中,获取所述相移干涉图数据集的方法包括以下步骤:搭建马赫曾德干涉系统,采集单通道ccd记录的相移干涉图,对干涉图进行仿射变换,并记录仿射变换参数;所述仿射变换参考实际图像传感器的六个自由度偏移t(α,β,θ,tx,ty,tz),其中,α是所述实际图像传感器的偏移值与所述固定图像传感器绕x轴转动的角度值,β是所述实际图像传感器的偏移值与所述固定图像传感器绕y轴转动的角度值,θ是所述实际图像传感器的偏移值与所述固定图像传感器绕z轴转动的角度值;x是所述实际图像传感器的偏移值与所述固定图像传感器横向偏移的数值,y是所述实际图像传感器的偏移值与所述固定图像传感器纵向偏移的数值,z是所述实际图像传感器的偏移值与所述固定图像传感器轴向偏移的数值,其变换关系分别为:像传感器轴向偏移的数值,其变换关系分别为:
将六自由度偏移整理得总体变换关系为:即得:其中,所述马赫曾德干涉系统是以所述变换干涉图t1和未进行仿射变换的干涉图i2为输入,所述仿射变换参数c3和未进行仿射变换的干涉图i1为输出进行数据集的制作;其中(h11,h12,h21,h22)是仿射变换矩阵的旋转项,(h13,h23)是仿射变换矩阵的平移项;所述仿射变换参数c3=[δx1,δx2,δx3,δy1,δy2,δy3],制作所述相移干涉图数据集时,每次对图片进行一次仿射变换,就通过变换关系记录相应的所述仿射变换参数c3数值作为标签。4.如权利要求1所述的相移干涉图空间像素匹配方法,其特征在于,所述s2中,所述空间像素匹配网络为双输入和双输出的混合卷积神经网络,输入是所述一对干涉图像数据,输出是所述三角位移变换参数和已匹配的干涉图。5.如权利要求3所述的相移干涉图空间像素匹配方法,其特征在于,所述s3具体包括以下步骤:根据所述预处理好的干涉图数据集及匹配样本中失配干涉图的三角位移变换参数,对所述空间像素匹配网络进行监督训练。
6.如权利要求5所述的相移干涉图空间像素匹配方法,其特征在于,所述监督训练包括数据预处理、损失函数、训练和测试;所述损失函数用于预设网络参数,生成变换参数和干涉图,通过多个损失函数进行反向传播,获得优化的网络参数;其中,定义所述损失函数包括损失函数loss1、损失函数loss2、损失函数loss3和损失函数loss4,所述损失函数loss1通过最小化回归位移参数net3和真实位移参数c3之间的损失来实现,具体使用回归模型的均方误差算法获得,所述损失函数loss1具体公式如下:其中,net3是网络预测值;即net3=[δx
′1,δx
′2,δx
′3,δy
′1,δy
′2,δy
′3];其中,生成已匹配的干涉图与标签的干涉图i1,通过所述均方误差算法获得,所述损失函数loss2具体公式如下:利用先进的迭代算法计算生成的相移干涉图的相移量
△
θ,所述损失函数loss3具体公式如下:loss3=
△
θ
ꢀꢀꢀ
(11);通过所述回归位移参数net4计算出相应的仿射变换矩阵,然后对失配的干涉图t1做图像处理,得到匹配好的干涉图t1
′
:所述干涉图通过同时对所述干涉图t1
′
和干涉图i1中间裁剪大小相同的图像信息进行均方误差运算,所述损失函数loss4具体公式如下:总体损失函数为:loss=loss1+loss2+loss3+loss4;通过反向传播对网络参数进行调整,最后收敛和最小化损失函数值来完成网络的训练;再通过测试集对训练好的网络进行效果验证。7.如权利要求1所述的相移干涉图空间像素匹配方法,其特征在于,所述s4具体包括以下步骤:通过使用一种基于深度学习回归模型的不同相移量干涉图像素匹配网络,训练完成后保存网络参数,调用训练好的所述网络参数对干涉图对进行三角位移变换参数预测,同时所述不同相移量干涉图像素匹配网络的另一端输出生成匹配好的干涉图。8.如权利要求1所述的相移干涉图空间像素匹配方法,其特征在于,所述s5具体包括以
下步骤:通过空间匹配网络得到三角位移变换参数后,由得到的三角位移变换参数计算出相应的仿射变换矩阵,将失配干涉图乘以仿射变换矩阵的逆矩阵,插值采用双线性插值,得到空间位置矫正的干涉图。
技术总结
本发明提供了一种相移干涉图空间像素匹配方法,匹配方法包括以下步骤:S1、获取其中一个通道的相移干涉图数据集,通过高级迭代算法找出相移量为π的一对干涉图像数据,对图像数据进行预处理,并进行监督训练;S2、根据双输入和双输出网络结构搭建双通道同时相移干涉测量系统的相移干涉图空间像素匹配网络;S3、对干涉图空间匹配网络进行训练;S4、将三角位移变换参数进行回归处理,并生成匹配干涉图;S5、对失配干涉图进行矫正处理,得到空间位置矫正干涉图和直接生成匹配好的相移干涉图;S6、计算两个相位分布的相位差。本发明能够对干涉图匹配过程简单,节约时间,相移干涉图匹配误差小,适用范围广。适用范围广。适用范围广。
技术研发人员:钟丽云 李承颖 高欣 陈秋佳
受保护的技术使用者:广东工业大学
技术研发日:2023.03.17
技术公布日:2023/7/26
版权声明
本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)
航空之家 https://www.aerohome.com.cn/
飞机超市 https://mall.aerohome.com.cn/
航空资讯 https://news.aerohome.com.cn/