一种高清视频定制化人脸融合方法及系统与流程

未命名 09-29 阅读:61 评论:0


1.本技术涉及人脸融合技术领域,尤其涉及一种高清视频定制化人脸融合方法及系统。


背景技术:

2.人脸融合技术是指在给定源人脸和目标人脸后,将源人脸融合到目标人脸上,保证融合后的人脸具备源人脸的身份特征及目标人脸的属性(表情、姿势、肤色等)特征,广泛应用于直播、影视、娱乐等领域。目前人脸融合技术主要有以下几种方法:
3.基于传统形状拟合的方法,该方法根据人脸关键点位来计算两个人脸形状之间的变形,再通过图像融合技术实现换脸。该方法换脸后的效果往往存在严重的畸变,人脸融合效果自然性差。
4.基于3d人脸建模的方法,该方法先估计出人脸的三维模型和姿态,通过人脸解析得到要换脸的区域,然后对源人脸进行采样获得纹理图,迁移到目标人脸上,最后进行融合实现换脸。该方法对于侧脸效果较好,但3d建模耗时大,无法保证张嘴时生成自然的牙齿。


技术实现要素:

5.基于此,本技术为解决人脸融合效果自然性差且模型容量大,部署成本高的问题,提供了一种高清视频定制化人脸融合方法及系统。
6.本技术的第一个方面,提供了一种高清视频定制化人脸融合方法,包括:
7.输入少量定制化人脸数据和一段素材视频;
8.将所述少量定制化人脸数据输入至定制化人脸在线微调模块,获取定制化人脸融合模型facemerge_xx;
9.对所述素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸;
10.将所述定制化人脸融合模型facemerge_xx加载到人脸融合模块,同时对所述目标人脸进行对齐处理,将对齐处理后的目标人脸输入至定制化人脸模型,获取融合后的人脸;
11.对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频。
12.所述定制化人脸融合模型facemerge_xx的获取包括,
13.基于大数据集预训练两个网络的基础模型unsupervised_baseline和supervised_baseline;
14.基于所述少量定制化人脸数据微调unsupervised_baseline得到unsupervised_xx;
15.基于unsupervised_xx生成配对的数据集,利用所述配对的数据集微调supervised_baseline得到定制化人脸融合模型facemerge_xx。
16.微调自监督网络得到unsupervised_xx的操作包括,
17.将定制化人脸xs和预设的目标人脸x
t
分别输入自监督训练网络中的身份编码器和属性编码器,提取定制化人脸xs的身份特征z
id
和预设的目标人脸x
t
的属性特征z
att

18.将所述身份特征z
id
和所述属性特征z
att
注入人脸生成器,生成重建的人脸y
unsup

19.通过损失函数loss约束,引导自监督网络充分学习定制化人脸的身份特征。
20.通过损失函数loss约束,引导自监督网络充分学习定制化人脸的身份特征的计算包括,
21.损失函数loss的计算包括,
22.loss=l
gan

att
l
att

id
l
id

rec
l
rec
23.其中,l
gan
表示gan损失,由判别器产生的对抗损失来约束重建人脸y
unsup
趋向真实人脸的分布,l
att
表示属性保留损失,用于保留预设的目标人脸x
t
的属性特征,l
id
表示身份保留损失,用于保留定制化人脸xs的身份特征,l
rec
表示重构损失,用于从像素层级来约束重建人脸y
unsup
与预设的目标人脸x
t
一致,λ
att
、λ
id
和λ
rec
分别表示l
att
、l
id
和l
rec
的损失权重;
24.属性保留损失l
att
的计算包括,
[0025][0026]
身份保留损失l
id
的计算包括,
[0027]
l
id
=1-cos(z
id
(y
unsup
),z
id
(xs))
[0028]
其中,cos(
·
,
·
)表示两个向量的余弦相似度;
[0029]
重构损失l
rec
的计算包括,
[0030][0031]
微调有监督网络得到定制化人脸融合模型facemerge_xx的步骤包括,
[0032]
将预设的目标人脸x
t
输入有监督训练网络提取特征,将身份编码器提取的定制化人脸xs的身份特征z
id
注入有监督训练网络转换层,生成重建人脸y
sup

[0033]
通过损失函数loss约束,以自监督微调后的模型unsupervised_xx生成的重建人脸y
unsup
作为gt,引导有监督网络迁移学习定制化人脸融合效果。
[0034]
通过损失函数loss约束,以自监督微调后的模型unsupervised_xx生成的重建人脸y
unsup
作为gt,引导有监督网络迁移学习定制化人脸融合效果的计算包括,
[0035]
损失函数loss的计算包括,
[0036]
loss=l
gan

perc
l
perc

ssim
l
ssim

rec
l
rec
[0037]
其中,l
gan
表示gan损失,l
perc
表示感知损失,用于约束特征的重构,l
ssim
表示结构相似性损失,约束局部结构变化的一致性,l
rec
表示重构损失,在像素层级约束重建人脸y
sup
的生成,λ
perc
、λ
ssim
和λ
rec
分别表示l
perc
、l
ssim
和l
rec
的损失权重;
[0038]
感知损失l
perc
的计算包括,
[0039][0040]
其中,φ表示预训练的vgg网络,φi(x)表示输入x在φ第i层的特征,ci×hi
×
wi表
示φi(x)的维度;
[0041]
重构损失l
rec
的计算包括,
[0042]
l
rec
=||y
sup-y
unsup
||1。
[0043]
对所述素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸的步骤包括,
[0044]
将输入的素材视频解码抽帧;
[0045]
对每帧中的人脸进行关键点检测和提取,并通过人脸跟踪技术,将不同id的人脸关键点进行分类;
[0046]
提取完所有帧的人脸关键点后,进行id重匹配来进一步整合关键点数据;
[0047]
将标定视频中期望被换脸的人脸id作为目标人脸;
[0048]
所述融合后的人脸的获取包括,
[0049]
加载定制化人脸在线微调模块微调到定制化人脸融合模型;
[0050]
基于提取的人脸关键点,对素材视频中的标定目标人脸进行人脸对齐;
[0051]
将对齐的目标人脸输入至定制化人脸融合模型,输出合成的人脸,并将合成的人脸重新映射回原视频帧中。
[0052]
本技术的第二个方面,提供了一种高清视频定制化人脸融合系统,包括:
[0053]
模型构建单元,用于输入少量定制化人脸数据和一段素材视频;将所述少量定制化人脸数据输入至定制化人脸在线微调模块,构建定制化人脸融合模型facemerge_xx;
[0054]
人脸处理单元,用于对所述素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸;将所述定制化人脸融合模型facemerge_xx加载到人脸融合模块,同时对所述目标人脸进行对齐处理,将对齐处理后的目标人脸输入至定制化人脸模型,获取融合后的人脸;
[0055]
视频输出单元,用于对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频。
[0056]
本技术的第三个方面,提供了一种设备,包括:
[0057]
处理器;
[0058]
用于存储处理器可执行指令的存储器;
[0059]
其中,所述处理器被配置为调用所述存储器存储的指令,以实现本技术任一实施例所述的方法。
[0060]
本技术的第四个方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行,以实现本技术任一实施例所述的方法。
[0061]
有益效果:本技术方法实现了高清视频的定制化人脸融合效果,整个系统通过定制化人脸数据微调得到定制化人脸模型,将素材视频中的目标人脸通过该模型进行重建,经过后处理提升重建人脸的自然性和清晰度,最后返回人脸融合后的视频。其中有监督的迁移学习网络训练稳定,因此选取了轻量化的网络结构,用于最终的部署,从而大大提升了推理过程的性能。
[0062]
应当理解,本部分所描述的内容并非旨在标识本技术的实施例的关键或重要特征,也不用于限制本技术的范围。本技术的其它特征将通过以下的说明书而变得容易理解。
附图说明
[0063]
附图用于更好地理解本方案,不构成对本技术的限定。其中:
[0064]
图1是根据本技术提供的整体流程示意图;
[0065]
图2是根据本技术提供的定制化人脸融合流程图;
[0066]
图3是根据本技术提供的预训练和在线微调的细节实现示意图;
[0067]
图4是根据本技术提供的人脸关键点提取展示图。
具体实施方式
[0068]
以下结合附图对本技术的示范性实施例做出说明,其中包括本技术实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本技术的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
[0069]
如图1-4所示,本技术的第一个方面,提供了一种高清视频定制化人脸融合方法,包括:
[0070]
s1:输入少量定制化人脸数据和一段素材视频;
[0071]
s2:将少量定制化人脸数据输入至定制化人脸在线微调模块,获取定制化人脸融合模型facemerge_xx,整体框架示意图如图3所示。需要说明的是:
[0072]
定制化人脸融合模型facemerge_xx的获取包括,
[0073]
基于大数据集预训练两个网络的基础模型unsupervised_baseline和supervised_baseline;
[0074]
基于少量定制化人脸数据微调unsupervised_baseline得到unsupervised_xx;
[0075]
基于unsupervised_xx生成配对的数据集,利用配对的数据集微调supervised_baseline得到定制化人脸融合模型facemerge_xx。
[0076]
如图2所示,微调自监督网络得到unsupervised_xx的操作包括,
[0077]
将定制化人脸xs和预设的目标人脸x
t
分别输入自监督训练网络中的身份编码器和属性编码器,提取定制化人脸xs的身份特征z
id
和预设的目标人脸x
t
的属性特征z
att

[0078]
将身份特征z
id
和属性特征z
att
注入人脸生成器,生成重建的人脸y
unsup

[0079]
通过损失函数loss约束,引导自监督网络充分学习定制化人脸的身份特征。
[0080]
通过损失函数loss约束,引导自监督网络充分学习定制化人脸的身份特征的计算包括,
[0081]
损失函数loss的计算包括,
[0082]
loss=l
gan

att
l
att

id
l
id

rec
l
rec
[0083]
其中,l
gan
表示gan损失,由判别器产生的对抗损失来约束重建人脸y
unsup
趋向真实人脸的分布,l
att
表示属性保留损失,用于保留预设的目标人脸x
t
的属性特征,l
id
表示身份保留损失,用于保留定制化人脸xs的身份特征,l
rec
表示重构损失,用于从像素层级来约束重建人脸y
unsup
与预设的目标人脸x
t
一致,λ
att
、λ
id
和λ
rec
分别表示l
att
、l
id
和l
rec
的损失权重;
[0084]
属性保留损失l
att
的计算包括,
[0085][0086]
身份保留损失l
id
的计算包括,
[0087]
l
id
=1-cos(z
id
(y
unsup
),z
id
(xs))
[0088]
其中,cos(
·
,
·
)表示两个向量的余弦相似度;
[0089]
重构损失l
rec
的计算包括,
[0090][0091]
微调有监督网络得到定制化人脸融合模型facemerge_xx的步骤包括,
[0092]
将预设的目标人脸x
t
输入有监督训练网络提取特征,将身份编码器提取的定制化人脸xs的身份特征z
id
注入有监督训练网络转换层,生成重建人脸y
sup

[0093]
通过损失函数loss约束,以自监督微调后的模型unsupervised_xx生成的重建人脸y
unsup
作为gt,引导有监督网络迁移学习定制化人脸融合效果。
[0094]
通过损失函数loss约束,以自监督微调后的模型unsupervised_xx生成的重建人脸y
unsup
作为gt,引导有监督网络迁移学习定制化人脸融合效果的计算包括,
[0095]
损失函数loss的计算包括,
[0096]
loss=l
gan

perc
l
perc

ssim
l
ssim

rec
l
rec
[0097]
其中,l
gan
表示gan损失,l
perc
表示感知损失,用于约束特征的重构,l
ssim
表示结构相似性损失,约束局部结构变化的一致性,l
rec
表示重构损失,在像素层级约束重建人脸y
sup
的生成,λ
perc
、λ
ssim
和λ
rec
分别表示l
perc
、l
ssim
和l
rec
的损失权重;
[0098]
感知损失l
perc
的计算包括,
[0099][0100]
其中,φ表示预训练的vgg网络,φi(x)表示输入x在φ第i层的特征,ci×hi
×
wi表示φi(x)的维度;
[0101]
重构损失l
rec
的计算包括,
[0102]
l
rec
=||y
sup-y
unsup
||1。
[0103]
s3:对素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸。需要说明的是:
[0104]
对素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸的步骤包括,
[0105]
将输入的素材视频解码抽帧;
[0106]
对每帧中的人脸进行关键点检测和提取,并通过人脸跟踪技术,将不同id的人脸关键点进行分类,关键点的提取如图4所示;
[0107]
提取完所有帧的人脸关键点后,进行id重匹配来进一步整合关键点数据;
[0108]
将标定视频中期望被换脸的人脸id作为目标人脸。
[0109]
s4:将定制化人脸融合模型facemerge_xx加载到人脸融合模块,同时对目标人脸
进行对齐处理,将对齐处理后的目标人脸输入至定制化人脸模型,获取融合后的人脸。需要说明的是:
[0110]
融合后的人脸的获取包括,
[0111]
加载定制化人脸在线微调模块微调到定制化人脸融合模型;
[0112]
基于提取的人脸关键点,对素材视频中的标定目标人脸进行人脸对齐;
[0113]
将对齐的目标人脸输入至定制化人脸融合模型,输出合成的人脸,并将合成的人脸重新映射回原视频帧中。
[0114]
s5:对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频,通过人像修复和超分处理进一步提升合成人脸的自然性及清晰度。
[0115]
本技术的第二个方面,提供了一种高清视频定制化人脸融合系统,包括:
[0116]
模型构建单元,用于输入少量定制化人脸数据和一段素材视频;将少量定制化人脸数据输入至定制化人脸在线微调模块,构建定制化人脸融合模型facemerge_xx;
[0117]
人脸处理单元,用于对素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸;将定制化人脸融合模型facemerge_xx加载到人脸融合模块,同时对目标人脸进行对齐处理,将对齐处理后的目标人脸输入至定制化人脸模型,获取融合后的人脸;
[0118]
视频输出单元,用于对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频。
[0119]
本技术的第三个方面,提供了一种设备,包括:
[0120]
处理器;
[0121]
用于存储处理器可执行指令的存储器;
[0122]
其中,所述处理器被配置为调用所述存储器存储的指令,以实现本技术任一实施例所述的方法。
[0123]
本技术的第四个方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行,以实现本技术任一实施例所述的方法。
[0124]
本技术方法实现了高清视频的定制化人脸融合效果,整个系统通过定制化人脸数据微调得到定制化人脸模型,将素材视频中的目标人脸通过该模型进行重建,经过后处理提升重建人脸的自然性和清晰度,最后返回人脸融合后的视频。其中有监督的迁移学习网络训练稳定,因此选取了轻量化的网络结构,用于最终的部署,从而大大提升了推理过程的性能。
[0125]
在本技术所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。
[0126]
所述单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
[0127]
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以
是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
[0128]
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本发明实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:u盘、移动硬盘、只读存储器(read-only memory,rom)、随机存取存储器(random access memory,ram)、磁碟或者光盘等各种可以存储程序代码的介质。
[0129]
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何在本发明揭露的技术范围内的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

技术特征:
1.一种高清视频定制化人脸融合方法,其特征在于,包括:输入少量定制化人脸数据和一段素材视频;将所述少量定制化人脸数据输入至定制化人脸在线微调模块,获取定制化人脸融合模型facemerge_xx;对所述素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸;将所述定制化人脸融合模型facemerge_xx加载到人脸融合模块,同时对所述目标人脸进行对齐处理,将对齐处理后的目标人脸输入至定制化人脸模型,获取融合后的人脸;对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频。2.根据权利要求1所述的一种高清视频定制化人脸融合方法,其特征在于:所述定制化人脸融合模型facemerge_xx的获取包括,基于大数据集预训练两个网络的基础模型unsupervised_baseline和supervised_baseline;基于所述少量定制化人脸数据微调unsupervised_baseline得到unsupervised_xx;基于unsupervised_xx生成配对的数据集,利用所述配对的数据集微调supervised_baseline得到定制化人脸融合模型facemerge_xx。3.根据权利要求2所述的一种高清视频定制化人脸融合方法,其特征在于:微调自监督网络得到unsupervised_xx的操作包括,将定制化人脸x
s
和预设的目标人脸x
t
分别输入自监督训练网络中的身份编码器和属性编码器,提取定制化人脸x
s
的身份特征z
id
和预设的目标人脸x
t
的属性特征z
att
;将所述身份特征z
id
和所述属性特征z
att
注入人脸生成器,生成重建的人脸y
unsup
;通过损失函数loss约束,引导自监督网络充分学习定制化人脸的身份特征。4.根据权利要求3所述的一种高清视频定制化人脸融合方法,其特征在于:通过损失函数loss约束,引导自监督网络充分学习定制化人脸的身份特征的计算包括,损失函数loss的计算包括,loss=l
gan

att
l
att

id
l
id

rec
l
rec
其中,l
gan
表示gan损失,l
att
表示属性保留损失,l
id
表示身份保留损失,l
rec
表示重构损失,λ
att
、λ
id
和λ
rec
分别表示l
att
、l
id
和l
rec
的损失权重;属性保留损失l
att
的计算包括,身份保留损失l
id
的计算包括,l
id
=1-cos(z
id
(y
unsup
),z
id
(x
s
))其中,cos(
·
,
·
)表示两个向量的余弦相似度;重构损失l
rec
的计算包括,5.根据权利要求2所述的一种高清视频定制化人脸融合方法,其特征在于:微调有监督
网络得到定制化人脸融合模型facemerge_xx的步骤包括,将预设的目标人脸x
t
输入有监督训练网络提取特征,将身份编码器提取的定制化人脸x
s
的身份特征z
id
注入有监督训练网络转换层,生成重建人脸y
sup
;通过损失函数loss约束,以自监督微调后的模型unsupervised_xx生成的重建人脸y
unsup
作为gt,引导有监督网络迁移学习定制化人脸融合效果。6.根据权利要求5所述的一种高清视频定制化人脸融合方法,其特征在于:通过损失函数loss约束,以自监督微调后的模型unsupervised_xx生成的重建人脸y
unsup
作为gt,引导有监督网络迁移学习定制化人脸融合效果的计算包括,损失函数loss的计算包括,loss=l
gan

perc
l
perc

ssim
l
ssim

rec
l
rec
其中,l
gan
表示gan损失,l
perc
表示感知损失,用于约束特征的重构,l
ssim
表示结构相似性损失,约束局部结构变化的一致性,l
rec
表示重构损失,在像素层级约束重建人脸y
sup
的生成,λ
perc
、λ
ssim
和λ
rec
分别表示l
perc
、l
ssim
和l
rec
的损失权重;感知损失l
perc
的计算包括,其中,φ表示预训练的vgg网络,φ
i
(x)表示输入x在φ第i层的特征,c
i
×
h
i
×
w
i
表示φ
i
(x)的维度;重构损失l
rec
的计算包括,l
rec
=||y
sup-y
unsup
||1。7.根据权利要求1所述的一种高清视频定制化人脸融合方法,其特征在于:对所述素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸的步骤包括,将输入的素材视频解码抽帧;对每帧中的人脸进行关键点检测和提取,并通过人脸跟踪技术,将不同id的人脸关键点进行分类;提取完所有帧的人脸关键点后,进行id重匹配来进一步整合关键点数据;将标定视频中期望被换脸的人脸id作为目标人脸;所述融合后的人脸的获取包括,加载定制化人脸在线微调模块微调到定制化人脸融合模型;基于提取的人脸关键点,对素材视频中的标定目标人脸进行人脸对齐;将对齐的目标人脸输入至定制化人脸融合模型,输出合成的人脸,并将合成的人脸重新映射回原视频帧中。8.一种高清视频定制化人脸融合系统,其特征在于:模型构建单元,用于输入少量定制化人脸数据和一段素材视频;将所述少量定制化人脸数据输入至定制化人脸在线微调模块,构建定制化人脸融合模型facemerge_xx;人脸处理单元,用于对所述素材视频进行预处理,提取素材视频中不同id的人脸关键点,并标定目标人脸;将所述定制化人脸融合模型facemerge_xx加载到人脸融合模块,同时对所述目标人脸进行对齐处理,将对齐处理后的目标人脸输入至定制化人脸模型,获取融合后的人脸;
视频输出单元,用于对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频。9.一种设备,其特征在于,包括:处理器;用于存储处理器可执行指令的存储器;其中,所述处理器被配置为调用所述存储器存储的指令,以执行权利要求1至7中任意一项所述的方法。10.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至7中任意一项所述的方法。

技术总结
本申请公开了一种高清视频定制化人脸融合方法及系统,涉及人脸融合领域。具体实现方案为:将少量定制化人脸数据输入至定制化人脸在线微调模块获取定制化人脸融合模型FaceMerge_xx;对素材视频进行预处理并提取不同ID的人脸关键点,标定目标人脸;将模型FaceMerge_xx加载到人脸融合模块,同时对目标人脸进行对齐处理并输入至定制化人脸模型获取融合后的人脸;对融合后的人脸进行人像修复和超分处理并进行视频编码,输出人脸融合后的视频。本申请方法实现了高清视频的定制化人脸融合,系统通过定制化人脸数据微调得到定制化人脸模型,将目标人脸通过该模型进行重建,经后处理提升重建人脸的自然性和清晰度,选取轻量化的网络结构用于最终的部署,提升推理过程的性能。的性能。的性能。


技术研发人员:胡家庆 胡耀武 李晓红 韩晟
受保护的技术使用者:杭州小影创新科技股份有限公司
技术研发日:2023.07.21
技术公布日:2023/9/23
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

航空商城 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

评论

相关推荐