中国科技核心期刊      中国指挥与控制学会会刊     军事装备类重点期刊
Theory & Research

Multi-focus Image Fusion Using Consistency Low Rank Representation Model

  • LIU Yang 1 ,
  • ZHOU Guo-zhong 2 ,
  • WANG Fan 1
Expand
  • 1. The NOC School of Artillery and Air-Defence Academy, Shenyang 110162
  • 2. Unit 63612 of PLA, Dunhuang 736200, China

Received date: 2018-07-27

  Online published: 2022-05-16

Abstract

Multi-focus image fusion is an important branch of image fusion. It can extract clear regions from multiple source images and fuse them into an image with higher clarity and better quality. This paper presents a novel multi-focus image fusion method, efficiently combining low-rank representation (LRR) and spatial consistency to avoid the problems in some existing methods. In the paper, the low rank representation model is used to decompose the source images into the background information and the detail information. Then the image fusion is addressed by employing the detail information in which with the rich structures as the focusing measurement. Secondly, in order to improve the quality of fusion and alleviate the blocking-artifacts, the spatial consistency constrained is adopted in this paper. The Laplacian matrix is used as a constraint item to construct a new low rank representation model and to have been solved. Experimental results demonstrate that the multi-focus image fusion algorithm proposed in this paper consistently outperforms existing state-of-art methods in terms of both visual and quantitative evaluations.

Cite this article

LIU Yang , ZHOU Guo-zhong , WANG Fan . Multi-focus Image Fusion Using Consistency Low Rank Representation Model[J]. Command Control and Simulation, 2019 , 41(3) : 30 -36 . DOI: 10.3969/j.issn.1673-3819.2019.03.007

图像是对现实场景的一种模拟的、生动性的描述或写真,是人们在日常生活中最常用的信息载体之一,是人们感知和传播信息的重要工具。现实中,一幅清晰完整的、信息量丰富的图像能够更好地帮助人们概括和理解现实场景的相关信息。因此,获取一幅高质量的图像对于人类获取信息来说至关重要[1]。但因为成像器材景深有限,使得物体位于聚焦区域内或附近时,图像较为清晰,反之较为模糊,给后期处理和信息获取带来不便。多聚焦图像融合是解决这类问题的一种有效途径,它能够集成同一场景不同图像上所有聚焦信息为一体,生成一幅全聚焦的清晰图像,能够更好地帮助人类感知场景信息。
现有的多聚焦图像融合方法主要可以分为三个类型,即:基于空间域的融合方法、基于变换域的融合方法以和基于图像稀疏表示的融合方法。传统空域的图像融合方法直接作用于源图像,针对不同源图像上的像素或区域,采用一定的方法,选择出清晰度较高的区域,然后将这些清晰的区域融合起来生成最后的融合图像。基于传统空域的多聚焦融合方法整体来说,其思想简单,计算量较小,融合速度比较快,但其融合结果一般,对噪声和误配准比较敏感,分块融合时还会造成严重的“块效应”。
基于变换域的融合方法主要是对图像采用一种变换基,将其转换到另一种计算域中进行分解和融合,最典型的变换域的融合方法为基于多尺度变换的图像融合。一般处理过程是首先采用多尺度分解工具对输入图像进行多尺度分解,获得多个分解层的多尺度图像,然后在每一个分解层上设计相应的融合规则,将各层的融合结果进行多尺度重构得到最终的融合图像。这种方法因为可以针对变换域内的不同尺度层选择相应的较为高效的融合规则,因此,其具有较好的融合效果。常用的多尺度变换的方法主要有拉普拉斯金字塔[2]、离散小波变换(DWT)[3]、轮廓波变换[4]等。这些融合方法能够快速执行,对图像刻画更为具体,但其对噪声和误配准比较敏感,同时会出现边缘的模糊和变形以及丢失部分细节信息等。
近些年来稀疏表示在图像处理领域得到了大量的应用,其基本思想是源图像中的图像块可以使用少量的字典原子线性组合来进行表示。文献[5]首次将稀疏表示应用到了图像融合领域,在此之后,出现了大量的基于稀疏表示的融合方法,使得融合结果更加精确和稳定。但是,基于稀疏表示的图像融合算法一般采用滑动窗工具(如文献[6-7])对源图像进行采样,以减少“块效应”,这就造成了融合图像对比度的下降以及细节信息的丢失,同时使用滑动窗工具也增加了算法的计算复杂度。
针对以上问题,本文提出一种新的基于低秩表示和空间一致性约束相结合的多聚焦图像融合算法,该算法利用低秩表示模型对源图像进行低秩表示,将源图像分解为低秩的背景信息和稀疏的细节信息,再利用细节信息进行多聚焦区域的判断,较大程度上提高了融合结果的可靠性。这里,采用均值数据作为字典,节省了字典学习带来的计算量,并且能够对数据进行高效的表示。同时,在低秩模型中引用了拉普拉斯约束项,利用空间邻域对结果进行约束,减少“块效应”的同时,提高融合图像的质量。

1 基本理论

1.1 低秩表示

低秩表示是将观测的数据分解为低秩块和稀疏块之和的一种手段,由于该方法对噪声具有较好的鲁棒性而受广大学者关注。目前,低秩表示方法已经较多地用于人脸识别、目标检测等领域并取得了较好的效果。它的基本思想是假设对于某个字典,数据表示系数是低秩的,旨在寻求数据矩阵的最低秩表示。其模型如式(1)所示。
m i n Z , E‖Z‖*+λ‖E‖2,1s.t.X=DZ+E
其中,DZ表示低秩部分,ZX基于字典表示的系数矩阵,Z具有低秩特性,式中对Z进行了低秩约束。E是稀疏的噪声,‖·‖2,1l2,1范数,表示对E进行列稀疏约束[8]。在使用低秩表示时,原始数据能够被分解为两部分,一部分为低秩的纯净数据,另一部分为稀疏的噪声数据,从而达到去噪的目的。而低秩表示在应用到多聚焦图像融合中时,可以将图像分解为低秩的背景信息和稀疏的细节信息,细节矩阵E包含较为丰富的结构和边缘信息(如图1所示),从而利用细节信息就能够判断出图像的清晰度。
图1 利用低秩表示将源图像分解为低秩的背景信息和稀疏的细节信息

1.2 基于图论的一致性约束

在图论中,对于一个数据集,其局部几何结构可利用数据点散点图上的分布和最近邻图之间的关系进行建模和有效约束[9-10]。在图像融合中,假设一幅源图像,其数据集对应为X=[x1,x2…,xn]∈Rm×n,n表示对源图像进行块划分后的图像块数量,利用图论的理论可以构建加权图G={X,W},其中W= ( w i j ) i , j = 1 n为结构图中的权重矩阵,表示G中任意两个顶点之间的相似度,n表示该加权图有n个顶点,wij为建立的散点图中第i个顶点xi和第j个顶点xj的权重值,i,j的取值范围为i=1,2…n;j=1,2…n
流形学习中,拉普拉斯特征映射算法[10]假设:若两个顶点xixj,其几何分布是“相临近”的,则这两个数据顶点在利用相关变换基在表示时,其系数向量zizj通常也应是“相邻近”的。利用此原理,通过最小化公式(2)的函数可实现从数据到系数之间的相似性映射:
1 2 i = 1 N j = 1 Nwij z i - z j 2 2
公式中, z i - z j 2 2为欧氏距离,该距离可以用来表示系数向量zizj的相似性,wijxixj之间的权重值,其计算公式为
wij= e y i - y j 2 2 2 σ 2
式中,σ为方差(高斯核),在本文中,其值设为1。
对式(2)进行矩阵变换,可将其转换为式(4)。
1 2 i = 1 n j = 1 nwij z i - z j 2 2= i = 1 n z i Twiizi- i , j = 1 n z i Twijzj=Tr(ZCZT)-Tr(ZWZT)=Tr(ZLZT)
公式中,Z=[z1,z2,…,zn]∈RK×n表示对数据X在表示时所对应的系数,Tr(·)为矩阵的迹,即矩阵对角线值的和,LRn×n表示拉普拉斯因子,ZT为矩阵Z的转置矩阵,可利用对角矩阵C和权重矩阵W进行计算,即L=C-W,WRN×NW(i,j)=wij,为对称矩阵,CRn×n是对权重矩阵的每一行求和并按对角线排列,该矩阵为对角矩阵,表示为:C(i,i)= j = 1 NW(i,j)。
最小化公式(4),可对特征相似的两个数据点或区域的表示系数进行相似性约束,使其具有一致性,因此,Tr(ZLZ)为对数据表示系数的一致性约束项。

2 融合算法

2.1 算法框架

本文提出的算法是利用低秩表示模型和空间一致性结合进行多聚焦图像融合,算法的整个过程包括:源图像的块划分及向量化,一致性低秩表示,定义融合规则并构建融合图像等过程,整个算法框架如图2所示。
图2 算法整体框架

2.2 构建源图像对应的向量化矩阵

首先,将每一幅源图像划分成N个无重叠的子块[5,11]。利用n×n大小的窗口,以从左到右,从上到下对输入的两幅经过配准的源图像IAIB进行遍历,在遍历时,窗口不重叠。遍历后得到N个图像块,对这些子图像块进行向量化,得到源图像所对应的向量化矩阵XAXB,其中XA= x A 1 , , x A i , , x A N R n 2 × N,XB= x B 1 , , x B i , , x B N R n 2 × N, x A i表示源图像IA的向量化矩阵XA的第i列, x A i R n 2,本算法在实验中选取n=7。然后分别对源图像的向量化矩阵利用一致性低秩表示模型并选取相应的字典进行低秩表示,使得源图像分解为低秩的背景矩阵和稀疏的细节矩阵E

2.3 模型的构建和编码

对于任意一个图像块,其聚焦特性与邻域内其他图像块具有较大可能的相似性,即当图像块位于同一个邻域内时,这些图像很可能同时聚焦或者同时离焦。因此,可采用图论的方式来约束这种相似性。以图像块为图的顶点,权重矩阵的构建为
ωij= 1 , y * i y * j 0 , y * i y * j
式(1)中,利用低秩模型可以将源图像分解为低秩的背景图像和稀疏的细节信息。细节信息能够作为聚焦性因子,判断出图像区域的清晰度。为了提高E的准确性,本算法对E进一步进行了邻域内一致性约束,得到的模型为
m i n Z , E‖Z‖*+λ‖E‖2,1+βtr(ELET)s.t.X=DZ+E
其中,‖·‖*为核范数约束,‖·‖2,1是进行l2,1范数约束,L为拉普拉斯矩阵,由公式(4)进行构建。
式(6)可以采用线性迭代方向法[12](LADMAP)进行求解,引入变量J,并通过最小化(8)式的增广拉格朗日函数进行求解:
m i n Z , E‖J‖*+λ‖E‖2,1+βtr(ELET) s.t.X=DZ+E,Z=J
L(J,E,Z)=‖J‖*+λ‖E‖2,1+βtr(ELET)+<H,X-DZ-E>+ μ 2 X - D Z - E F 2+<P,Z-J>+ μ 2 Z - J F 2
其中,HP为拉格朗日乘子,μ>0是一个惩罚参数,<A,B>为矩阵AB的欧氏内积。在更新时,每次更新一个变量,并固定其他所有变量,对该拉格朗日函数的求解问题可以转换为以下子优化问题。
1)更新J
J= a r g m i n J J j *+<Pj,Zj-J>+ μ j 2 Z j - J F 2= a r g m i n J 1 μ j‖J‖*+ 1 2||J-(Zj+ 1 μ jPj)|| F 2
该子优化问题存在如下的闭式解[12]:
Jj+1=SV T 1 μ j(Zj+ 1 μ jPj)
其中,SVTδ(A)=Udiag δ i - δVT,且A=Udiag( δ i 1 < i < r)VT是矩阵ASVD分解。
2)更新Z
Zj+1= a r g m i n Z<Hj,X-DZ-Ej>+ μ j 2 X - D Z - E j F 2+<Pj,Z-Jj+1>+ μ j 2 Z - J j + 1 F 2= a r g m i n Z||X-DZ-Ej+ H j μ j|| F 2+||Z-Jj+1+ P j μ j|| F 2
求导,并优化得
Zj+1=(DTD+I)-1(DT(X-Ej)+Jj+1+ D T H j - P j μ j)
式中,I代表单位矩阵。
3)更新E
Ej+1= a r g m i n Eλ‖E‖2,1+βtr(ELET)+<H,X-DZj+1-E>+ μ 2 X - D Z j + 1 - E F 2= a r g m i n Eλ‖E‖2,1+ η j 2 E - E j F 2+< Ef(Ej),E-Ej>= a r g m i n E λ η j‖E‖2,1+ 1 2||E-Ej+ 1 η j Ef(Ej)|| F 2
其中,f(E)=βtr(ELET)+ μ j 2 E - S F 2,S=X-DZj+1+ H j μ j,ηj=1.02(2β L F 2+μj), Ef(Ej)是f(E)对E求偏导。
该子优化问题存在闭式解[13]:
Ej+1(:,i)= ( Q ( : , i ) 2 - λ η j ) Q ( : , i ) 2 Q ( : , i ) , i f Q ( : , i ) 2 > λ η j 0 , o t h e r w i s e
其中,Q=Ej- 1 η j Ef(Ej),E(:,i)和Q(:,i)分别代表EQ的第i列。
该模型的求解和编码过程见算法1。
算法1: 对一致性低秩表示模型的优化
输入:(a) 数据矩阵X,表示字典D,惩罚参数λβ,最大迭代次数itermax,容许误差ε
(b) 算法初始化:Z0=J0=0,E0=0,H0=0,P0=0,μ=10-6,φ=1.1,μmax=106,ε=10-8,itermax=103
迭代步骤:
1)固定其他变量,更新J:
Jj+1=SV T 1 μ j(Zj+ 1 μ jPj)
2)固定其他变量,更新Z:
Zj+1=(DTD+I)-1(DT(X-Ej)+Jj+1+ D T H j - P j μ j)
3)固定其他变量,更新E:
Ej+1(:,i)= ( Q ( : , i ) 2 - λ η j ) Q ( : , i ) 2 Q ( : , i ) ,   i f Q ( : , i ) 2 > λ η j 0 ,       o t h e r w i s e
4)更新拉格朗日乘子HP:
Hj+1=Hj+μj(X-DZj+1-Ej+1),Pj+1=Pj+μj(Zj+1-Jj+1)
5)更新μ:
μj+1=min(μjφ,μmax)
6)检查是否满足收敛条件
max X - D Z j + 1 - E j + 1 <ε and max Z j + 1 - J j + 1 <ε
‖·‖代表矩阵的无穷范数,如果满足收敛条件,结束;否则,继续步骤1-6。
输出:一致性低秩表示系数矩阵Z和误差矩阵E

2.4 融合规则的选取和优化

1)融合规则的选取
对源图像进行低秩分解后,DZ描述的是图像的背景信息,E描述的是图像的细节信息。而细节信息中包含了图像的结构和边缘信息,能够描述出图像的清晰度,因此本算法中,采用E并利用l2范数取大作为活跃性测量因子对源图像进行融合。利用该融合测量因子,可得到多聚焦图像融合的初始决策标记图,如式(15)。
F(x,y)= 1 , i f E A ( : , i ) 2 E B ( : , i ) 2 0 , i f E A ( : , i ) 2 < E B ( : , i ) 2
其中,F(x,y)表示标记矩阵F在(x,y)位置处的元素值,EA(:,i)表示源图像IA的低秩表示EA的第i列,EB(:,i)表示源图像IB的低秩表示EB的第i列,‖·‖2表示向量的l2范数。
2)初始决策图的优化
F转换为与源图像相同大小的标记矩阵Do,F中每一列代表Do中对应的某一图像块。首先经过去洞处理,去除孤立区域,然后利用空间邻域一致性对初始决策标记矩阵Do进行优化,得到最终的决策标记图Df。主要实施过程:对于初始决策标记矩阵Do中每一个图像块,统计其8邻域内被标记为1和0的图像块个数,若被邻域内其他所有的图像块都被标记为1,则当前的图像块也被标记为1;若邻域内所有图像块被标记为0,则当前图像块也被标记为0。
3)构建最终的融合图像
利用Df构建最终的融合图像IF:
IF=IA.×Df+IB.×(1-Df)
其中,1表示元素值全为1的矩阵。

3 实验与分析

为了验证本文算法的有效性,选取了六组已配准的多聚焦图像,并在Matlab2016b的环境下与现有的稀疏表示(SR)[5]、多任务鲁棒稀疏表示(MRSR)[13]、自适应稀疏表示算法(ASR)[14]和密集SIFT[15]等几种算法进行了主观和客观上的比较。选取的六组图像如图3所示,其中4组源图像大小为256×256,两组源图像大小为320×240。对这些源图像分别利用本文的多聚焦融合算法和现有的一些算法进行融合,得到每组源图像利用不同的算法所对应的融合图像及归一化差值图像,该归一化差值图像是计算融合图像与源图像的差值所得到的。然后通过对比融合算法构建的融合图像和归一化差值图像,对不同融合算法性能进行定性的比较,最后利用 Q A B / F [ 16 ]、结构相似性SSIM[17]、归一化互信息NMI[18]、相位一致性 Q P C [ 19 ]以及时间Ts五种客观评价指标对本文的算法与现有四种算法进行定量的比较。在实验中,为了提高计算效率,同时能够较为高效地对源图像进行低秩表示,实验中采用两幅源图像的均值图像分块然后矢量化后作为字典D,即Iave= I A + I B 2,然后对Iave进行分块,矢量化后得到字典D
图3 待融合的六组多聚焦图像
图4为本文所选取的不同融合算法以及本文所提出的算法对“Student”源图像的融合结果和归一化差值图像。“Student”图像并未完全配准,存在一定的配准误差,通过利用该图像对算法进行融合比较,可反映出算法的稳定性和鲁棒性。图4为其融合结果,第一行为不同算法所对应的融合图像,第二行为融合图像与源图像的归一化差分图像。图中,(a-d)为所选取的四种算法所对应的融合结果,图4(e)为本文所提出的算法的融合结果。通过对比可以看出,在差分图像中,ASR和SR算法其融合结果包含较多的不一致区域(矩形框区域),DSIFT算法,相比前两种算法而言,其融合结果视觉效果较好,但仍然存在一定的形变,影响了融合算法的精度。这些算法得到的融合结果存在这些残差或不一致区域,表明在融合图像中引入了源图像中的非聚焦区域,使得融合图像出现大量的局部模糊和形变。在MRSR算法中,“钟表”的右边缘区域也存在一些残差区域,说明该算法在对边缘的提取和保留等方面存在不一致性,影响了融合质量。从图4(e)结果可以看出,本文算法存在较少的残差区域,尤其是在边缘区域以及白色框中的平滑区域,本文算法都能够保持较好的一致性,使得融合图像具有较好的清晰度,误差较少。因此从主观上,通过这些实验结果可得知,本文算法相比其他几种算法,其能得到较好的融合结果,并且对图像的误配准也具有较好的稳定性。
图4 五种算法对“Student”的融合结果比较
图5是其他五组图像,采取不同的方法所得到的聚焦决策图。对比该实验结果可以看出,现有的几种多聚焦图像融合算法所构建的融合标记图中基本上都包含有“孤立”的局部块状模糊区域,即“块效应”。这些块效应的存在表明算法在融合时,将图像的离焦区域错误地判定为聚焦区域并将其保留到最终的融合图像中,或是将聚焦区域错误判定为离焦区域而丢弃,降低了融合图像的清晰度,进而影响了融合图像的质量。如图5所示,ASR算法和SR算法,在其融合标记图中出现大量的“快效应”,可知这两种算法融合效果较差,存在较多的不一致性,而本文提出的方法构建的决策标记图中不存在“孤立”的块状区域,相比较其他四种方法具有较大的优势,基本上消除了“块状”效应,同时准确度较高。
图5 五种多聚焦图像融合算法对其他五组源图像的融合决策标记图
上述实验从主观上充分验证了本文算法的有效性。为了从客观上对不同算法的性能进行比较,本文在上述实验的基础上,统计了不同融合算法对六组源图像进行融合得到的结果,所对应的五种客观指标的平均值见表1表1中实验结果表明:本文算法相比其他几种算法,几种客观指标都具有明显的优势,虽然在时间复杂度上,DSIFT算法有一定的优势,但比较其他几种客观评价指标可发现,本文算法的在一致性、结构相似性等方面都优于DSIFT算法。从该客观评价结果可知,本文提出的利用一致性低秩表示模型进行多聚焦图像融合算法,其精度较高,融合效果较好。
表1 六组多聚焦源图像采用不同融合算法的客观评价指标平均值对比
方法 评价指标
NMI QAB/F SSIM QPC T(s)
ASR 0.3528 0.7304 0.8612 0.6283 62.20
DSIFT 0.3969 0.7733 0.9593 0.6888 4.32
MRSR 0.4058 0.7725 0.9678 0.6844 117.24
SR 0.3446 0.7301 0.8641 0.6272 30.10
OURS 0.4087 0.7758 0.9691 0.6912 26.21

4 结束语

本文提出了一种新的多聚焦图像融合算法,该算法利用低秩表示模型将图像分解为背景信息和稀疏的细节信息,细节信息包含了图像的结构和边缘信息,能够描述出图像区域的清晰度。同时本文在进行低秩表示时,增加了空间一致性约束项,并利用拉普拉斯项构建了新的低秩表示模型。通过该模型对源图像进行低秩表示,利用表示结果的细节信息,采用l2范数取大作为融合规则进行融合,具有较好的融合效果。最后,用现有的几种多聚焦图像融合算法和本文算法对多组不同的多聚焦图像进行了融合比较,通过实验验证本文的算法无论从主观上还是客观上都明显优于其他算法。
[1]
Duan J, Chen L, Chen C L P. Multifocus Image Fusion Using Superpixel Segmentation and Superpixel-based Mean Filtering[J]. Applied Optics, 2016, 55(36): 10352-10362.

DOI

[2]
Du J, Li W, Xiao B, et al. Union Laplacian Pyramid with Multiple Features for Medical Image Fusion[J]. Neurocomputing, 2016(194): 326-339.

[3]
Kumar B K S. Multifocus and Multispectral Image Fusion Based on Pixel Significance Using Discrete Cosine Harmonic Wavelet Transform[J]. Signal Image and Video Processing, 2013, 7(6): 1125-1143.

DOI

[4]
Song H, Yu S Y, Song L, et al. Fusion of Multispectral and Panchromatic Satellite Images Based on Contourlet Transform and Local Average Gradient[J]. Optical Engineering, 2007, 46(2): 020502-020510.

DOI

[5]
Yang B, Li S. Multifocus Image Fusion and Restoration with Sparse Representation[J]. IEEE Transactions on Instrumentation and Measurement, 2010, 59(4): 884-892.

DOI

[6]
Liu Y, Liu S, Wang Z. A General Framework for Image Fusion Based on Multi-scale Transform and Sparse Representation[J]. Information Fusion, 2015(24): 147-164.

[7]
Yin H, Li Y, Chai Y, et al. A Novel Sparse-representation-based Multi-focus Image Fusion Approach[J]. Neurocomputing, 2016(216):216-229.

[8]
Liu G, Lin Z, Yan S, et al. Robust Recovery of Subspace Structures by Low-rank Representation[J]. IEEE Transaction on Pattern Analysis and Machine Intelligence, 2013, 35(1): 171-184.

DOI

[9]
Chung F R K. Spectral Graph Theory[M]. American Mathematical Soc., 1997.

[10]
Belkin M, Niyogi P. Laplacian Eigenmaps and Spectral Techniques for Embedding and Clustering[C]// Advances in Neural Information Processing Systems, 2002: 585-591.

[11]
Yang Y, Ding M, Huang S, et al. Multi-Focus Image Fusion via Clustering PCA Based Joint Dictionary Learning[J]. IEEE Access, 2017(5):16985-16997.

[12]
Lin Z C, Liu R S, Su Z X. Linearized Alternating Direction Method with Adaptive Penalty for Low-rank Representation[C]// Advances in Neural Information Processing Systems, 2011: 612-620.

[13]
Zhang Q, Levine M D. Robust Multi-focus Image Fusion Using Multi-task Sparse Representation and Spatial Context[J]. IEEE Transactions on Image Processing, 2016, 25(5): 2045-2058.

DOI

[14]
Liu Y, Wang Z F. Simultaneous Image Fusion and Denoising with Adaptive Sparse Representation[J]. IET Image Processing, 2015, 9(5): 347-357.

DOI

[15]
Liu Y, Liu S, Wang Z. Multi-focus Image Fusion with Dense SIFT[J]. Information Fusion, 2015(23): 139-155.

[16]
Xydeas C S, Petrovic V. Objective Image Fusion Performance Measure[J]. Electronics Letters, 2000, 36(4): 308-309.

DOI

[17]
Wang Z, Bovik A C, Sheikh H R, et al. Image Quality Assessment: from Error Visibility to Structural Similarity[J]. IEEE Transactions on Image Processing, 2004, 13(4):600-612.

DOI

[18]
Hossny M, Nahavandi S, Creighton D. Comments on'Information Measure for Performance of Image Fusion[J]. Electronics Letters, 2008, 44(18): 1066-1067.

DOI

[19]
Zhang Q, Ma Z K, Wang L. Multimodality Image Fusion by Using both Phase and Magnitude Information[J]. Pattern Recognition Letters, 2013, 34(2): 185-193.

DOI

Outlines

/