光学 精密工程  2018, Vol.26 Issue (11): 2795-2804   PDF    
oRGB颜色空间的夜视图像彩色融合
李郁峰, 蒋勇, 陈念年, 巫玲, 范勇     
西南科技大学 计算机科学与技术学院, 四川 绵阳 621000
摘要: 针对红外与可见光双波段夜视图像增强提出了基于oRGB颜色空间的彩色融合算法。选择亮度与颜色分离的对立色颜色空间,应用多尺度Top-hat变换方法将红外与可见光增强融合图像作为伪彩色图像的亮度分量,根据双波段图像的差异性并结合参考图像色调构造颜色分量;为避免线性变换的颜色传递方法容易造成灰度级压缩或过饱和情况,在分析颜色传递机理的基础上,使用非线性的直方图匹配方法实现颜色传递。实验结果表明,融合图像的颜色分布更自然,纹理细节、整体亮度和对比度等视觉特征表现更优。
关键词: 彩色融合      颜色传递      红外图像      oRGB     
Night-vision image coloration fusion in oRGB color space
LI Yu-feng , JIANG Yong , CHEN Nian-nian , WU Ling , FAN Yong     
School of Computer Science and Technology, Southwest University of Science and Technology, Mianyang 621000, China
*Corresponding author: FAN Yong, E-mail:fanyong@swust.edu.cn
Abstract: A novel image coloration fusion method in oRGB color space is presented for the enhancement of thermal infrared and visible night-vision images. We chose to construct a pseudo-color image and to execute color transfer in the same oRGB color space because this new space is reasonably simple, has intuitive axes, and is well-suited for computational applications. In order to preserve detail information from the source images in the final coloration image, the luminance component of the pseudo-color image is assigned to the fused image by a multi-scale top-hat transform. The two color components of the pseudo-color image are constructed according to the differences between the dual-band images and the color statistics of the reference image. To avoid gray-scale compression or over-saturation that can be easily caused by the linear color transfer method, we applied histogram matching rather than linear transformation to the two color components in the color transfer process. Experiments show that our method produces a coloration image with a more natural color distribution. Furthermore, visual features such as salient features and overall brightness and contrast are superior to those produced by other methods.
Key words: coloration fusion     color transfer     infrared image     oRGB    
1 引言

可见光图像传感器会因光照不足而导致成像质量急剧下降甚至失效,因此在夜视、微光(低照度)条件下,需要使用低照度相机或以像增强器为核心器件的夜视仪、或非可见光谱段的成像设备如近红外(0.78~1.1 μm,1.1~2.4 μm)、热红外(3~5 μm,8~14 μm)相机或合成孔径雷达(SAR)成像。但在夜视或微光条件下,即使使用可见光谱段的低照度相机或像增强器成像,获得的图像也因光照不足而缺少颜色信息。此外由于传感器物理特性限制或自然条件的影响,夜视成像往往表现为对比度低,灰度范围狭窄,视觉效果模糊,纹理信息缺失等特点,这增加了对图像特征和场景状态检视、理解的难度和工作强度[1-2]

人眼对彩色图像的目标识别、认知理解能力表现得更快更精确,因此使用彩色化方法描述夜视图像能增强对场景的感知和理解。其基本思想是将夜视多波段灰度图像进行组合、变换,最终映射到RGB颜色空间显示,试图得到符合视觉习惯的伪彩色图像或者具有类似自然日光色彩效果的假彩色图像,这就是所谓的多传感器夜视图像彩色融合。从目前公开的研究报道来看,多传感器图像的彩色融合研究仍然属于起步阶段,其难点在于如何获得既能保留源图像丰富的细节特征,又具有视觉友好、接近自然色彩特征的伪彩色或假彩色图像,达到有效增强图像可视性目的。

2 夜视图像彩色融合相关研究

近些年来国内外更多学者开始重视并研究多传感器夜视图像的彩色融合技术,提出了多种彩色融合算法,可分为伪彩色方法和假彩色方法。

2.1 伪彩色方法

这类方法依据主观的颜色认识,设计颜色映射规则,将来自不同传感器的夜视图像映射到RGB颜色空间的各个通道,或者映射到视觉去相关颜色空间的各个通道,或者还在映射前后使用线性、非线性变换对色彩对比度予以增强处理,得到能突出图像特征的伪彩色图像。

Waxman[3]等人最早提出了基于人视觉系统模型的多波段夜视图像彩色融合算法,该算法简单模拟人的视觉神经处理过程,色彩效果比较自然,但由于处理过程在空域进行,卷积模板只有单个的尺度,图像的细节特征损失比较严重,颗粒感较强。Toet[4]提出的彩色融合算法主要针对夜视条件下红外(8~12 μm)与微光(0.4~0.9 μm)图像的伪彩色融合与显示问题,并称之为基于像素的颜色映射。Huang等人[5]借鉴Toet[4]算法中强调图像独有成分的思想,提出可见光与红外夜视图像伪彩色融合算法。Jang[6]直接在IHS颜色空间构造伪彩色图像,将包含丰富空间信息的可见光与红外图像融合后作为Ⅰ分量,然后根据传感器物理特性和人对色彩的感知原理构造H、S分量,从而使融合图像既有较好的细节特征,同时又有较强的色彩对比度和视觉舒适度。

上述这些方法得到的彩色图像的色彩分布与场景的真实色彩无关,仅仅是为了突出图像的目标特征,这与医用彩超图像、夜视镜的绿光显示屏等典型应用类似。换言之,这些方法得到了具有优化效果的伪彩色图像,但颜色的赋予终究是主观的,获得颜色分布效果与场景实际的自然日光颜色并不相符(不相关)。

2.2 假彩色方法

这类方法基于颜色传递原理[7],将自然日光彩色图像(参考图像)的颜色统计属性传递给目标图像,从而获得符合视觉习惯、接近自然日光颜色特征的彩色图像,称之为假彩色图像。

Reinhard等人[8]研究表明,彩色图像各颜色分量的一阶和二阶统计值(均值和标准差)表达了图像的颜色分布特征即颜色风格,在亮度与色彩分离的lαβ颜色空间中应用简单的线性灰度变换,将一幅图像(参考图像)的颜色特征传递给另一幅图像(目标图像),即所谓的颜色传递。基于这一认识,Teot[9]提出了赋予夜视图像自然色彩效果的融合方法,该方法首先将两个或多个波段的夜视图像映射到RGB各通道形成伪彩色图像,再将其变换到lαβ颜色空间使用颜色传递方法,获得了类似于自然日光颜色的假彩色效果。基于颜色传递这一思路,为满足实时系统需求,提高算法效率,Toet团队后来又设计了基于颜色查找表的快速算法[10-16]

需要说明的是,Reinhard[8]提出在lαβ颜色空间进行颜色传递,主要因为lαβ是一种亮度与色彩分离颜色模型,并且与设备无关,方便对图像颜色操作。RGB与lαβ的关系是一个非线性的对数变换,计算复杂且效率低;另一方面,lαβ颜色空间中亮度分量动态范围与灰度图像的动态范围不同,因而不能使用高对比度的融合图像直接替换l分量形成细节丰富的彩色融合图像。Toet[9]借助HSV空间来解决这一问题,但增加了算法复杂性,李光鑫[17]则直接用灰度融合图像和多波段图像的差异构造YCbCr颜色分量并在同一颜色空间进行颜色传递,取得了较好的色彩效果。

假彩色方法需要首先构造伪彩色图像,然后选择合适颜色空间进行颜色传递。伪彩色构造与颜色传递在不同的颜色空间进行,并且采用基于颜色分量统计特性的颜色传递方法存在图像灰度级范围压缩或过饱和现象,从而造成源图像信息的损失。

本文夜视图像彩色融合算法的研究从颜色空间、颜色映射规则、颜色传递方法等方面综合考虑,算法设计目标是获得既能保留源图像的丰富细节特征,并具有视觉增强的伪彩色图像或者接近自然日光颜色特征的假彩色图像。

3 基于oRGB的彩色融合算法 3.1 算法概述

本文主要针对低照度相机(0.4~0.9 μm,反射成像)与热红外相机(8~14 μm,热辐射成像)双波段夜视图像的彩色融合算法展开研究,选用了M.Bratkova[18]新近提出的亮度与颜色分离的对立色oRGB颜色空间。伪彩色颜色分量构造的基本思路是,将双波段图像融合后作为亮度分量,根据双波段图像的差异性组合处理构造两个颜色分量。对伪彩色图像的颜色传递仍然在oRGB颜色空间进行。为了克服线性灰度变换的颜色传递容易造成的过饱和或低对比度情况,选择了非线性的直方图匹配方法实现颜色传递。设红外与可见光(或近红外)双波段图像分别表示为IR和Vis,参考图像表示为R,oRGB颜色空间各颜色分量分别表示为LCybCrg。算法流程如图 1所示,相应的算法步骤如下。

图 1 夜视图像彩色融合算法流程 Fig.1 Flowchart of the night-vision image coloration fusion algorithm

Step1.将参考图像R变换到oRGB颜色空间,计算各颜色分量统计参数,包括直方图、均值和标准差;

Step2.使用基于多尺度Top-hat变换的增强融合算法得到双波段图像IR与Vis的融合图像;

Step3.构造伪彩色图像,将融合图像作为亮度分量L,根据双波段图像的差异性和参考图像统计参数构造颜色分量CybCrg

Step4.如果仅需要得到伪彩色图像,则将伪彩色图像变换到RGB颜色空间显示,算法结束,否则继续;

Step5.使用非线性的直方图匹配方法对伪彩色图像的各颜色分量进行颜色传递,得到假彩色图像;

Step6.将假彩色图像变换到RGB颜色空间显示。

3.2 oRGB颜色空间

M.Bratkova[18]等人提了对立色颜色空间oRGB,该颜色空间类似于lαβ颜色空间,也属于亮度与颜色分离的颜色模型。但这一颜色模型具有视觉心理学上的对立坐标轴(白-黑、红-绿、黄-蓝),3个分量分别为亮度分量L,黄蓝分量Cyb和红绿分量Crg。oRGB与RGB颜色空间变换步骤如下。

首先将RGB变换到LC1C2颜色空间:

(1)

式(1)的线性变换将RGB颜色空间的立方体变为平行六面体,3个颜色轴分别为黑-白、黄-蓝、品红-青,相应的逆变换为:

(2)

以亮度轴(黑-白轴)为中心对色域平面进行非线性旋转,使红-蓝对立色与黄绿轴正交成为颜色轴。计算点(C1C2)在色域平面上的旋转角度:

(3)

(C1C2)变换到oRGB颜色空间中对应点(CybCrg)时旋转角度为:

(4)

oRGB中点(CybCrg)由对应点(C1C2)旋转得到:

(5)

计算oRGB到LC1C2逆变换时,旋转角度如下:

(6)

oRGB颜色空间模型中,归一化的RGB颜色分量(取值范围为[0, 1])变换到oRGB后,L分量的取值范围仍旧是[0, 1],而两色颜色分量的取值范围则变为[-1, 1]。

选择在oRGB颜色空间构造伪彩色图像并进行颜色传递有两个优势,一是oRGB属于对立色颜色空间,具有符合直觉意义的坐标轴,在构造伪彩色图像的映射规则时方便对颜色的操纵,有利于根据先验知识构造符合特定需求的颜色效果。二是由于oRGB也属于亮度与颜色分离(去相关)的颜色模型,在构造伪彩色图像时可以将包含丰富细节信息的融合图像指派给亮度分量,并可以直接在oRGB颜色空间实现颜色传递,减少颜色空间变换的次数。

3.3 伪彩色图像构造 3.3.1 亮度分量计算

为了在伪彩色图像中充分保留双波段夜视图像的空间(细节)信息,本文使用符合尺度空间理论的多尺度Top-hat变换方法的融合方法[19],将红外与可见光的细节增强融合图像作为伪彩色图像的亮度分量,而根据双波段图像的差异性并结合参考图像色调构造颜色分量。

基于多尺度变换的图像融合是当前的主流融合方法,如小波融合[20]等算法。这类基于线性滤波器和尺度空间理论的多尺度分析方法,模拟人的视觉特性,形成由粗糙到精细的分析策略,在图像融合应用中有着独到的优势。但应用线性滤波器得到图像的粗略近似可能与感兴趣的近似特征存在偏差,这意味着感兴趣的特征坐标变得不精确,这对图像融合规则的设计和最终融合质量带来了负面影响。基于形态学Top-hat非线性滤波器与线性滤波器的卷积运算相比具有更好的计算效率,这是因为线性滤波的乘运算在形态学操作中变成了加运算,求和运算变成了取大、取小运算。再者,由于Top-hat多尺度变换在空域进行且非下采样,而得到的亮、暗特征均为非负值,这给计算处理带来了方便性。基于这些考虑,结合形态学和尺度空间理论,本文应用了基于多尺度Top-hat变换的增强融合算法,将可见光与红外图像融合后作为伪彩色图像的亮度分量,融合算法详见文献[19]。

3.3.2 颜色分量构造

(1) 颜色分量构造

红外图像与可见光图像有着完全不同的成像物理特性,在构造伪彩色图像的颜色分量时首先要考虑两个传感器成像的差异性。另一方面,由于是对同一场景的成像,还要兼顾两个传感器图像对场景描述的相似性。此外,伪彩色图像的构造还要考虑颜色的丰富性即颜色个数。兼顾算法效率,两个颜色分量使用了简单的差值和乘积方式构造。

将两幅图像的像素差值作为其中一个颜色分量:

(7)

其中:源图像IRVis规范化的值域均为[0, 1],差值后的C1的值域为[-1, 1]。

将两幅图像对应像素的乘积作为另一个颜色分量:

(8)

式中:当两个像素值都比较大的时候乘积结果也比较大,两个值都比较小的时候乘绩结果也比较小,当两个值一大一小时乘积结果适中,因此乘积结果在一定程度上反映了像素值的相似性。另一方面,对于不同传感器获取的图像而言,相同坐标位置的像素具有不同的幅值、频率等特征,包含较强互补信息(一般来说,红外图像的细节要少于可见图像,相对于可见光而言可以把红外图像当作低频信号),将源图像以乘积的方式进行互调制,可以有效的综合源图像中的互补信息。需要说明的是,式(8)中乘积后开方是为了保证像素值在“量纲”上等同,常数系数是为了使C2规范到[-1, 1]区间。

(2) 颜色分量指派

由式(7)、(8)计算得到的两个分量C1(xy),C2(xy)及极性翻转后的-C1(xy),-C2(xy)共有8种可能的组合方式,不同的组合均可以指派给oRGB颜色空间的(Cyb(xy),Crg(xy))。具体指派给oRGB颜色空间哪一个颜色分量,应该根据参考图像整体色调确定。换言之,构造伪彩色图像时应该使其整体色调尽可能地接近参考图像,为后续的颜色传递过程提供与参考图像色调相近的输入图像,以期获得更好的颜色传递效果。

颜色分量的统计特征反映了图像的整体颜色风格,这里根据两个颜色分量与参考图像颜色分量均值的欧式距离指派颜色分量。将C1(xy),C2(xy)及极性翻转后的8种组合可表示为(pCi(xy),qCj(xy)),其中系数pq=±1,下标pq=±1且∀ij,首先计算Ci(xy)的均值:

(9)

其中:MN为像素的行列数,下标i=1,2。则颜色分量(pCi(xy),qCj(xy))对应的均值可表示为(pmiqmj)。同理将参考图像变换到oRGB颜色空间,分别计算两个颜色分量的均值,记为(mybmrg)。

颜色分量指派可表示为:

(10)

其中,选择哪一种组合即(pqij)根据(pmiqmj)与(mybmrg)欧式距离确定:

(11)
3.4 颜色传递

目前的夜视图像融合算法研究大多以Reinhard颜色传递方法[6]为基础,该方法实际上是以参考图像和目标图像统计值为参数进行线性灰度变换,变换后目标图像与参考图像在统计意义上具有相同的均值和方差,从而使目标图像具有类似于参考图像的颜色分布。但这一简单的线性灰度变换会造成图像灰度级范围的压缩或者越界,目标图像将表现为低对比度或者过饱和从而造成源图像的信息损失。直方图匹配是一种概念直观、理论严密的非线性灰度变换方法,直方图匹配后同样能获得与参考图像相同的均值和方差,从而实现颜色传递的目的,但不会造成目标图像灰度级范围压缩或过饱和现象,可以避免变换过程中图像信息的损失。

伪彩色图像是在oRGB颜色空间构造的,其亮度分量L(xy)是融合后图像,它全面综合了场景在两红外和可见两个谱段辐射、反射强度分布的空间信息。为了在融合图像中忠实的反映双谱段夜视图像的原始能量分布,因而对亮度分量L(xy)不作颜色传递。而Cyb(xy)、Crg(xy)构造时依据双波段差异性和参考图像色调,目的是为了起到颜色增强作用,因此本文在oRGB颜色空间仅对颜色分量Cyb(xy)、Crg(xy)使用基于参考图像的直方图匹配方法实现颜色传递,算法详见文献[21]。对亮度分量和颜色分量使用不同的处理策略,也符合亮度与颜色分离颜色模型的基本属性。

4 实验分析 4.1 实验数据

为了对比本文算法,选用了本研究领域的经典的Teot算法[9],该算法在RGB颜色空间构造伪彩色图像,在lαβ颜色空间实现颜色传递;另外选用李光鑫算法[15],该算法基于YCrCb颜色空间实现,其中伪彩色图像构造时使用了图像融合方法,但颜色传递仍然使用了线性变换方法。实验数据一部分使用了文献[9]中的实验图像,另一部分使用自主采集的图像,下面仅仅列出其中两组具有代表性的实验结果。鉴于目前还没有对夜视图像彩色融合效果比较可信的客观评价方法,实验结果主要根据融合图像的视觉效果予以主观对比评价。

4.2 实验结果

第一组实验如图 2(a)(b)(c)所示分别为可见光、长波红外图像和参考图像,为了方便对比,这组图像均来自文献[9]。Teot算法[9]简单地把红外图像指派给R通道,可见光图像指派给G通道,就得到了如图 2(d)所示的伪彩色图像。使用线性颜色传递方法在lαβ颜色空间对如图 2(d)所示伪彩色图像处理后得到如图 2(f)所示的假彩色图像,可以看出颜色传递后的图像中,道路部分出现了较严重的过饱和现象,纹理细节缺失。这是由于线性的颜色变换造成各颜色分量灰度范围拉伸而过饱和,之后从lαβ到RGB颜色空间变换还使用了对数运算,也会造成过饱和现象的进一步加剧。如果对过饱和各颜色分量规范化到[0, 1]之间,又会造成图像整体对比度下降,整体颜色分布与参考图像相差甚远,如图 2(e)所示。使用李光鑫[17]算法直接在YCbCr颜色空间构造伪彩色图像,其中Y分量使用了可见与红外融合图像,实验中选用了经典的离散小波融合算法[20],融合后的图像如图 3(g)所示;Cb、Cr的颜色分量使用Teot[9]伪彩色方法构造,最终得到的伪彩色图像如图 2(h)所示。在YCbCr颜色空间对伪彩色图像如图 2(h)使用线性颜色传递得到的假彩色图像如图 2(i)所示,可以看出在图像中道路部分仍然存在过饱和现象。本文方法在oRGB颜色空间构造伪彩色图像,其中亮度分量使用了多尺度Top-hat融合方法[19],融合结果如图 2(j)所示,两个颜色分量的构造考虑了红外与可见光图像的差异性和参考图像色调,构造的伪彩色图像如图 2(k)所示,其整体色调偏绿色,与参考图像的色调接近。图 2(l)所示是对颜色分量使用基于直方图匹配方法予以颜色传递后的图像,与图 2(f)图 2(i)相比,本文的融合效果在颜色分布、纹理细节等方面表现得更自然,整体的亮度和对比度更忠实于源图像(彩图见期刊电子版)。

图 2 第一组图像实验结果 Fig.2 Results of the first group experiment images

图 3 第二组图像实验结果 Fig.3 Results of the second group experiment images

第二组实验图像采集于傍晚的校园,红外图像采集使用了Gobi-2195长波红外(8~14 μm)相机,可见光图像采集使用了普通的数码像机。图 3(a)(b)(c)分别为可见光、热红外、参考图像,其中参考图像选用了同一场景的彩色图像,实验方案与前两组相同(彩图见期刊电子版)。从实验结果可以看出,Toet算法[9]的融合图像出现了更严重的过饱和现象,如图 3(f)中出现了大片的过饱和区域,图像整体亮度过高从而导致了颜色失真;图 3(e)是对各颜色分量的灰度级归范化到[0, 1]区间后的效果,可以看出规范化后图像的颜色过于灰暗,部分纹理细节由于亮度、对比度过低而损失。使用李光鑫算法[17]在YCbCr颜色空间融合效果如图 3(i)所示,其效果要优于Teot算法[9],但图像中仍然存在明显的过饱和区域。相对而言本文方法融合图像如图 3(l)的颜色分布更自然,对比度与源图像类似,纹理细节等表现较为突出。

上述两组实验中,Toet算法[9]得到伪彩色图像图 2(d)图 3(d)虽然对比度较高,红外图像中高亮目标在伪彩色图像中以红色色调突出显示,但与参考图像颜色分布差距极大,这导致颜色传递后的彩色图像如图 2(f)图 3(f)的色调偏黄或不够自然。李光鑫算法[17]在YCbCr颜色空间构造伪彩色图像并进行颜色传递,相比Teot方法省去了中间的颜色变换过程,但伪彩色图像同样与参考图像颜色分布差别很大如图 2(h)图 3(h)所示,最终假彩色图像如图 2(i)图 3(i)存在色调偏黄或不自然的情况。本文方法在oRGB颜色空间构造伪彩色图像并考虑了参考图像的色调,因此构造的伪彩色图像如图 2(k)图 3(k)与参考图像颜色整体色调较为接近,使用直方图匹配技术后图像如图 3(l)图 3(l)的颜色分布更自然。

需要说明的是,李光鑫[17]方法在YCbCr颜色空间构造伪彩色图像时,亮度分量的构造使用了小波融合方法[20, 21],而本文方法使用了多尺度Top-hat融合方法[22]构造亮度分量,融合图像过程中增强了细节表现能力,对比图 2(g)图 2(j)中的道路、图 3(g)图 3(j)中路边花台可以看出,融合图像的纹理细节表现能力更优。此外本文方法只对两个颜色分量使用直方图匹配实现颜色传递,融合方法构造的亮度分量保持不变,从实验最终融合效果来看,既达到了颜色传递目标,同时忠实地保持了源图像的细节和亮度和对比度特征。

5 结论

本文从算法框架整体考虑,综合了颜色空间选择、伪彩色图像构造、颜色传递等重点,设计基于oRGB颜色空间的彩色融合方法。实验结果表明,融合图像的颜色分布更自然,纹理细节、整体亮度和对比度等视觉特征表现更优。

进一步的研究工作可从几个方面着手,研究参考图像选择策略及智能选择方法;引入视觉心理机制,设计用于评估和算法优化的主观、客观质量评价指标。结合图像分析及图像理解最新技术,在伪彩色图像构造和颜色传递过程中对场景中不同区域使用不同的策略;研究针对视频序列具有颜色稳定性、可实时应用的融合算法。

参考文献
[1]
LI Y F, JIANG Y, GAO L, et al. Fast mutual modulation fusion for multi-sensor images[J]. Optik-International Journal for Light and Electron Optics, 2015, 126(1): 107-111. DOI:10.1016/j.ijleo.2014.08.136
[2]
高文, 朱明, 郝志成. 彩色夜视技术的研究进展[J]. 液晶与显示, 2016, 31(12): 1168-1179.
GAO W, ZHU M, HAO ZH CH. Survey of color night vision technology[J]. Chinese Journal of Liquid Crystals and Displays, 2016, 31(12): 1168-1179. (in Chinese)
[3]
WAXMAN A M, FAY D A. Color night vision:fusion of intensified visible and thermal IR imagery[J]. Proc. SPIE, 1995, 2463: 58-68. DOI:10.1117/12.212755
[4]
TOET A, WALRAVEN J. New false color mapping for image fusion[J]. Optical Engineering, 1996, 35(3): 650-658. DOI:10.1117/1.600657
[5]
HUANG G, NI G, ZHANG B. Visual and infrared dual-band false color image fusion method motivated by Land's experiment[J]. Optical Engineering, 2007, 46(2): 27001-27010. DOI:10.1117/1.2709851
[6]
JANG J H, RA J B. Pseudo-color image fusion based on intensity-hue-saturation color space[C]. IEEE International Conference on Multisensor Fusion and Integration for Intelligent Systems, 2008: 366-371. https://ieeexplore.ieee.org/document/4648093
[7]
骆媛, 张科, 纪明. 增强无人机态势感知的彩色图像融合方法[J]. 红外与激光工程, 2016, 45(S1): 200-206.
LUO Y, ZHANG K, JI M. Color image fusion method for enhancing situation awareness of ICA[J]. Infrared and Laser Engineering, 2016, 45(S1): 200-206. (in Chinese)
[8]
REINHARD E, ADHIKHMIN M, GOOCH B, et al. Color transfer between images[J]. IEEE Computer Graphics and Applications, 2001, 21(5): 34-41.
[9]
TOET A. Color the Night: Applying Daytime Colors to Nighttime Imagery[C]. Pro. SPIE, 2003, 5081: 168-176. http://adsabs.harvard.edu/abs/2003spie.5081..168t
[10]
TOET A. Natural colour mapping for multiband nightvision imagery[J]. Information Fusion, 2003, 4(3): 155-166. DOI:10.1016/S1566-2535(03)00038-1
[11]
HOGERVORST M A, TOET A. Presenting nighttime imagery in daytime colours[C]. 11th International Conference on Information Fusion, 2008: 1-8. https://ieeexplore.ieee.org/document/4632280
[12]
HOGERVORST M A, TOET A. Method for applying daytime colors to nighttime imagery in realtime[C]. Proc. SPIE, 2008, 6974: 1-9. https://www.mendeley.com/catalogue/method-applying-daytime-colors-nighttime-imagery-realtime/
[13]
TOET A, HOGERVORST M A. Towards an optimal color representation for multiband nightvision systems[C]. 12th International Conference on Information Fusion, 2009: 1417-1423. https://ieeexplore.ieee.org/document/5203711
[14]
HOGERVORSTM A, TOET A. Evaluation of a color fused dual-band NVG[C]. 12th International Conference on Information Fusion, 2009: 1432-1438. http://adsabs.harvard.edu/abs/2009SPIE.7345E..02H
[15]
HOGERVORSTM A, TOET A. Fast natural color mapping for night-time imagery[J]. Information Fusion, 2010, 11(2): 69-77. DOI:10.1016/j.inffus.2009.06.005
[16]
TOETA, HOGERVORST M A. Progress in color night vision[J]. Optical Engineering, 2012, 51(1): 1-19.
[17]
李光鑫, 徐抒岩, 董吉洪. 结构优化型颜色传递融合方法[J]. 电子学报, 2011, 39(1): 213-218.
LI G X, XU SH Y, DONG J H. Architecture optimized version color transfer based fusion method[J]. Acta Electronica Sinica, 2011, 39(1): 213-218. (in Chinese)
[18]
MARGARITA B, SOLOMON B, PETER S. oRGB:a practical opponent color space for computer graphics[J]. IEEE Computer Graphics and Applications, 2009, 29(1): 42-55. DOI:10.1109/MCG.2009.13
[19]
李郁峰, 冯晓云, 徐铭蔚. 基于多尺度top-hat分解的红外与可见光图像增强融合[J]. 红外与激光工程, 2012, 41(10): 2824-2832.
LI Y F, FENG X Y, XU W M. Infrared and visible image features enhancement and fusion using multi-scale top-hat decomposition[J]. Infrared and Laser Engineering, 2012, 41(10): 2824-2832. DOI:10.3969/j.issn.1007-2276.2012.10.050 (in Chinese)
[20]
BURT P J, ADELSON E H. Merging images through pattern decomposition[J]. Proc.SPIE, 1985, 575: 173-181. DOI:10.1117/12.966501
[21]
赵康, 吴谨. 一种改进的基于区域梯度——能量的图像融合方法[J]. 液晶与显示, 2016, 31(3): 331-337.
ZHAO K, WU J. Improved image fusion algorithm based on regional gradient and regional energy[J]. Chinese Journal of Liquid Crystals and Displays, 2016, 31(3): 331-337. (in Chinese)
[22]
徐铭蔚, 李郁峰, 陈念年, 等. 多尺度融合与非线性颜色传递的微光与红外图像染色[J]. 红外技术, 2012, 34(12): 722-728.
XU W M, LI Y F, CHEN N N, et al. Coloration of the low light level and infrared image using multi-scale fusion and nonlinear color transfer technique[J]. Infrared Technology, 2012, 34(12): 722-728. (in Chinese)