到达我们 + 44 7456 035580
所有提交的电磁系统将被重定向到在线手稿提交系统。作者请直接提交文章在线手稿提交系统各自的杂志。

减少与医学图像估计使用信息散度测量基于迭代算法

乔Kalami*

部门电气工程Urmia Urmia分支,伊斯兰自由大学,伊朗。

通讯作者:
乔Kalami
部门电气工程
Urmia Urmia分支,伊斯兰自由大学,伊朗。

收到:10/01/2014;修改后:25/02/2014;接受:27/02/2014

访问更多的相关文章研究和评论:工程和技术雷竞技苹果下载杂志》上

文摘

我们提出了一种新的信息散度测量,称为散度,满足要求。然后决定地图生成的散度应用到测量coherenceof sourceactivity地图在像素级。我们进一步决定地图分割成两个区域。它是像素的集合,其活动模式在所有sourceimages类似,虽然它是像素的集合,其活动模式是不同的。我们fusionscheme是找到优化问题的解决方案。事实上,平均结果减少了对比的模式出现在只有一个来源。另一方面,最大的选择方案产生一些马赛克工件由于高频噪声引入突然之间切换两种小波系数来源

关键字

医学图像,算法,

介绍

随着新的成像方法的发展在医学诊断产生有意义的和空间的需要所有可用的图像数据集的正确组合。成像设备的例子包括计算机断层扫描、核磁共振成像或新正电子发射断层扫描(1- - - - - -3]。CT图像的图像融合与我们multiscaleinformation theoreticapproach。比较的目的,融合像素平均和基于多尺度最大的选择方案。参与遥感图像融合通常是:现代光谱传感器收集数百的光谱波段可以可视化和单独处理,也可以融合成一个单一的图像,根据图像分析任务。图像融合两个乐队从多光谱传感器与多尺度信息理论方法说明(2,3,4]。可以分解成一维可分离二维卷积运算以及图像的行和列。第一行的卷积的手,子样品。这两个输出图像的列分别然后卷积和业者,我们denotethe图像获得由0插入一行和一列双连续的行和列之间的零从粗尺度近似小波系数。二维可分convolutionsThese四运算也可以分解成六组一维曲线玲珑的行和列的数字图像像素间隔= (5- - - - - -9]。bi-orthogonalwavelet图像表示的深度由迭代计算。原始数字图像由iteratingthe重建恢复从这个小波表示。数字图像的同一场景取自不同的传感器。像素级图像融合问题,我们假设所有的源图像areregistered分辨率的不同,保险,治疗一个主题、特点的图像采集方法消除。我们fusionalgorithm的目标是构建一个合成图像捕获的信息在所有源图像结合起来,因此源图像数据压缩。为此目标(8),我们应用理论的信息融合方法基于biorthogonalwavelet representationbiorthogonal小波图像表示方程的定义。ofgenerality没有损失。对于任何一个活动模式向量定义aswhich跨尺度的能量集中在像素。

材料和方法

活动图描述的固有模式在源图像的信息。fusethe源小波系数,有必要比较everypixel活动模式。例如,如果活动模式是不同的在一些地区的平均生成合成图像的小波系数不是一个好的选择,因为它将创建工件。另一方面,如果thatregion相似的活动模式,采取平均将注入更多的信息来自不同来源的融合图像由于利益。合理的测量活动模式应该满足以下属性:它应该能够测量两个或两个以上的activitypatterns之间的区别。它应负的和对称的,应该消失为零当且仅当活动模式是sameIt应该达到最大值时,活动模式退化分布。这个约束确保解决方案保持关闭,不考虑图像外的场景中,我们。图像融合的目的是将从multi-sensordata互补信息,融合图像更适合于人的视觉感知的目的。不同的传感器所产生的数字图像我们信息理论融合方法首先计算一个双正交小波图像表示为每个,然后形成像素级活动地图。我们定义了一个normalizedactivity patterndegenerate分布。融合源waveletcoefficients,我们比较所有的源图像的归一化活动模式的差异,并创建一个选择mapThe选择地图进一步划分为两个决定区域。选择地图的平均值。它可以通过搜索获得单独eachwavelet系数的融合图像。 It is composite image definedby its wavelet coefficientswheresatisfies our fusion criteria, including multi-sensor navigation image fusion, multi-modality medical image fusion, multi-spectral remote sensing image fusion, and multi-focus opticalimage fusion are now presented to illustrate the fusion scheme defined above .To help helicopter pilots navigate under poor visibility conditions, such as fog or heavyrain, helicopters are equipped with several imaging sensors, which can be viewed bythe pilot in a helmet mounted display. A typical sensor suite includes both a low-light - television (LLTV) sensor and a thermal imaging forward-looking-infrared (FLIR) sensor. In the current configuration, the pilot can choose one of the two sensors to watchin his display. Sample LLTV and FLIR images are shown respectively. A possible improvement is to combine both imaging sources into a single fused image. Image fusion by standard techniques such as pixel averaging and multiscale basedmaximum selection scheme respectively. Notethat the pixel averaging method has a muddy appearance. This is due primarily to the Due to the limited depth-of-focus of optical lenses, it is often impossible to get an image which contains all relevant objects ’in focus’. One possibility to overcome this problem is to take several pictures with different focus points and combine them together into a single frame which finally contains the focused regions of all input images. It illustrates our multi-scale information theoretic fusion approach. For comparison purpose, fusion by pixel averaging and by multiscale based maximum selection scheme. It is difficult to define a general performance measure for fusion algorithms. Some performance metrics which are widely used in signal and image processing do not fit the application of image fusion. One such example is mean square error. Digital images of the same scene taken from different sensors and fusion result. A cost function characterizing the mean square error between the fused image and source inputs may be defined as where denote l norm. It is easy to find out that fusion by pixel averaging, i.e. minimizes this cost.

结果与讨论

像素均值法并不接受最好的融合方案。前面提到的是像素平均有一个泥泞的外观。图1说明增强灰度图像首先进行算法。这主要是由于这样的事实,减少平均结果对比的模式出现在只有一个源和不同模式的混合来自不同的来源。图像融合的性能测量的另一个可能的候选人是相关性:不同的融合结果之间的相关性和源图像。它表示两个源图像。

engineering-technology-grayscale-image

图1:增强的灰度图像首先进行算法

表示由像素平均融合输出,小波最大分别选择和该方法。之间的关系定义为代表的均值。基于相关的性能指标可以定义为输出,源图像融合在哪里。相关性最大化最小化均方误差的密切相关。由像素平均融合通常最大化的整体相关性。它列出了不同融合输出之间的相关性和源图像在多传感器的实验,多模、多光谱和multi-focus图像融合。遵循同样的理由均方误差的代价函数,我们得出结论,相关性也不是一个好的选择来衡量图像融合的性能。如果“地面实况”的融合结果,我们可以进行量化衡量工作表现的比较不同融合算法。上述实验multi-focus融合,一个理想的形象应该包含两个集中时钟和它可能是手动构造剪切和粘贴,作为证明。性能测量可以被定义为标准差之间的错误总结了标准差之间的理想形象,融合结果由不同的算法。提出的信息理论方法生成一个融合的结果,显然是最接近理想的图像中像素的输出平均和小波最大的选择方案。 It has to be pointed out that this method is restricted to specially constructed images and generally not applicable to real multi-sensor data where the ideal fusion is defined and cannot be obtained.图2显示噪声加法和提取从爬数据不相关的图片。没有一般的定量衡量工作表现的图像融合算法在当前文学除了特定的应用程序。结果决定地图使我们的方法更有效地保护重要特性的来源没有遭受工件。

engineering-technology-Noise-addition

图2:从爬数据噪声提取的加法和不相关的图片

我们已经成功地测试了新方案在多传感器融合,多模、多光谱和multi-focus图片。定量的性能测量融合的综合测试图像和视觉评估真正的多传感器图像融合表明提出的算法明显优于基于像素平均和小波最大选择融合方案。

结论

在本文中,我们推导出一种新的多尺度图像融合算法,旨在集成来自多传感器数据的互补信息,融合imagesare更适合视觉感知。我们制定了图像融合作为一个优化问题,我们提出一个解决方案。作为第一步,每个源图像的双正交小波变换计算来生成一个尺度空间表示。双正交小波可以合成完美重建滤波器具有线性相位,这是一个理想的属性对于图像融合应用程序。与“选择马克斯”类型的选择规则,我们提出的技术依赖于内在的统计结构。使用空间特定的小波系数从细到粗尺度,我们构造活动模式向量,我们使用新的散度进行比较。

引用

全球技术峰会