所有提交的电磁系统将被重定向到在线手稿提交系统。作者请直接提交文章在线手稿提交系统各自的杂志。

卫星图像的主要限制

投阿卜杜拉Al-Wassai* 1,喷嘴速度Kalyankar2
  1. 计算机科学部门,(SRTMU),印度nand闪存
  2. 大学校长,Yeshwant Mahavidyala, nand闪存、印度
通讯作者:投阿卜杜拉•Al-Wassai电子邮件:fairozwaseai@yahoo.com
相关文章Pubmed,谷歌学者

访问更多的相关文章全球研究计算机科学杂志》上

文摘

遥感技术已经被证明是一个强大的工具的监测厄撒€Ÿ年代表面来提高我们对环境的看法导致前所未有的传感器和信息技术的发展。然而,技术数据的有效利用和从遥感数据中提取有用的信息仍然是非常有限的因为没有单一传感器结合了最佳光谱,空间和时间分辨率。本文简要综述了卫星遥感的局限性。雷竞技苹果下载同时,评论图雷竞技苹果下载像融合技术的问题。它的结论,根据文献,遥感仍缺乏软件工具从遥感数据中提取有效的信息。权衡的光谱和空间分辨率仍将需要新的先进的数据融合方法最优利用远程传感器提取最有用的信息。

介绍

船上遥感卫星技术已被证明是强大的工具的监测厄撒¢€Ÿ年代表面和大气在全球、地区、甚至是当地规模,通过提供重要的报道,映射和土地覆盖分类特征,如植被、土壤、水和森林[1]。然而,传感器通常限制严重的缺点,因为没有一个传感器同时提供最佳的光谱、空间和时间分辨率。最近已发表的许多调查论文,提供历史的概述、发展,以及当前最先进的遥感数据处理的基于图像的应用领域(2 - 4),但主要局限在遥感领域并没有详细讨论以及图像融合方法。只有少数研究人员介绍,问题或图像融合的局限性,我们可以看到在其他部分。本文的目标是提供一个概述的主要限制在远程传感器卫星图像和多传感器图像融合。本文分为六个部分。第二部分描述了背景遥感;在本节中还有其他一些诸如;遥感图像;遥感分辨率考虑; such as Spatial Resolution, spectral Resolution, Radiometric Resolution, temporal Resolution; data volume; and Satellite data with the resolution dilemma. Section 3 describes multi-sensors Images; there are sub sections like; processing levels of image fusion; categorization of image fusion techniques with our attitude towards categorization; Section 4 describes the discussion on the problems of available techniques. And the conclusions are drawn in Section 5.

背景在遥感

文本的手稿应该安排在以下术语“遥感”是最常用的电磁信息采集技术[5]。这些技术覆盖了整个电磁波谱从低频无线电波到微波炉,亚毫米波、红外、近红外、可见、紫外线、x射线和伽马射线的光谱区域。虽然这个定义可能出现相当抽象,大多数人练习一种遥感在他们的生活中。遥感卫星技术,作为一门科学,处理采集、处理、分析、解释,利用获得的数据来自空中和空间平台(如飞机和卫星)[6]。
在星载遥感传感器安装车载宇宙飞船环绕地球。通常有几种遥感卫星发射进入特殊的轨道,地球静止轨道和太阳同步轨道。在地球静止卫星将出现静止的地球表面[7]。这些轨道使卫星总是查看同一地区气象卫星等在地球上。地球观测卫星通常跟随太阳同步轨道。太阳同步轨道近极地轨道的高度是卫星总是通过在给定的纬度位置在同一当地时间[7],这样(国税局、陆地卫星位置…等等)。
有两种基本类型的遥感系统根据能量的来源:被动和主动的系统。一个被动的系统(例如陆地卫星TM, SPOT-3 HRV)使用太阳作为电磁辐射的来源。来自太阳的辐射与表面相互作用(例如通过反射)和探测器在遥感平台测量反射的能量。一个活跃的遥感系统(如ERS-2和RADAR-SAT)携带在自己的电磁辐射源。这个电磁辐射指向表面和能量从表面反射记录[6]。这能量与广泛的波长有关,形成了电磁波谱。波长通常以微米(1×10−6 m,μm)。离散的连续波长(称为波段)得到的名字如微波波段,红外波段,可见乐队。图1中给出了一个例子,它显示了整个电磁波谱的一部分。很明显,可见波段(0.4到0.7μm),由人类的眼睛里,感觉到电磁波谱的只占一个很小的部分。特定的遥感仪器是为了在一个或多个波段运作,与预定目标的特点选择[8]。 Those electromagnetic radiations pass through composition of the atmosphere to reach the Earth‟s surface features. The
图像
大气成分引起的波长依赖吸收和散射的辐射。电磁辐射的波长部分或完全通过大气传播被称为大气窗口[6]。传感器遥感系统必须设计等方式获得他们的数据在这些教条的大气窗口。一个重要的研究基地建立了描述大气遥感的价值;表面条件;过程和这些工具被证明是成本的一个最有效的手段记录量化有关地球的信息。近几十年来,卫星传感器的出现我们远程记录信息的能力扩展到整个地球。电磁光谱证明如此宝贵,因为电磁波谱的不同部分一致反应表面或大气现象在特定的和可预测的方法。单一表面材料会表现出一个变量响应在整个电磁波谱是独一无二的,通常称为光谱曲线。图2提供了一个示例的一个典型的电磁波谱响应绿色植被。 Vegetation has a high reflectance in the near infrared band, while reflectance is lower in the red band. Knowledge of surface material Reflectance characteristics provide us with a principle based on which suitable wavebands to scan the Earth surface. A greater number of bands mean that more portions of the spectrum are recorded and greater discrimination can be applied to determining what a particular surface material or object is. Sensors that collect up to 16 bands of data are typically referred to as multispectral sensors while those that collect a greater number (typically up to 256) are referred to as hyperspectral.
一般来说,遥感已经成为一个重要的工具在许多应用程序中,提供许多优点超过其他方法的数据采集:
卫星提供的空间覆盖大面积和高光谱分辨率。
卫星可以查看一个特定区域反复使用相同的成像参数。遥感的数字数据格式允许直接数字处理的图像和与其他数据的集成。
遥感图像
遥感图像有两种形式:胶片形式和数字形式,与一个对象的属性如反射。当一个遥感图像和照片的收集,一般的术语“意象”是经常应用。图像是两种类型的单色和多色图像形象。单色图像是一个二维光强函数,和空间坐标和的值在图像的亮度成正比。如果我们有一个五彩缤纷的形象,是一个向量,其中每个组件显示的亮度图像点对应的颜色带。
数字图像是一个图像f (x, y),离散空间联合纵坐标和亮度。它是由一个二维整数数组,或一系列的2维数组,每个颜色一个乐队[11]。数字化亮度值称为灰度级值。注意,数字图像是由有限数量的元素,每一种都有一个特定的位置和价值。
被称为图像元素,每个元素图像元素,图像的基本单位,和像素[12],即使将它定义为一个„图片elementA¢€Ÿ。像素可能意味着不同的事情在不同的上下文中,有时会发生冲突的情况下同时存在。一个像素可能被认为[13]:
1。单个物理传感器阵列的元素。例如,半导体的图片集或者特点的x射线探测器阵列或数码相机传感器。
2。一个元素在图像矩阵在计算机。灰度图像有一个矩阵。对于彩色图像将会有三个矩阵,或一个矩阵。
3所示。一个元素显示在监视器或数据投影仪。至于数字颜色传感器,每个像素的彩色监视器显示将由红色,绿色和蓝色元素。很少有一一对应的数字图像中的像素和像素之间在monitor显示图像。
图像数据由computerA新¢€Ÿs显卡来显示图像的尺寸和分辨率,适合观众和监控硬件。
在遥感图像中,一个像素是最广泛使用这一术语表示一个数字图像的元素。每个像素代表地球表面上的一个区域。一个像素强度值和二维图像的位置地址。强度值代表测量的物理量,如太阳辐射在给定波长频带反映从地面发射红外辐射或背散射雷达强度。这个值通常是平均值为整个地面区域的像素。
一个像素的强度数字化和记录为一个数字号码。由于有限的存储容量,数码存储有有限数量的比特数(二进制数字)。频繁的辐射分辨率表示的二进制数字的数目,或部分,需要代表的可用范围亮度值[18]。例如,一个8位数字的范围从0到255的数字(即28)。检测强度值需要扩展和量化,以适应在这个范围的值。在辐射校准图像,实际强度值来源于像素数字号码。
数字图像处理是指处理领域的数字图像通过数字计算机[14]。数字图像处理有广泛的应用,比如通过卫星和其他航天器,遥感图像传输和存储业务应用,医疗处理、雷达、声纳、和声学图像处理、机器人和自动化检测的工业部件[15]。为了从遥感图像中提取有用的信息,遥感图像处理的开发,以应对关心照片[11]三个主要问题:
图像数字化和编码便于传输、印刷和存储的图片。
图像增强和恢复秩序,例如,更容易解释的照片,其他行星的表面由各种探测器。
图像分割和描述作为机器视觉的早期阶段。
有不同的图像解释图像对应类型等;多光谱和全色(PAN)只由一个乐队和显示为灰度图像。多光谱图像的一个重要的优势是能够检测表面材料结合光谱波段之间的重要差异。在一个乐队,不同的材料看起来几乎是一样的。通过选择特定的乐队组合,可以对比各种材料在他们的背景下通过使用颜色。彩色合成图像将显示真彩色的还是假彩色合成图像。由此产生的彩色合成图像像真正的颜色接近人眼的观察。而发生错误的颜色组合接近或短红外波段,蓝可见乐队是不习惯和乐队shifted-visible绿色传感器带蓝色枪,可见红色传感器带绿色的枪和红色的近红外光谱带枪。
2.2遥感分辨率的考虑
地球观测卫星提供各种各样的图像数据具有不同特点的空间、光谱、放射、时间分辨率(见图3)。分辨率被定义为整个遥感系统的能力呈现大幅定义图像。分辨率遥感的类型是不同的。自然必须了解每一种类型的决议为了从遥感影像提取有意义的生物物理信息[16]。
答:空间分辨率
成像系统的空间分辨率并不是一个简单的概念来定义。它可以以许多不同的方式,根据userA¢€Ÿ年代的目的。最常用的测量,基于几何属性成像系统的瞬时视场(IFOV)传感器[17]。IFOV是地面区域的传感器在一个给定时刻感觉到时间。空间分辨率是依赖于IFOV。ground-projected由IFOV给出的尺寸,这是依赖于传感器的高度和视角[6]。IFOV是越细,越高的空间分辨率。然而,这种内在的分辨率通常可以退化的其他因素,引入模糊的图像,如不当集中、大气散射和目标运动。其他方法测量成像系统的空间分辨能力的基于系统的能力区分指定目标[17]。然后我们可以说,空间分辨率是衡量最小的特性,可以观察到在一个图像[6]。 For instance, a spatial resolution of 79 meters is coarser than a spatial resolution of 10 meters. Generally, the better the spatial resolution is the greater the resolving power of the sensor system will be [6]. Other meaning of spatial resolution is the clarity of the high frequency detail information available in an image. Spatial resolution is usually expressed in meters in remote sensing and in document scanning or printing it is expressed as dots per inch (dpi).
图像
b .光谱分辨率
光谱分辨率是指特定波长间隔的尺寸和数量在电磁波谱的传感器敏感。例如,SPOT全色传感器被认为有粗糙的光谱分辨率,因为它记录EMRμm 0.51和0.73之间。另一方面,乐队3陆地卫星TM传感器具有良好的光谱分辨率,因为它记录EMR在0.63和0.69之间μm [16]。
一般来说,光谱分辨率描述了传感器的定义好波长间隔。光谱分辨率越高,频谱带宽越窄。如果平台有几个光谱波段,通常4 - 7乐队,他们被称为多光谱,如果谱带的数量数以百计,他们被称为高光谱数据。
c .辐射分辨率
遥感系统的辐射分辨率是衡量有多少灰色水平测量之间的纯黑色和纯白色[6]。灰色的数量水平可以表示为一个灰度图等于2 a¢害怕,其中n是在每个像素的比特数[20]。频繁的辐射分辨率表示的二进制数字的数目,或一些必要表示可用的范围亮度值(18、20)。更大的动态范围的传感器导致更多的细节被明显的图像。陆地卫星传感器记录8位图像;因此,它可以测量256独特的灰色值反映能源而Ikonos-2有着数辐射分辨率(2048灰度值)。换句话说,高辐射分辨率允许同步观测的高和低对比场景中的对象[21]。
d .时间分辨率
时间分辨率是指时间的长度卫星完成一整个轨道周期。它也指频率传感器获得图像的特定区域。例如,地球的陆地卫星卫星可以查看同一地区每16天。现货,另一方面,可以重新审视同一地区每三天。因此,遥感系统的绝对时间分辨率图像相同的区域在同一视角一次等于这段时间。卫星不仅提供最好的机会频繁的数据覆盖还定期保险。
e .数据量
数字数据可以的体积大,多光谱数据,作为特定区域覆盖着许多不同的波长。例如,占地面积约3波段多光谱点图像用一个像素在地上20米的分离。所以大约有60×60平方公里像素/图像,每个像素值在每个频带编码使用一个8位(1个字节)数字号码,给大约2700万字节/形象。
相比之下,平底锅的数据只有一个乐队。因此,潘系统通常旨在让比多光谱系统更高的空间分辨率。例如,发现锅现场有相同的覆盖率约60×60平方公里,但像素大小10米,给大约6000×6000像素,总共约3600万字节/形象。如果一个多光谱发现现场数字化也10 m像素大小,数据量将达到1.08亿字节。
卫星数据和解决困境
电流传感器技术允许高分辨率卫星传感器的部署,但有一个主要限制的卫星数据和解决困境的休耕制:
2.4光谱分辨率和信噪比之间的权衡。
2.5有一个辐射分辨率和信噪比之间的权衡。
2.6有一个权衡相关数据量和空间分辨率
2.7之间有一个权衡空间和光谱分辨率。
为解释上述限制如下:
光谱分辨率和信噪比之间的权衡。不幸的是,它不可能增加一个传感器的光谱分辨率只适合userA¢€Ÿ年代需要;是要付出代价的。高光谱分辨率降低传感器输出的信噪比。信号的信息内容在传感器接收到的数据,而噪声是意外变化添加到信号。必须在两者之间寻求妥协的窄频带的要求(高光谱分辨率)和低信噪比[17]。
辐射分辨率和信噪比之间的权衡。是没有意义的有一个步长小于数据中的噪声水平。低质量的仪器具有高噪声水平将必要的,因此,辐射分辨率较低与高质量相比,高信噪比的乐器。也高辐射分辨率与数据存储和传输速率可能冲突。
在[22]描述了权衡相关数据量和空间分辨率”空间分辨率的增加会导致数据量成倍增加(这应该收集)多光谱数据时尤为重要。从收集到的数据量传感器必须与国家能力传播率,归档和处理能力。这将导致数据量有限的困境,提高空间分辨率必须补偿减少的其他数据敏感参数,如宽度、光谱和辐射分辨率、观察和数据传输时间”。
成像传感器基于他们的设计有一定的信噪比。反射的能量目标必须有一个足够大的信号水平为目标检测的传感器。信号电平的反射能量增加如果信号收集在一个更大的IFOV或者收集更广泛的光谱带宽。收集能量在一个更大的IFOV降低空间分辨率,同时收集在一个更大的带宽降低它的光谱分辨率。因此,有一个权衡的空间和光谱分辨率传感器[21]。
大多数光学遥感卫星携带两种类型的传感器:女士平底锅和传感器。多光谱传感器记录信号在狭窄的乐队在宽IFOV锅传感器记录信号在一个窄IFOV广泛的频谱。因此,女士带光谱分辨率更高,但较低的空间分辨率相关的锅乐队相比,具有更高的空间分辨率和光谱分辨率较低[21]。目前卫星图像的空间分辨率光学遥感急剧增加从几十米到米和< 1米(见表1)。
传感器都有一个有限数量的光谱波段(例如Ikonos和Quickbird),只有少数非常高的光谱分辨率传感器空间分辨率较低。但有一个权衡在光谱和空间分辨率将依然存在。
图像
图像
多传感器数据融合的背景
图像融合是一个更一般的主题的子区域的数据融合[25]。的concept of multi-sensor data fusion is hardly new while the concept of data fusion is not new [26]. The concept of data fusion goes back to the 1950‟s and 1960‟s, with the search for practical methods of merging images from various sensors to provide a composite image. This could be used to better identify natural and manmade objects [27]. Several words of fusion have appeared, such as merging, combination, synergy, integration. Different definitions can be found in literature on data fusion, each author interprets this term differently depending on his research interests. A general definition of data fusion is given by group set up of the European Association of Remote Sensing Laboratories (EARSeL) and the French Society for Electricity and Electronics (SEE, French affiliate of the IEEE), established a lexicon of terms of reference. Based upon the works of this group, the following definition is adopted and will be used in this study: “Data fusion is a formal framework which expresses means and tools for the alliance of data originating from different sources. It aims at obtaining information of greater quality; and the exact definition of „greater quality‟ will depend upon the application” [28]. Image fusion forms a subgroup within this definition and aims at the generation of a single image from multiple image data for the extraction of information of higher quality. Having that in mind, the achievement of high spatial resolution, while maintaining the provided spectral resolution, falls exactly into this framework [29].
图像融合的处理水平
多传感器数据融合可以在三种不同处理水平执行根据融合发生的阶段即像素、特征和决策水平表示[29]。下面的描述和插图的融合水平(见图4)给出更多细节。
像素级融合
在进行像素级融合,这是处理一个新的图像形成的最低水平的组合多个图像增强与每个像素相关的信息内容。它使用每个像素的DN或辐射值不同的图像以获得有用的信息通过某种算法。在Fig.4.a提供说明。潘女士是基于像素的融合
图像
还一个像素级融合,创建新值或模仿女士从锅里的DN值和图像。
3.1.2的特征级融合
这是一个中级图像融合。这个水平可以作为一种手段,创建额外的复合特性。特性可以是像素强度或边缘和纹理特性[30]。各种各样的特性被认为是根据图像的性质和应用的融合图像。等功能原语的功能涉及提取边缘,地区,形状、大小、长度或图像部分,与类似的强度图像和特征融合在同一地理区域的不同类型的图像。这些提取的特征会结合使用统计方法或其他类型的分类器(见Fig.4.b)。
必须注意,特征级融合包括融合的特性集的特性集相同的原始数据或不同来源的数据表示相同的成像场景。同样,如果特性集起源于相同的特征提取或选择算法应用到相同的数据,特征级融合应该很容易。然而,特征级融合特性集时难以实现来自不同的算法和数据来源[31]。
3.1.3决定/对象级融合
决策级融合包括合并信息在更高层次的抽象,结合来自多个算法来产生最终融合的结果决定(见Fig.4.c)。输入图像信息提取的单独处理。获得的信息然后被组合应用决策规则加强共同解释[32]。
3.2。分类的图像融合技术
有许多盘磨技术或基于像素图像融合过程技术。有两种类型的图像融合过程中可用的文学:
1。图像融合过程技术基于使用锅图像。
2。图像融合过程技术基于工具。
在[22]提出的第一种分类的图像融合技术,取决于使用平底锅信息在融合过程中技术,可以分为三类:融合过程使用所有全色波段频率,使用选定的全色波段融合过程频率和使用间接全色波段融合过程。
第二种类型的图像融合过程技术基于工具中发现许多文献不同的分类,如:
在[33]分类锅锐化技术分为三类:colour-related技术、统计方法和数值方法。第一节课包括颜色成分三个图像的乐队在RGB颜色空间以及更复杂的色彩转换。第二类包括乐队统计,如主成分(PC)变换。第三类包括图像等算术运算乘法,求和和图像定量配给以及小波等复杂的数值方法。
在[34]介绍了图像融合技术的另一个分类:投影和替换方法,相对光谱贡献和„空间改善注射structuresA¢A€Ÿ(ame´loration de la分辨率空间par注入de结构弱拍)的概念。第一节课的这些方法,项目图像到另一个坐标系和替代一个组件。第二类是可比的二等[33],除了这个类别是局限于乐队配给和算术组合。是一种多尺度技术概念的基础上,注入高空间信息多光谱图像。虽然这个分类方案有一些优点。
在[35]分类算法对遥感图像进行像素级融合分为三个类别:组件替换(CS)融合技术,modulation-based融合技术和多分辨率分析(MRA)的融合技术。
这项工作提出了另一个分类方案,图像融合技术基于像素的图像融合方法由于其数学精度。它可以分为四类基础融合技术(图5显示了基于像素的图像融合技术的提出分类):
1。算术组合(AC)
2。组件替换(CS)
3所示。频率滤波方法(FFM)
4所示。统计方法(SM)
交流的方法
这一类包括简单的算术技巧。不同的算术组合和潘女士曾融合图像。他们直接执行某种类型的算术操作和潘女士乐队如加法、乘法,规范化,比率和减法以不同的方式组合在一起,从而达到更好的融合效果。这些模型假设之间有高度的相关性,每个女士乐队[32]。一些流行的盘磨AC方法从变换(BT);颜色标准化变换(CN);乘法方法(MLT) [36]。
计算机科学技术
在这一类的方法涉及到女士的输入图像转换为新组件。转换技术在这个类是基于实际的颜色空间到另一个空间的变化,更换一个新的获得组件的高度解决图像。CS融合技术包括三个步骤。首先,提出变换应用于女士乐队后注册到锅乐队。第二,一个组件的新数据空间类似于潘乐队
图像
高分辨率乐队所取代。第三,融合结果构造通过逆变换到原始空间[35]。一些流行的平底锅CS方法锐化强度色相饱和度IHS;强度HSV颜色值;饱和HLS颜色亮度和亮度分量(同相,橙色,青色轴)问组件(正交,洋红色,绿色轴)YIQ [37]。
3.2.3 FFM的
许多作者发现融合方法在空间域(高频插入过程)优于其他方法,来实现融合的结果是幽灵似地扭曲在某种程度上[38]。融合技术在这一组使用高通滤波器,傅里叶变换或小波变换模型之间的频率成分,注入空间细节图像的潘女士和女士引入到图像。因此,女士的原始光谱信息渠道或不仅仅是[22]的影响最小。这种算法利用古典过滤技术在空间域。一些流行的盘磨FFM高通滤波器添加剂的方法(HPFA)[39-40],高频高-添加方法(HFA)[36],高频调制方法(单位)[36]和小波transform-based融合方法(WT) [41-42]。
基于统计方法(SM)的图像融合
不同的SM女士曾融合和潘图像。他们执行某种类型的统计变量和潘女士。SM用于解决两个主要问题在图像融合颜色失真和操作符(或数据)的依赖。它不同于透光图像融合技术在两种原则的方式:它利用最小二乘等统计变量;平均本地相关或与当地相关技术的平均方差之间找到最合适的灰值图像乐队被融合和调整个人乐队融合结果的贡献减少颜色失真。一些受欢迎的SM盘磨的方法是地方平均匹配(LMM),局部均值和方差匹配(LMVM),回归变量替换(旅游房车)和本地相关模型(LCM) [43-44]。

讨论问题可用的技术

可用的融合技术有很多限制和问题。与这些融合技术相关的问题和局限性,许多研究报告(45-49)如下:
最重要的问题是融合图像的色彩失真。可用的技术融合的不足的主要原因是潘光谱范围的变化。锅的波长比多光谱波段图像更广泛。波长之间的这种差异导致相当大的色彩失真时融合高分辨率潘女士和图像。
大部分的现有方法开发“低”的空间分辨率图像的融合点和Land-sat TM等他们可能或可能不适合VHR图像的融合为特定任务。此外,运营商依赖现有的融合技术也是一个主要问题,即不同的运营商有不同的知识和经验通常为相同方法产生不同的融合结果。
陪审团仍然是在融合图像的好处相比原来的图像。还有一个缺乏措施评估的客观质量的空间和光谱分辨率融合方法。

结论

短暂,我们可以得出这样的结论:改善卫星sensorA¢€Ÿs决议可能只是为代价实现的失去一些原始卫星遥感的优势。由于底层物理原则,因此,它通常是不可能同时都有非常高的光谱和空间分辨率遥感数据在同一特别是来自轨道传感器,然而随着现代传感器技术的快速发展,技术的有效利用有用的信息从数据仍然非常有限。这些限制大大限制了许多应用程序的有效性所需的卫星图像光谱和空间分辨率高。
因此,介绍了多传感器数据融合来解决这些问题。然而,相关问题和限制在以上部分解释。因此,研究技术的发展是必要的新的先进的数据融合方法提高遥感数据的需要。此外,一个新的绩效评估标准和自动质量评估方法来评估融合的好处有,可以得出最终结论的最合适的方法有效地利用这些传感器融合。

引用

  1. 西蒙,g;淀粉,a;其足球俱乐部;媒体报道,mit获得Bruzzone l ., 2002。“遥感图像融合技术的应用”。正,融合2002年3至。
  2. 敏,S.W.元,M。,Cerveny, R.S., Giri, C.P., 2008. Comparison of remote sensing image processing techniques to identify tornado damage areas from landsat TM data. Sensors 8 (2), pp.1128-1156.
  3. t . Blaschke, 2010年。“基于对象的图像分析遥感”。审查Springer, ISPRS杂志摄影测量和遥感65(2010),页。- 18。
  4. Kai Wang史蒂文·e·富兰克林Xulin郭,马克•Cattet 2010。“遥感生态、生物多样性和保护:回顾从遥感专家”的角度。评论文章,传感器2010,9647 - 9667;doi: 10.3390 / s101109647
  5. Elachi c, van Zyl J。,2006年。“介绍遥感的物理和技术”。约翰•威利& Sons . n:行情)。
  6. 吉布森p . J。,2000年。介绍遥感:原则和概念。劳特利奇-Taylar &弗朗西斯集团。
  7. 罗迪D。,2001年。“卫星通信”。第3版,麦格劳-希尔公司,有限公司
  8. Tso和马瑟p . M。,2009年。“遥感数据分类方法”。第二版,泰勒和弗朗西斯集团有限责任公司。
  9. 佐治亚州,G。,2002年。“成像的科学”。物理研究所出版公司,伦敦。
  10. 霍夫尔,点,1978年。生物和物理因素computeraided分析技术应用到远程传感器数据,在遥感定量方法,由P.H.情郎和克里·戴维斯(Eds)、麦格劳-希尔图书公司,pp.227 - 289。
  11. Petrou M。,1999年。“图像处理基本原理”。威利& Sons,有限公司
  12. 冈萨雷斯r . c和森林r E。,2002年。“数字图像处理”。第二版。新世纪公司。
  13. 伯恩R。,2010年。“数码影像医学原理”。斯普林格出版社伦敦有限公司。
  14. 冈萨雷斯r . C。,Woods R. E. and Eddins S. L., 2004. “Digital Image Processing Using MATLAB®”. Pearson Prentice-Hall.
  15. Jain a K。,1989年。“数字图像处理原理”.Prentice-Hall公司。
  16. 詹森jr,1986年。介绍数字图像处理遥感的角度来看”。恩格尔伍德悬崖,新泽西:新世纪。
  17. 马瑟p . M。,1987年。遥感图像的计算机处理。约翰威利和儿子。
  18. 理查兹j . A。贾,X。,1999年。“遥感数字图像分析”。第3版。施普林格-柏林-海德堡纽约。
  19. 洛根。,1998年。“发展与XIELIB成像的应用程序”。Prentic大厅。
  20. Umbaugh s E。,1998年。“计算机视觉和图像处理:如今的方法定量输液泵使用工具”。Prentic大厅。
  21. Pradham P。,Younan N. H. and King R. L., 2008. Concepts of image fusion in remote sensing applications”. In Tania Stathaki “Image Fusion: Algorithms and Applications”. Elsevier Ltd.pp.393-482.
  22. 希尔J。,Diemer C., Stöver O., Udelhoven Th.,1999. “A Local Correlation Approach For The Fusion Of Remote Sensing Data With Different Spatial Resolutions In Forestry Applications”. International Archives of Photogrammetry and Remote Sensing, Vol. 32, Part 7-4-3 W6, Valladolid, Spain, 3-4 June, 1999.
  23. 2010年张Y。。“十年的遥感技术进步和CRC-AGIP实验室研究专家组”。2号GEOMATICA卷。64年,2010页,173年到189年。
  24. 石质的,真实再现2008年。成像卫星ASPRS指导土地。http://www.asprs.org/news/satellites/ASPRS_DATA-BASE _021208。pdf(去年访问2012年1月15日)。
  25. 许s . H。,Gau P. W., I-Lin Wu I., and Jeng J. H., 2009,“Region-Based Image Fusion with Artificial Neural Network”. World Academy of Science, Engineering and Technology, 53, pp 156 -159.
  26. Llinas J。和霍尔d . L。,1998, "An introduction to multi-sensor data fusion”. IEEE, VI, N° 1, pp. 537-540.
  27. 王Z。,Djemel Ziou, Costas Armenakis, Deren Li, and Qingquan Li,2005..A Comparative Analysis of Image Fusion Methods. IEEE Transactions On Geoscience And Remote Sensing, Vol. 43, No. 6, JUNE 2005,pp. 1391-1402.
  28. Ranchin t和瓦尔德L。,2000年。“高空间和光谱分辨率图像融合:弱拍概念及其实现”。摄影测量工程、遥感、Vol.66第一,pp.49 - 61。
  29. 波尔C。,1999年。“工具和方法融合图像的不同空间分辨率”。国际摄影测量与遥感、档案32卷,7-4-3将一部分,巴利亚多利德,西班牙,6月3 - 4日,
  30. 侯尔s和Tiwary U。2004。一个¢€Ÿ¢€Ÿ功能级别的多模态医学图像融合提升小波变换域”。第26届国际研讨会论文集IEEE磨床的旧金山,CA,美国,1479 - 1482页
  31. Chitroub年代。,2010年。“分类器组合和分数级融合:概念和实用方面”。国际期刊的图像和数据融合,卷。1、2号,2010年6月,第113 - 135页。
  32. 董J。,Zhuang D., Huang Y.,Jingying Fu,2009. “Advances In Multi-Sensor Data Fusion: Algorithms And Applications “. Review ,ISSN 1424-8220 Sensors 2009, 9, pp.7771-7784.
  33. 波尔C。,Van Genderen J. L., 1998, "Multisensor image fusion in remote sensing: concepts, methods and applications", ”.(Review Article), International Journal of Remote Sensing, Vol. 19, No. 5, pp. 823-854.
  34. 瓦尔德L。,1999, “Definitions And Terms Of Reference In Data Fusion”. International Archives of Photogrammetry and Remote Sensing, Vol. 32, Part 7-4-3 W6, Valladolid, Spain, 3-4 June,
  35. 张J。,2010年。“多源遥感数据融合:现状和趋势”,国际期刊的图像和数据融合,1卷,1号,5-24页。
  36. 投a . Al-Wassai喷嘴速度Kalyankar, a . a . Al-Zuky 2011。“算术和频率过滤方法基于像素的图像融合技术”。IJCSI国际计算机科学杂志的问题,8卷,问题3,1号,2011年5月,页113 - 122。
  37. 投a . Al-Wassai喷嘴速度Kalyankar, a . a . Al-zuky 2011。“基于IHS变换的图像融合”。全球研究期刊》的研究在计算机科学中,卷2,5号,2011年5月,页70 - 77。
  38. Gangkofner G。,P. S. Pradhan, and D. W. Holcomb, 2008. “Optimizing the High-Pass Filter Addition Technique for Image Fusion”. Photogrammetric Engineering & Remote Sensing, Vol. 74, No. 9, pp. 1107–1118.
  39. Lillesand T。,and Kiefer R.1994. “Remote Sensing And Image Interpretation”. 3rd Edition, John Wiley And Sons Inc.
  40. Aiazzi B。,S. Baronti , M. Selva,2008. “Image fusion through multiresolution oversampled decompositions”. in Image Fusion: Algorithms and Applications “.Edited by: Stathaki T. “Image Fusion: Algorithms and Applications”. 2008 Elsevier Ltd.
  41. Aiazzi B。,Baronti, S., and Selva, M., 2007. “Improving component substitution pan-sharpening through multivariate regression of MS+Pan data”. IEEE Transactions on Geoscience and Remote Sensing, Vol.45, No.10, pp. 3230–3239.
  42. 马利克n . H。,S. Asif M. Gilani, Anwaar-ul-Haq, 2008. “Wavelet Based Exposure Fusion”. Proceedings of the World Congress on Engineering 2008 Vol I WCE 2008, July 2 - 4, 2008, London, U.K.
  43. 投a . Al-Wassai喷嘴速度Kalyankar, Al-Zuky, 2011 c。“基于像素图像融合技术的统计方法”。国际期刊的人工智能和知识发现技术问题3,7月,2011 5,5 - 14页。
  44. 投a . Al-Wassai喷嘴速度Kalyankar, a . a . Al-zuky 2011。“多传感器图像融合基于部件级”。国际先进研究期刊》的研究在计算机科学中,卷2,4号,2011年7 - 8月,页354 - 362。
  45. 张J。,2010年。“多源遥感数据融合:现状和趋势”,国际期刊的图像和数据融合,1卷,1号,5-24页。
  46. 投a . Al-Wassai喷嘴速度Kalyankar, a . a . Al-zuky 2011。“多传感器图像融合基于部件级”。国际先进研究期刊》的研究在计算机科学中,卷2,4号,2011年7 - 8月,页354 - 362。
  47. 投阿卜杜拉•Al-Wassai喷嘴速度Kalyankar, 1012年。“小说度量方法评价的空间增强Pan-Sharpened图像”。计算机科学与信息技术(CS), 2 (3), 479 - 493。
  48. 投阿卜杜拉•Al-Wassai喷嘴速度Kalyankar阿里•a . Al-Zaky”空间和光谱质量评价基于边缘地区的卫星:图像融合”,IEEE计算机协会,2012年第二次国际会议上先进的计算机和通信技术,2012年ACCT pp.265 - 275。
  49. 投阿卜杜拉•Al-Wassai喷嘴速度Kalyankar阿里•a . Al-Zaky”空间和光谱质量评价基于边缘地区的卫星:图像融合,“帐目,第二次国际会议上先进的计算机和通信技术,2012年,pp.265 - 275。