所有提交的电磁系统将被重定向到在线手稿提交系统。作者请直接提交文章在线手稿提交系统各自的杂志。

一种新的数字图像伪造检测方法使用支持向量机分类器

V.P.KAVITHA1和M.PRIYATHA2
  1. 助理教授、ECE系Velammal工程学院,钦奈,印度Tamilnadu
  2. PG学生(应用电子技术),部门的ECE Velammal工程学院,Tamilnadu、印度
相关文章Pubmed,谷歌学者

访问更多的相关文章国际先进研究期刊》的研究在电子、电子、仪表工程

文摘

使用图像已经增加一天在我们的生活中,创造的动机伪造图像同时也增加。随着数字技术的引入,数字图像已逐渐取代了原始的模拟照片。伪造的数字图像越来越简单,不会被发现的。在本文中极其常见的图像伪造称为图像拼接检测利用增强的脸提取技术和通用的分类器。我们提出一个伪造检测方法,用微妙的不一致性的颜色图像的照明。我们的方法使用全自动方法,需要最少的用户交互,实现这一目标,我们从光源集成信息估计图像区域类似的材料。从光源中提取人脸是地图。从提取的人脸特征提取做了使用这两种基于边缘和梯度算法。然后结合这些互补的线索(纹理,edge-baed)使用机器学习后期融合有助于伪造图像分类支持向量机分类器

关键字

数字图像伪造、拼接图像伪造检测,光源不一致,支持向量机分类器

介绍

数字信息时代的发展已经取代技术最先进的数字。摄影的变化要求难闻的化学品和暗室技巧操纵图像给了数字时代。搬到像素的世界,一个新的门打开图像伪造和伪造的阴暗面。的日子一去不复返了需要创建与模拟技巧拍摄相机或小心在暗房化学制剂。今天,操纵一个图像包括仅仅使用工具在数码暗房,如Adobe Photoshop或Macromedia焰火。与这些新技术容易被群众通过便宜的电脑,需要存在验证数字图像的真实性,因为我们增加了数字媒体的依赖。两个例子数字图像认证的重要性是一个见证了在新闻媒体,我们依靠提供准确的信息和第二法庭在某人的命运可能取决于一个数字图像的真实性作为证据。探索这些问题强调创建工具来帮助数字图像篡改的检测拼接图像。
图像拼接或蒙太奇照片是最常见的一种图像处理技术来创建伪造图像。图像拼接是一个简单的过程,作物和粘贴来自相同或不同地区来源。这是一个基本的步骤中使用数字蒙太奇照片,指完稿由粘连图像使用数字工具,如Photoshop。蒙太奇照片的例子中可以看到几个臭名昭著的新闻报道案件的使用伪造的图像。寻找在图像认证技术解决方案,研究人员最近开始开发新技术。
如图1所示,通过复制拼接部分从源图像到一个目标图像,可以创建一个复合风景去欺骗别人。使用图像编辑软件,即使非专业用户可以执行连接并不是很困难。尽管经验丰富的专家仍然可以确定不是高度复杂的伪造,这仍然是一个挑战性的问题由机器来解决这个复杂的问题在一个完全自动化的方式。
当评估一个图像的真实性,法医调查人员使用所有可用的篡改证据来源。其他迹象,照明不一致可能有效的拼接检测:从一个机械手的角度,适当的调整照明条件很难实现在创建一个复合图像。图像拼接时,这些边缘的统计数据可能会不同于原始图像。
利用照明的不一致性拼接图像被篡改图像能被探测到。创建数字复合时,例如,两人并排站着,往往很难匹配照明条件的个人照片。因此照明不一致可以是一个有用的工具,揭示数字篡改的痕迹。借贷和计算机视觉领域的扩展工具,我们描述一个点光源的方向可以从只有一个估计图像。我们展示了这种方法的有效性在实际设置。

相关工作

约翰逊和法[1]提出了拼接图像检测利用高光的眼睛。在随后的扩展,Saboia。[2]自动分类这些im-ages通过提取额外的特性,例如查看器的位置。然而,这两种方法的适用性,稍微是有限的,人的眼睛必须是可见的,在高分辨率。
约翰逊和法[1]提出了拼接图像检测利用高光的眼睛。在随后的扩展,Saboia。[2]自动分类这些im-ages通过提取额外的特性,例如查看器的位置。然而,这两种方法的适用性,稍微是有限的,人的眼睛必须是可见的,在高分辨率。
里斯和Angelopoulou[3]是一种不同的方法通过使用一个基于物理的颜色恒常性算法作用于部分镜面像素。在这种方法中,避免高度高光区域的自动检测。作者pro-pose本地段图像来估计光源颜色每段。重新上色每个图像区域根据其当地光源估计收益率所谓光源映射。难以置信的光源颜色估计指向操作区域。不幸的是,作者没有提供一个数值决定标准篡改检测。因此,专家是剩下的艰巨任务视觉检查光源映射篡改的证据。
颜色恒常性,领域的描述符的光源颜色都已经被广泛地研究过了。色彩恒常性的研究大多集中在均匀照亮场景包含一个主要的光源。概述,请参阅如,[4],[6]。然而,为了使用入射光的颜色作为图像篡改的迹象,我们需要多个,spatially-bound光源的估计。到目前为止,在这个方向上有限的研究已经完成。Bleier的工作。[7]表明,许多现有货架single-illuminant算法不规模较小的图像区域。因此,问题特定的光源估计是必需的。
it[8]提供了一个早期multi-illuminant估计方法。假设顺利混合光源,作者提出了扩散过程来恢复照明分布。不幸的是,在实践中,这种方法在抚平光源边界。Gijsenij[9]提出了pixel-wise光源估计量。它允许图像分割成区域被不同的光源。不同的照明区域可以具有清爽的转换,例如阳光和阴影之间的地区。

一个。trainig样本集合,形成数据库

首先,也是最重要的一步,我们的项目是收集或使用图像编辑软件创建积极的和消极的样本。这些样品是用于训练阶段和测试阶段。积极的样本包括人类的真实图片。负样本与人类也可能包含不包含图像伪造图像。训练过程需要大约三十到三十五天。训练过程中收集的数据是用来训练SVM分类器在测试阶段使用。

B。光源估计

第二步是计算一组局部光源颜色估计,输入图像被分割为superpixels,即。、地区约常数色度,使用灰色世界的算法。输入图像分割成均匀的区域。每个光源估计,创建一个新的形象,每个地区与提取的彩色光源的颜色。这个生成的中间表示称为光源映射(IM)。

颜色恒常性

有不同的颜色恒常性算法。
一个灰色的世界。
b。白色的补丁
c。修改白色补丁
d。进步
Retinex e。单一的规模
f。多Retinex规模
g。MSR多尺度Retinex颜色恢复
h。自动色彩均衡
颜色恒常性是能够测量颜色的对象独立光源的颜色。

灰色世界算法

Grey-World假设,这是著名的色彩恒常性的基础方法,假设世界上表面的平均反射率是消色差。我们建议Grey-Edge假说,假设平均一个场景边缘差异消色差。基于这个假设,我们得到一个光源的颜色估计算法。方法很容易与Grey-World组合在一起,max-RGB和深浅的灰色成一个单一的框架颜色恒常性基于低层图像特征

算法:

步骤1:让我m n行和列的形象。单独的R, G, B从RGB图像。
步骤2:将二维向量转换成1维向量通过总结的所有行,然后再总结这些单独的列飞机。
Rmean =总和(和(我(:,:1)))/ (m * n);Rmean = 143
Gmean =总和(和(我(:,:2)))/ (m * n);Gmean = 194
Bmean =总和(和(我(:,:,3)))/ (m * n);Bmean = 177
步骤3:将所有这些单个值向量和找到的意思。
[Rmean Gmean Bmean] = (143 194 177)
第四步:找到这个向量的均值如:Avg = 171.333
Avg =意味着([Rmean Gmean Bmean]);
第五步:现在把这Avg Rmean, Gmean, Bmean并存储它
基米-雷克南= Avg / Rmean;
公斤= Avg / Gmean;
Kb = Avg / Bmean;
第六步:现在把这个最终存储值与相应的飞机最后连结颜色飞机和显示输出。
(::1)= Kr *双(我(:,:1));
(::2)=公斤*双(我(:,:2));
(::3)= Kb *双(我(:,:,3));
= uint8(出);

C。彩色图像转换

下一步是把图像使用YCbCr获取光源映射。颜色YCbCr空间是广泛用于数字视频。在这种格式中,亮度信息存储为一个单一的组件(Y),和色度信息存储两个色差组件(Cb和Cr)。Cb代表了蓝色的组件和一个参考价值的区别。Cr代表红色组件之间的差异和参考价值。(YUV,另一种颜色空间广泛用于数字视频,非常类似于YCbCr但不是相同的。)YCbCr数据可以双精度,但颜色空间尤其适合uint8数据。对于uint8图像,数据范围Y是[235],和Cb和Cr的范围是[240]。YCbCr离开房间的顶部和底部完全uint8范围这额外的(非成象)信息可以包括在视频中。
图像

D。面对提取

现有的方法

现有的算法部分最小二乘(PLS)算法。请算法会导致错误的检测和有时不能检测到脸。所以我们必须去半自动提取方法。这是唯一的一步,在现有的方法可能需要人工交互。操作员在每个面周围设置了一个边界框(例如,通过点击的两个角落边界框)的图像应该调查。然后我们作物每一个边界框每个光源的地图,所以,只有脸的光源估计地区依然存在。实现请算法结果的效率只有65%。这是一个主要缺点。请只适用于2 d图像和3 d图像。请的失败是由于这样的事实,只有少数量的图像可以在请受训

E。纹理描述

SASI算法:我们使用结构信息的统计分析(SASI)从光源中提取纹理信息地图。为我们的应用程序中,SASI的最重要的优点是其能力捕捉小粒度和不连续的结构模式。不同的光源颜色不同的交互与底层表面,从而产生不同的照明“纹理”。这是一个非常好的质地,SASI捕捉到最好的微妙之处
SASI是一个通用的描述符,纹理的结构性能的措施。它是基于自相关的水平、垂直和对角像素线在一个图像在不同尺度。而不是为每一个可能的计算自相关转变,只有一小部分被认为是变化。一个自相关计算使用特定固定定位、规模、和转变。计算所有这些像素值的平均值和标准偏差收益率两个特征维度。进行重复计算不同方向、尺度和变化产生一个128维的特征向量。作为最后一步,这个向量规范化,减去其平均值,并除以其标准差。

光源的边缘的解释:Hogedge算法

不同光源估计在邻近的部分会导致光源映射的不连续性。不同的光源估计可能发生的原因:改变几何,改变材料,噪音,修饰或入射光的变化。因此,一个可以解释一个光源估计作为一个低级的底层图像统计的描述符。我们观察到边缘,例如,计算一个精明的边缘检测器,检测在一些情况下的组合段边界和等照度线(即。,类似的入射光的图像)。图像拼接时,这些边缘的统计数据可能会不同于原始图像。边缘不连续等特点,我们提出一个新的叫做HOGedge特征描述符。它是基于著名的HOGdescriptor

过程

步骤1:使用精明的边缘检测器提取边缘点
步骤2:收益率大量的空间接近边缘点。减少点的数量,我们过滤精明的输出。
步骤3:没有。边缘点是降低选择bifurication脊点
步骤4:面向我们计算直方图的梯度(猪)来描述选择的边缘点的分布

F。成对的脸特征

接下来我们的目标是评估是否一对面孔图像是否持续照明。图像与n的面孔,我们构建联合特征向量,包括(n (n - 1) / 2所有可能对面孔。比较两个面孔,我们把同样的描述符的两副面孔。比如,我们可以将计算的SASI-descriptors灰色的世界。功能连接的想法是两个面是不同的,当一个人的脸是一个原始的,一个是拼接。

G.Classification

我们分类照明每一对面孔的一致或不一致的形象。假设所有选定的脸都被同一光源,我们标记图像作为操纵如果一对归类为不一致。个人特征向量,即。,SASI or HOGedge features on either gray world or IIC-based illuminant maps, are classified using a support vector machine (SVM) classifier with a radial basis function (RBF) kernel. We use a late fusion technique named SVM-Meta Fusion.We classify each combination of illuminant map and feature type independently (i.e., SASI-Gray-World, SASI-IIC, HOGedge-Gray-World and HOGedge-IIC) using a two-class SVM classifier to obtain the distance between the image’s feature vectors and the classifier decision boundary.

IV.PROPOSED方法

面对提取在伪造检测中起着非常重要的作用。除非面临提取完美高度是不可能检测到伪造或拼接图像的照片。以便进一步的修改在面对该方法提取步骤。面对连续提取使用意味着量化变换(SMQT)以及稀疏网络簸散(雪)分类器采用该方法。
连续的意思是量化变换提出了照明和稀疏的网络簸散原分类器提出了加快。最后SMQT特性和雪分类器结合的铬正面的人脸检测。这是非常健壮的光照、姿势等变化,适合实时的人脸检测系统。
目的是检测面临的存在在一个图像使用基于SMQT颜色亮度和色度特性和雪面孔识别分类器算法均匀和非均匀场景的背景颜色。开发这个系统,这样它支持铬形象,从这个像素值也将有助于得到脸定位,进一步用于实时人脸检测。它能够定位任意数量的面孔与不同大小不同的光照条件下拍摄的图像。因此错误的识别结果,许多现有系统的不足,可以大大减少。

VI.CONCLUSION

在这项工作中,我们提出了一种新的方法来检测伪造的图像人们使用光源的颜色。我们估计光源的颜色使用统计方法和灰色边缘基于物理方法利用色度的颜色空间。我们对待这些光源映射纹理映射。高效的脸连续提取方法称为意味着量化变换算法提出了进而消除了人工交互。我们还在边缘的分布在这些地图上提取信息。然后结合这些互补的线索(纹理,edge-based)使用机器学习融合。比较各种人脸识别算法的结果提出了在本文中为了突出该工作的效率。
的结果很明显,使用现有的人脸检测算法会导致人工交互。该方法不需要人工交互,并提供一个清晰的声明的真实性的形象。此外,它是一个很大的进步在光源颜色的剥削法医线索。之前的基于工作承担复杂的用户交互或强加限制的假设。

数据乍一看




图1 图2 图3 图4 图5
图1 图2 图3 图4 图5
图1 图2 图3 图4
图6 图7 图8 图9

引用










全球技术峰会