(1)EQ(f)在0≤f≤L-1范围内是一个单值单增函数。这是为了保证增强处理没有打乱原始图像的灰度排列次序,原图各灰度级在变换后仍保持从黑到白(或从白到黑)的排列。
(2)对于0≤f≤L-1有0≤g≤L-1,这个条件保证了变换前后灰度值动态范围的一致性。
累积分布函数(cumulative distribution function,CDF)即可以满足上述两个条件,并且通过该函数可以完成将原图像f的分布转换成g的均匀分布。此时的直方图均衡化映射函数为: gk = EQ(fk) = (ni/n) = pf(fi) , (k=0,1,2,??,L-1)
上述求和区间为0到k,根据该方程可以由源图像的各像素灰度值直接得到直方图均衡化后各像素的灰度值。在实际处理变换时,一般先对原始图像的灰度情况进行统计分析,并计算出原始直方图分布,然后根据计算出的累计直方图分布求出fk到gk的灰度映射关系。在重复上述步骤得到源图像所有灰度级到目标图像灰度级的映射关系后,按照这个映射关系对源图像各点像素进行灰度转换,即可完成对源图的直方图均衡化。
3) 直方图规定化
直方图规定化(histogram specification)也是借助直方图变换来增强图像的方法,它通过原始图的直方图转换为期望的直方图,从而达到预先确定的增强效果。
直方图均衡化的优点是能自动增强整个图像的对比度,但它的具体增强效果不易控制,处理的结果总是得到全局的均衡化的直方图.实际工作中,有时需要变换直方图使之成为某个特定的形状,从而有选择地增强某个灰度值范围内的对比度,这时可采用比较灵活的直方图规定化方法.直方图规定化增强处理的步骤如下:
令Pr(r)和Pz(z)分别为原始图像和期望图像的灰度概率密度函数。如果对原始图像和期望图像均作直方图均衡化处理,应有
S?T(r)??Pr(r)dr0x0x (1) (2)
V?G(Z)??pz(z)dzZ?G?1(V) (3)
由于都是进行均衡化处理,处理后的原图像概率密度函数Ps(S)及理想图像概率密度函数PV(V)是相等的。于是,我们可以用变换后的原始图像灰度级S代替(2)式中的V。即
Z = G - 1(S)(4)
这时的灰度级Z 便是所希望的图像的灰度级。 此外,利用(1)与(3)式还可得到组合变换函数
Z = G - 1[T(r)](5)
对连续图像,重要的是给出逆变换解析式。对离散图像而言,有
PZ(Zi)?nin (6)
6
Vi?G(Zi)??Pz(Zi)i?0l?1 (7)
Zi?G?1(Si)?G?1[T(ri)] (8)
三、检测和定位阶段 1,人脸检测
人脸检测是一个比较浮躁的过程,每个人的脸型、角度以及光纤等等都会给检测带来不和困难,尤其是在一些噪声的影响,比如运动产生的噪声,已经热产生的噪声,并且表情、发型、眼镜等都使人脸检测问题变得复杂。所以人脸检测需要分步骤进行,降低其难度。人脸检测有以下几个步骤:
1) 颜色分割
彩色图像中皮肤颜色的检测是一个非常流行和实用的人脸检测技术。许多技术为输入图像中的肤色区域提出了定位报告。虽然输入的彩色图像通常是RGB格式,这些技术通常在色彩空间中使用这些颜色分量,比如HSV 或者 YIQ格式。由于RGB分量会受到了照明条件的干扰,因此,如果照明条件的变化,人脸检测可能会失败。虽然存在许多色彩空间方案,最常见的是YCbCr的组件,因为它是现有的Matlab函数之一,可以有效的节省计算时间。在YCbCr色彩空间中,Y分量表示亮度信息;Cb和Cr表示色度信息。而且,亮度信息可以很容易地被嵌入。RGB分量转换到YCbCr的计算公式如下: Y = 0.299R + 0.587G + 0.114B Cb = -0.169R - 0.332G + 0.500B Cr = 0.500R - 0.419G - 0.081B
2) 图像分割
图像分割在图像识别中的作用如上图所示。这一步是把人脸图像分割成独立的区域。这个过程包括三个步骤:第一步是边缘检测,边缘一般存在于连个具有不同灰度值的相邻区域之间。第二步就是轮廓跟踪和图搜索。实际图像分割中,由于差分算子并行的检测边缘对噪声比较敏感,所以实际中常采用先检测可能的边缘点再串行跟踪并连接边缘点成闭合轮廓的方法。第三步,就是主体部分,阈值分割,去阈值是最常见的、并行的直接检测区域的分割
7
方法,其他同类方法如像素特征空间分类可看做是取阈值技术的推广。当然这一步还包括两种方法,即基于变换直方图的阈值和给予过渡区的阈值。 图像分割的最常见算法有:
1)基于阈值的分割-通过阈值对不同物体进行分割
2)基于区域的分割-把各象素划归到各个物体或区域中
3)基于边缘的分割-先确定边缘象素,并把它们连接在一起,以构成所需的边界
2,特征点定位
自动并且准确的人脸特征点定位是很困难的,如果定位的偏差相对较大时,就会引起图像的错误定位。
经典ASM被描述为一维剖面图上在每个标记点和一个线性点分布模型上计算一般距离。ASM 是一种属于基于特征匹配方法的模型,在形状近似复合图像特征时,它和图像交互,把形状弯曲到特征。ASM 首先在手动标记图像集上训练,训练后就能用ASM 来搜寻人脸上的特征。
ASM 首先需要在手工标记好的图像集中训练,完成训练后就可以用它对人脸进行特征点定位。ASM 方法主要有以下3 个步骤: 1) 图像训练集标定[9]。随机选择N 幅人脸图像,在边缘手动标记n 个点作为训练数据。这些n 个边缘点一般标记在那些可以代表目标区域的地方,像眼睛和嘴巴的最高点和最低点。标定的点为:
其中( xij,yij) 代表了第i幅图像的第j 个轮廓点的坐标; n 代表了每幅图像标记的点数; N 代表训练图像数目; 每一幅图像的Si代表一个形状向量。 2) 建立模型。
边缘标定是在各自不同的样本图像上进行操作的,在得到图像的形状向量后要对其进行归一化。采用主成份分析( PCA) 的思想对标定点的坐标值进行正交变换,得到主要变化参数。为了从训练样本中获得平均轮廓向量:
N 个形状向量的协方差阵:
计算协方差C 的特征值以及特征值对应的特征向量,并且把特征值按照降序排列,选取k 个最大特征值λ = { λ1,λ2,?,λk} ,得到对应的特征向量P = { P1,P2,?,Pk} ,P 代表主成份。主成分分析后,任意的人脸形状向量S 可以被表示成一个平均形状向量和k 个形状向量的一个线性组合s =
一
s + pb,因为P 是正交的,所以b 可以被表示成b= p( s -s ) ,其中向量
T
一
b 是形状模型的参数,p 是特征子空间基,s 是目标形状。不同的b 对应不
8
同的形状,并且它们的变换是在一定的范围内。 3) 定位模型。
ASM使用了基于轮廓的灰度匹配[10]方法,沿着每个轮廓点的轮廓法线方向进行采样作为一个灰度特征,gij代表了第i幅图像的第j 个样本点的灰度特征。所有图像的第j 点的灰度特征平均值为:
而协方差矩阵为:
灰度平均和协方差作为该点的匹配特征。对每个特征点作相同的采样分析,整个轮廓的统计特征就可以获得。ASM 使用轮廓的灰度特征执行一个迭代过程,在每步的迭代搜索中,调整参数b 来改变当前模型的位置,使得模型和物体的实际轮廓逐渐匹配,并且最终获得特征点的位置信息。
四、图像及信息存储阶段
这个阶段主要是为了将已经识别和准确定位的图像信息存储到数据库。这一步也分两个部分。 1, 图像存储
幅图像需要大量的数据来表达,因而存储图像也需要大量的空间。数据库存储器的特点是要求非常大的容量,但对其上数据的读取不太频繁。一般常用磁带和光盘作为数据库存储器。
图像数据的存储格式在图像存储中也是非常重要的。基本上有两种形式,一种是矢量形式另一种是光栅形式。 2, 信息存储
信息存储主要是为了将已经提取的特征信息存储在数据库中,以便在需要调用对比的时候使用。那么这些数据是怎样存储的呢?一般是以表的形式存储在SQL sever或者oracle等数据库中,因为在普遍情况下,人来能识别信息是非常庞大的,而且被识别的人群数量也同样是巨大的,所以我们需要较为企业化的数据库技术来支持信息的存储。在我看来,一般可以以这样的形式来存储特征信息:
9
面部特征 颜色特征 量化 人脸识别信息存储 消除表情 边缘特征 权重
其中,颜色特征主要是将每个面部区域的每个像素点的颜色RGB模型的值存储,再次比对时,主要是比对是否相似度在一定范围内;
面部特征量化,是指将人的面部特征部位,例如眼睛间距以及嘴巴的宽度进行量化,使之能够存储为数据;
边缘特征,主要是指人的面部轮廓,当然这里用到了边缘检测算法;
消除表情权重,在进行面部数据提取时,我们要消除表情所带来的差异,不能因为受监测者的表情变化而引起识别错误。
五、图像比对阶段
这个阶段主要是为了将已经存储的数据与再次输入的数据进行比对,目的是实现人脸检测,提高使用单位的安全性,例如在进出重要场所是需要进出者提供自己的面部信息,主要是拍照和检测比对。当然前提是你已经将进者的面部数据存入数据库。脸部数据比对检测分为两阶段:
阶段一,实现即时的数据输入。这一阶段主要是为了迅速的将受检测者的面部数据收入和提取,这和之前的人脸检测阶段是相似的,只不过这一阶段不需要输数据存储。用类似的方法提取特征数据后,就可以和数据库中的数据进行比对了。
阶段二,这一阶段是识别的重要阶段,如何选择将为良好的算法,以及对检测精度的要求都直接影响着识别的结果准确性。在这里我们可以选择一种叫做KAPPA一致性指数的概念。
KAPPA一致性指数(KAPPA index of agreement,KIA),是心理学家Cohen于20世纪60年代为了测度教育学和心理学测量与评价中名义变量的一致性而提出的。后来被Congalton和Mead于1983年应用到遥感影像解释的正确性和一致性的评价分析中。KIA主要是应用于分析两幅地图或者图像差异性是“偶然”因素还是“必然”因素所引起的。
10