陈明_模式识别_大作业(2)

1970-01-01 08:00

先是将原始图像转换为LBP图,然后统计LBP图的LBP直方图,并以这个向量形式的直方图来表示原始的图像。LBP的基本思想是定义于像素的8邻域中,以中心像素的灰度值为阈值,将周围8个像素的值与其比较,如果周围的像素值小于中心像素的灰度值,该像素位置就被标记为0,否则标记为1.每个像素得到一个二进制组合,就像00010011.每个像素有8个相邻的像素点,即有2^8种可能性组合.如下图所示。

因此,LBP操作可以被定义为:

其中是中心像素,亮度是s是一个符号函数:

;而

则是相邻像素的亮度。

这种描述方法使得你可以很好的捕捉到图像中的细节。实际上,研究者们可以用它在纹理分类上得到最先进的水平。正如刚才描述的方法被提出后,固定的近邻区域对于尺度变化的编码失效,所以,使用一个变量的扩展方法。主意是使用可变半径的圆对近邻像素编码,这样可以捕捉到如下的近邻:

进行对一个给定的点

,他的近邻点

可以由如下计算:

其中,R是圆的半径,而P是样本点的个数。这个操作是对原始LBP算子的扩展,所以有时被称为扩展LBP(又称为圆形LBP)。如果一个在圆上的点

6

在图像坐标上,我们使用他的内插点。计算机科学有一堆聪明的插值方法,而OpenCV使用双线性插值。

对LBP特征向量进行提取的步骤,: (1)将检测窗口划分为16×16的小区域(cell);

(2)对于每个cell中的一个像素,将相邻的8个像素的灰度值与其进行比较,若周围像素值大于中心像素值,则该像素点的位置被标记为1,否则为0。这样,3*3邻域内的8个点经比较可产生8位二进制数,即得到该窗口中心像素点的LBP值;

(3)然后计算每个cell的直方图,即每个数字(假定是十进制数LBP值)出现的频率;然后对该直方图进行归一化处理。

(4)最后将得到的每个cell的统计直方图进行连接成为一个特征向量,也就是整幅图的LBP纹理特征向量;

然后便可SVM或者其他机器学习算法进行分类了。

3.1.2 SVM支持向量机:

所谓支持向量机,顾名思义,分为两个部分了解:一,什么是支持向量(简单来说,就是支持或支撑平面上把两类类别划分开来的超平面的向量点,下文将具体解释);二,这里的“机(machine,机器)”便是一个算法。在机器学习领域,常把一些算法看做是一个机器,如分类机(当然,也叫做分类器),而支持向量机本身便是一种监督式学习的方法,它广泛的应用于统计分类以及回归分析中。

支持向量机的基本思想是:首先,在线性可分情况下,在原空间寻找两类样本的最优分类超平面。在线性不可分的情况下,加入了松弛变量进行分析,通过使用非线性映射将低维输入空间的样本映射到高维属性空间使其变为线性情况,从而使得在高维属性空间采用线性算法对样本的非线性进行分析成为可能,并在该特征空间中寻找最优分类超平面。其次,它通过使用结构风险最小化原理在属性空间构建最优分类超平面,使得分类器得到全局最优,并在整个样本空间的期望风险以某个概率满足一定上界。 3.1.2.1 学习问题

x G S y ? LM _ y

7

(1)产生器(G),随机产生向量,它带有一定但未知的概率分布函数F(x) (2)训练器(S),条件概率分布函数F(y|x) ,期望响应y和输入向量x关系为y=f(x,v)

(3)学习机器(LM),输入-输出映射函数集y=f(x,w),w W,W是参数集合

(4)学习问题就是从给定的函数集f(x,w),w W中选择出能够最好的逼近训练器响应的函数。而这种选择是基于训练集的,训练集由根据联合分布F(x,y)=F(x)F(y|x)抽取的n个独立同分布样本 (xi,yi), i=1,2,?,n 组成 。

3.1.2.2 学习问题的表示

? 学习的目的就是,在联合概率分布函数F(x,y)未知、所有可用的信息都包含在训练集中的情况下,寻找函数f(x,w0),使它(在函数类f(x,w),(w W)上最小化风险泛函:

R(w)?

? 模式识别问题:

dF(x,y)

?L(y,f(x,w))?0, 若y?f(x,w)L(y,f(x,w))??

1,若y?f(x,w)?

3.1.2.3 经验风险最小化原则(ERM )

(1)最小化经验风险(训练样本错误率 ) :

函数集Fk={F(x,w);w∈Wk}, k=1,2,?,n F1 F2 ? Fn VC维:h1≤h2≤?≤hn

在使保证风险(风险的上界)最小的子集中选择使经验风险最小的函数

(2)ERM的缺点

? 用ERM准则代替期望风险最小化并没有经过充分的理论论证,只是直观上合理的想当然做法。

? 这种思想却在多年的机器学习方法研究中占据了主要地位。人们多年来将大部分注意力集中到如何更好地最小化经验风险上。

1NRemp(w)??L(di,f(xi,w))ni?1

8

? 实际上,即使可以假定当n趋向于无穷大时经验风险也不一定趋近于期望风险,在很多问题中的样本数目也离无穷大相去甚远,如神经网络。 3.1.2.4 Vapnik-Chervonenkis(VC)维

(1)定义:VC维是对由学习机器能够实现的分类函数族的容量或表达力的测度。

分类函数集={ f(x,w):w∈W}的VC维是能被机器对于分类函数的所有可能二分标志无错学习的训练样本的最大数量,描述了学习机器的复杂性

(2)学习机器实际风险的界

nR(w)?Remp(w)??()

h 其中n样本数量,h是VC维,Φ是递减函数 两种方法:

? 神经网络: 保持置信范围固定(通过选择一个适当构造的机器)并最小化经验风险。

? 支持向量机(SVM): 保持经验风险固定(比如等于零)并最小化置信范围。

结构风险最小化原则

函数集Fk={F(x,w);w∈Wk}, k=1,2,?,n F1 F2 ? Fn VC维:h1≤h2≤?≤hn

3.1.2.5 支持向量回归机

SVM本身是针对经典的二分类问题提出的,支持向量回归机(Support Vector Regression,SVR)是支持向量在函数回归领域的应用。SVR与SVM分类有以下不同:SVM回归的样本点只有一类,所寻求的最优超平面不是使两类样本点分得“最开”,而是使所有样本点离超平面的“总偏差”最小。这时样本点都在两条边界线之间,求最优回归超平面同样等价于求最大间隔。 (1) SVR基本模型 对于线性情况,支持向量机函数拟合首先考虑用线性回归函数f(x)???x?b拟合(xi,yi),i?1,2,...,n,xi?Rn为输入量,yi?R为输出量,即需要确定?和b。

9

图3-3a SVR结构图 图3-3b 不灵敏度函数

惩罚函数是学习模型在学习过程中对误差的一种度量,一般在模型学习前己经选定,不同的学习问题对应的损失函数一般也不同,同一学习问题选取不同的损失函数得到的模型也不一样。常用的惩罚函数形式及密度函数如表3-1。

表3-1 常用的损失函数和相应的密度函数

损失函数名称 损失函数表达式?(?i)c 噪声密度p(?i) ?-不敏感 拉普拉斯 ?i??i 1exp(??i?)2(1??) 1exp(??i)2 高斯 12?i2 ?i21exp(?)2 2???i2exp(?),if?i????2???exp(???),otherwisei??2 ppexp(??i)2?(1/p) 鲁棒损失 ?12(?),if?i??;i??2??????,otherwise;i??2 1?ipp多项式

10


陈明_模式识别_大作业(2).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:(完整版)三维成像声纳毕业设计

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: