东南大学硕士学位论文4.2.4神经网络的学习方法神经网络的一个重要特点就是通过向环境学习来改进系统自身的性能,性能的改善是通过调节系统自身的参数,也就是各神经元之间的连接权值和各自的阈值而逐步达到的n71。学习方法有3种:1、监督学习:又称为有教师学习,给定一组输入及预期输出,这组输入输出数据称为训练样本集,神经网络系统可根据实际输出与预期输出的差值调节系统参数。2、非监督学习:又称为无教师学习,系统按照提供数据的某种统计上的分布特征,如聚类,来调节自身参数和结构。3、激励学习:环境对系统输出给予奖罚评价信息,学习系统接受这些评价信息后,调节自身参数,从而改善性能。4.3BP神经网络4.3.1简单介绍BP神经网络是一种多层前馈神经网络,或称多层感知机。严格地说,这种神经网络之所以被称为BP神经网络,并非由于其网络结构,而是由于其连接权值的训练是基于一种叫做误差反向传播的算法(BackPropagation)。误差反向传播算法是由DaVidR啪elh缸,Geo倚eyHimon和IbnaldWilli锄s,DavidParker以及Y锄LeCurl分别独立发现的。这个算法因被包括在《ParallelDi鲥butedProcessillg》一书中而得到普及【18】。误差反向传播算法也称反向传播算法或BP算法。由于这种算法在本质上是一种神经网络学习的数学模型,所以,有时也称为BP模型。BP算法是为了解决多层前馈神经网络的权系数优化而提出来的。故而,有时也称多层前馈网络为BP模型。反向传播学习算法可以对网络中各层的权系数进行修正,故适用于多层网络的学习。BP算法是目前最广泛应用的神经网络学习算法之一,是多层前馈网络最有效的学习算法。反向传播算法分两步进行,即正向传播和反向传播。这两个过程的工作简述如下。l,正向传播32第四章人工神经网络和光学字符识别输入样本从输入层经过隐单元一层一层进行处理,通过所有的隐层之后传向输出层;在逐层处理的过程中,每一层神经元的状态只对下一层神经元的状态产生影响。在输出层把现行输出和期望输出进行比较,如果现行输出不等于期望输出,则进入反向传播过程。2,反向传播反向传播时,把误差信号按原来正向传播的通路反向传送,并对每个隐层的各个神经元的权系数进行修改,以使期望误差信号趋向最小。BP算法实质是求取误差函数的最小值问题。这种算法采用非线性规划中的最速下降方法,按误差函数的负梯度方向修改权系数。BP神经网络的结构大致如图4.4所示,中间层(隐层)可以是一层,也可以是多层,网络中没有反馈,没有层内联接,每一个神经元只能前馈联到下一层的所有神经元。在人工神经网络的实际应用中,大约70%一80%都是采用BP神经网络,本文采用的也是BP神经网络。输入层隐层输出层..一:..图4—54.3.2Bf.BP神经元图4.6给出了第j个基本BP神经元(节点’【19】’它只模仿了生物神经元所具有的3个最基本也是最重要的功能:加权、求和与转移。其中x卜x2…xi...Xn分别代表来自神经元l、2…i…n的输入;Wl、W2…Wi…W。则分别表示神经元l、2…i…n与第j个神经元的连接强度,即权值;b!j为阈值;fi[‘)为传递函数;)I:j为第j个神经元的输出。第j个神经元的净输入值sj为:l=∑~.五+q=%x+%』Il(4—3)33东南大学硕士学位论文+1图4—6BP神经元其中:x=k吃..‘…%r髟=h,_:…%…%J.若设x。21,w,。=b,,即令x及w,包括x。及wjo,则x=k而%..再..乇】r%=h。一。_:…%…%j于是节点j的净输入S。可表示为:叠=∑_,点=%xJ=l(4—4)净输入S,通过传递函数(TraJlsferFullction)f(?)后,便得到第j个神经元的输出:乃:厂G,):/(窆一,.五):F(%z)l=O(4—5)式中f(?)是单调上升函数,而且必须是有界函数,因为细胞传递的信号不可能无限增加,必有一最大值。4.3.3正向传播BP算法由数据流的前向计算(正向传播)和误差信号的反向传播两个过程构成【20】。正向传播时,传播方向为输入层一隐层一输出层,每层神经元的状态只影响下一层神经元。若在输出层得不到期望的输出,则转向误差信号的反向传播流程。通过这两个过程的交替进行,在权向量空间执行误差函数梯度下降策略,动态迭代搜索一组权向量,使网络误差函数达到最小值,从而完成信息提取和记忆过程。设BP网络输入层有n个节点,隐层有q个节点,输出层有m个节点,输入层与隐层之间的权值为vI【i,隐层与输出层之间的权值为wik,如图4.5所示。隐层的传递函数为fl(?),输出层的传递函数为龟(?),则隐层节点的输出为(将阈值写入求和项中):气=石(∑%‘)』=O输出层节点的输出为:第四章人工神经网络和光学字符识别口"=石(∑‰.磊)七一0(4—7)至此BP网络就完成了n维空间向量对m维空间的近似映射。4.3.4反向传播1)定义误差函数输入尸个学习样本,用x1,X2,...Xr,...xp来表示。第p个样本输入到网络后得到输出玎(j=1,2,...m)。采用平方型误差函数,于是得到第p个样本的误差为:1用2E,=去∑(巧一yj)‘』-l(4—8)式中:分为期望输出。对于P个样本,全局误差为:1P卅PE=去∑∑(巧一巧)=∑耳2)输出层权值的变化采用累计误差BP算法调整wik,使全局误差E变小,即(4—9)△‰一刁嚣一叩击c喜耻喜c一刀薏,式中:刁为学习率。定义误差信号为:m㈣屯一每=考茜其中第1项:(4—11)考=瑞喜咿∥]=一芸c州,第2项:^(4—12)警=爿(t’舔。“叫。是输出层传递函数的偏微分。于是:——‘=,.IL、.●(4—13)%=∑(巧一巧)2刀(q)由链定理得:(4一14)嚣2考?舞一协芬铲圳c啪于是输出层各神经元的权值调整公式为:35沁㈣东南大学硕士学位论文△%=∑∑,7((一巧)2Z(s)乙(4—16)3)隐层权值的变化△%一刁篆一刁杀c善E,=喜c一刁薏,定义误差信号为:。4川,颤一薏一鲁?盖其中第1项:(4—18)玺=丢巴姜c巧一∥]-一委c(一巧,警依链定理有:a。4m,盟瓴ta饥酉第2项:坠.溉嬲=、Ⅳ刀,LS%(4—20)堕溉}。是隐层传递函数的偏微分。于是:(4—21)如=∑(哆一巧坍(1)‰彳(墨)由链定理得:(4—22)豢2簧?鲁一如薯一善((一杉坍(1)‰爪瓯h从而得到隐层各神经元的权值调整公式为:(4_23)峨=∑∑,7(C一巧坍(S)%彳(&).薯4.4确定BP网络的结构(4—24)确定了网络层数、每层节点数、传递函数、初始权系数、学习算法等也就确定了BP网络。确定这些选项时有一定的指导原则,但更多的是靠经验和试凑f20】。4.4.1隐层数和隐层节点数的确定1998年IbbertHecht.NielSon证明了对任何在闭区间内的连续函数,都可以用一个隐层
利用神经网络识别印刷体越南字符 - 图文(9)
2020-04-17 19:03
利用神经网络识别印刷体越南字符 - 图文(9).doc
将本文的Word文档下载到电脑
下载失败或者文档不完整,请联系客服人员解决!