支持向量机在输电线路故障识别中的应用研究(3)

2020-02-21 12:48

合的方法,其是利用突变量元件来作为保护启动后的第一次选相元件,并且利用序电流的分区与阻抗比较的方法来作为振荡闭锁期间的故障选相元件。

无论是稳态故障量选相还是相电流差突变量选相,在原理上其都是设置基于门槛值方法,依据一定的逻辑关系去实现的。但是故障后所获得的电压、电流等信息会随着系统的运行方式、故障的位置、故障点的阻抗和故障时刻等因素而发生变化,这将会导致整个故障模式识别空间一般都是非线性可分的。因此在基于门槛值的方法有可能不会适应故障后的电流、电压的信息的变化,亦可以说如果依据故障后电压、电流或相位角等的信息来区分故障模式,则各种故障模式之间一般不具有明显的线性分界线,由于其相关的因素比较复杂,不易用数学模型来进行理论的描述,所以设置基于门槛值的方法存在着一定的缺陷。

随着人工智能理论与技术的发展,人工智能为输电线路的故障类型识别提供了一些新的方法。基于智能高新技术研发的各种高压输电线路故障分类器已经有了不少的研究,在基于模糊理论输电线路故障类型的识别方法中,将故障类型识别中的大量电气信息量进行模糊处理,从而在一定的程度上改进了线性划分方法中存在的局限性。支持向量机(Support Vector Machine)是基于统计学习理论的基础上提出的一种模式识别方法。它采用结构风险最小化原理(Structural Risk Minimization)简称SRM原则,兼顾训练误差和泛化能力,在解决非线性、小样本等的模式识别问题中展现出一定的优势。文献[7]用模糊逻辑规则对输电线路故障先进行了分层归类的处理,然后再利用它们之间的故障相别与相位角等的关系,设计出表示不同故障相别的样本数,最后利用SVM算法对样本数据进行训练,得到可以识别出不同输电线路故障类型的最优分类面。文献[8]是对发生短路后的三相短路电流信号进行分析计算,计算出每相的小波熵权,然后对故障类型进行识别。因此基于支持向量机的输电线路故障类型得识别方法,可以充分利用SVM在解决模式识别问题中的优势,并且故障类型的识别不会受到系统的运行方式、故障的过渡电阻、故障位置的影响,具有极高的可靠性。所以基于智能理论的故障识别方法,能够有效地处理故障模式与不同的影响因素之间的非线性关系,达到较高的识别率。在神经网络方法中,由于其依靠于给定的输电线路的系统结构,用涵盖整个故障模式空间的典型模式对网络进行训练实现的,所以在一定程度上受到输电线路的系统结构的制约,限制了该方法的通用性。此外,神经网络的学习算法是采用的经验风险最小化(Empirical Risk Minimization-ERM)原理,它并没有使期望风险值达到最小,即在有限的小样本上得到的小误差并不能保证其在测试集上的小误差,而且会影响到对所有故障类型识别的准确性。文献[9]运用了模糊神经网络、征映射神经网络和概率神经网络来进行故障类型的识别,取得了比较理想的结果,但其算法都是针对双端电源

4

网络中的简单输电线路进行故障识别,在此简单网络上选取训练和测试样本,训练神经网络,然后用于测试该简单网络的故障类型,但神经网络方法在训练时结果也不太稳定。

综上所述,不管是那种方法,都存在着数据预处理方面步骤较多,一旦其中某一环节出错,则会对最后的分类带来很大的误差,而且前期数据处理过程多则意味着到最终分类的速度会变慢,这对输电线路发生故障后准确、迅速地识别故障类型是不利的。

本论文就是在这样的情况下,提出一种简单而有效的输电线路故障诊断分类的方法,即基于SVM的改进二叉树输电线路故障诊断分类的方法。在输电线路发生故障时,能够快速的诊断出线路的故障类型,从而对运行维护人员起到智能助手作用。

1.3 本文工作

1)广泛阅读了输电线路故障诊断与识别相关著作和文献,了解了线路故障识别的国内外研究现状,进行了分析研究,找出问题所在;

2)研究支持向量机在电力系统输电线路故障识别中的应用,分别从基本概念、支持向量机算法、算法选择等方面进行了阐述,以及结合输电线路的故障特点对支持向量机的算法进行了改进;

3)利用电力系统分析综合程序(PSASP)软件模拟仿真了7-BUS和36-BUS输电线路的所有类型的短路电流故障数据和短路电压故障数据,并且选取合适的归一化方法对故障数据进行了归一化处理;

4)对SVM算法中的二叉树算法进行改进,结合输电线路故障类型发生的优先级建立故障分类模型;

5)以MATLAB7.0为编程工具,利用仿真得到的一部分故障数据对模型进行训练,最后得到输电线路的短路电流故障分类器和短路电压故障分类器,再利用剩余的一部分故障数据对两个故障分类器进行测试与验证,并且在每个故障分类器中得出九个二分类SVM的判别函数的系数矩阵;

6)利用得到的九个判别函数的系数矩阵重新编写SVM故障分类器程序,且将改进的SVM故障分类器的分类结果与利用BP神经网路和其他SVM算法建立的故障分类器的分类结果进行比较分析;

7)最后将在MATLAB7.0环境下的故障分类程序文件转换为动态链接库文件类型,即DLL文件,从而使故障分类程序脱离MATLAB7.0环境,以供下级程序的调用。

5

2 支持向量机理论

支持向量机方法[8,9] (Support Vector Machine,简称SVM)是基于统计学习理论的机器学习方法,它是建立在基于统计学习理论上的 VC 维理论和结构风险最小化原理(Structural Risk Minimization简称SRM原则)基础上,到目前为止,对于支持向量机还没有一个确定的定义。其基本思想[10] 可以概括为:首先通过非线性变换将输入空间变换到一个线性高维空间,然后在这个新空间中求取最优线性分类面。SVM是由vapnik在20世纪70年代提出的并且在90年代逐步完善的针对小样本数据的机器学习理论,目前已经在许多的智能信息的获取与处理的领域都取得了较为成功的应用。vapnik提出的SVM算法是基于统计学学习理论的一种模式识别方式,这种算法不仅是在于训练样本上追求准确性,而且在训练样本的准确性的基础上还考虑了基于学习空间的复杂性,即在训练样本学习的精度和学习空间的复杂性之间采取了一种折中,从而使所训练得到的分类模型对于未知的测试样本具有较好的推广或泛化能力。传统的学习理论是基于经验风险最小化(ERM准则)原则,并且是以大量的训练样本进行训练,然后找到一个能够准确的逼近这些训练样本的函数,该函数能够对未知的测试样本做出良好的预测。并且当学习能力过强,即会产生过学习情况,而此时训练得到的函数模型的复杂性就会很高,函数把训练样本数据中的噪声也全部的作为实际中的训练样本数据进行学习,因此推广或泛化能力极差。vapnik则提出了基于结构风险最小化(SRM准则)原则的算法,在函数集的复杂性和样本的复杂性之间采取了一种折中,并且在理论上给出了其推广误差的界,其推广误差的界可分为两部分:经验风险和置信范围。经验风险[11]即为传统学习机在训练样本数据上的误差;置信范围的度量则是以vapnik等提出的VC维理论为参数进行的,这种参数度量了函数集的复杂性。一个良好的学习机器需要在这二者之间做出一定的权衡,继而达到总的推广误差最小,此即为结构风险最小化原则。

SVM具有直观的几何意义,对于线性可分[12,13]情况:在给定的训练样本如:

(x1,y1),(x2y2),?(xn,yn)中且y∈{+1,-1},在寻找一个超平面w*x-b=0将其能够正确的分开,这样的超平面将不止一个,且往往很多,但其中与两类样本点的距离中最大的分类超平面将只会有一个,其将会获得最佳的推广能力:即最优分离超平面。这种最优分类超平面仅仅只由离它最近的样本数据点来决定,而与其它样本数据点无关,这些样本数据点即是所谓的支持向量,这也正是支持向量机名称的来源。如图2.1所示,其中位于H1线上的样本数据点和位于H2线上的样本数据点即为支持向量,而其他样本数据点为非支持向量,在分类过程中这些非支持向量可以被完全剔除掉,并且对分类器的分类结果没有直接的影响。

6

图2.1 支持向量机

H1 H H2

2.1 统计学习理论概要

2.1.1机器学习问题的表示

依据某些给定的训练样本数据来求出对某一个系统的输入与输出之间的特殊关系,并使这种关系能够做出极为准确的预测对未知的输出,这就是机器学习[14,15]问题的目的所在。

由训练器、产生器和学习机器三部分组成样本数据学习的机器学习模型。 图2.2是一个从样本数据学习的模型示意图:

产生器G

x训练器S yy学习机器LM 图2.2 从样本数据学习的模型图

在图2.2中的训练器S可以对输入的每个向量x返回一个比较明确的输出值y,固定而却未知的条件分布函数F(yx)是其产生输出的依据据。样本数据产生器G是能够从同样确定而未知的概率分布函数F(x)中可以单独产生随机的向量x?Rn。

依据联合分布函数

F(x,y)?F(x)F(yx) (2.1) 取样得到的L个数据对

7

(x1,y1),(x2,y2),?(xl,yl) (2.2)

从而构成训练函数集。学习机器LM能在一组函数集f(x,a),a?? (其中?是参数集合)中选择出使输出值y能够最好的接近训练响应值y的函数f(x,a0)。

必须对于任意输入的值x给出输出值y在训练之后的学习机器上,从而使得期望风险R(a)值最小,其表示为:

R(a)??L(y,f(x,a))dF(x,y) (2.3)

L(y,f(x,a))为其给定的输入值x下训练器的输出值y与学习器所给出的函数

f(x,a)之间的损失的期望值。此处的f(x,a),a??称作为预测函数集或者称作为学习函数集,在函数集中a为广义参数。亦可将预测函数称作为学习机器、学习模型或者学习函数等。

有不同的损失函数在不同类型的学习问题中。在构成三种最基本的机器学习的问题中:即函数逼近问题、概率密度估计问题和模式识别问题,可以通过定义不同的损失函数。

在两类情况下y={0,1}(或者y{-l,1}),输出的y是类别标号,预测函数称作为指示函数,损失函数可以定义作:

?0,y?f(x,a)L(y,f(x,a))???1,y?f(x,a) (2.4)

损失函数通常可以定义为使风险最小,也就是在贝叶斯决策函数中所得到的错误率为最小,在函数逼近问题中,输出的y是连续的变量。

L(y,f(x,a))?(y?f(x,a))2 (2.5)

依据训练样本数据来确定x的概率密度是概率密度估计问题中学习的目的。如果估计密度函数为p(x,a),那么其损失函数可以表示作:

L(p(x,a))??logp(x,a) (2.6)

2.1.2.经验风险最小化原则

使其期望风险最小化是机器学习问题的学习目标。而传统的机器学习方法采用的是基于经验风险最小化原理[16,17,18] (Empirical Risk Minimization,ERM准则),即是依据大数定律思想在概率论中,前提是假设概率都是均匀分布的,则用样本数据来定义的经验风险最小化为:

8


支持向量机在输电线路故障识别中的应用研究(3).doc 将本文的Word文档下载到电脑 下载失败或者文档不完整,请联系客服人员解决!

下一篇:2019年中国抗哮喘药物市场调查与市场前景预测报告(定制版)目录

相关阅读
本类排行
× 注册会员免费下载(下载后可以自由复制和排版)

马上注册会员

注:下载文档有可能“只有目录或者内容不全”等情况,请下载之前注意辨别,如果您已付费且无法下载或内容有问题,请联系我们协助你处理。
微信: QQ: