e=T-O; mse = mse(T-O) w = net.iw{1,1} b = net.b{1,1} figure; plot(time,e);
网络权值:-0.0193 0.0161 -0.0021 -0.9808 1.8808 网络阈值:0.0066 网络均方误差:0.0018
例2.5
以下是上证指数2009年2月2日到3月27日的收盘价格,构建一个神经网络,利用该
组信号的6个过去值预测信号的将来值。
日期 2009/02/02 2009/02/03 2009/02/04 2009/02/05 2009/02/06 2009/02/09 2009/02/10 2009/02/11 2009/02/12 2009/02/13 2009/02/16 2009/02/17 2009/02/18 2009/02/19 价格 2011.682 2060.812 2107.751 2098.021 2181.241 2224.711 2265.161 2260.822 2248.092 2320.792 2389.392 2319.442 2209.862 2227.132 日期 2009/03/02 2009/03/03 2009/03/04 2009/03/05 2009/03/06 2009/03/09 2009/03/10 2009/03/11 2009/03/12 2009/03/13 2009/03/16 2009/03/17 2009/03/18 2009/03/19 价格 2093.452 2071.432 2198.112 2221.082 2193.012 2118.752 2158.572 2139.021 2133.881 2128.851 2153.291 2218.331 2223.731 2265.761 2009/02/20 2009/02/23 2009/02/24 2009/02/25 2009/02/26 2009/02/27 解: clear; clc;
2261.482 2305.782 2200.652 2206.572 2121.252 2082.852 2009/03/20 2009/03/23 2009/03/24 2009/03/25 2009/03/26 2009/03/27 2281.091 2325.481 2338.421 2291.551 2361.701 2374.44 D=[2011.682 2060.812 2107.751 2098.021 2181.241 2224.711 2265.161 2260.822 2248.092 2320.792 2389.392 2319.442 2209.862 2227.132 2261.482 2305.782 2200.652 2206.572 2121.252 2082.852 2093.452 2071.432 2198.112 2221.082 2193.012 2118.752 2158.572 2139.021 2133.881 2128.851 2153.291 2218.331 2223.731 2265.761 2281.091 2325.481 2338.421 2291.551 2361.701 2374.44]; Q=length(D); count = 1:1:Q; X=zeros(6,0);
X(1,2:Q)=D(1,1:(Q-1)); X(2,3:Q)=D(1,1:(Q-2)); X(3,4:Q)=D(1,1:(Q-3)); X(4,5:Q)=D(1,1:(Q-4)); X(5,6:Q)=D(1,1:(Q-5)); X(6,7:Q)=D(1,1:(Q-6)); plot(count,D);
xlabel('输入 '); ylabel('期望输出'); net=newlind(X,D); O=sim(net,X);
figure;
plot(count,O,'r'); xlabel('输入'); ylabel('实际输出');
三、BP神经网络
BP网络的训练函数 训练方法 梯度下降法 有动量的梯度下降法 自适应lr梯度下降法 自适应lr动量梯度下降法 弹性梯度下降法 Fletcher-Reeves共轭梯度法 Ploak-Ribiere共轭梯度法 Powell-Beale共轭梯度法 量化共轭梯度法 拟牛顿算法 一步正割算法 Levenberg-Marquardt 训练函数 traingd traingdm traingda traingdx trainrp traincgf traincgp traincgb trainscg trainbfg trainoss trainlm BP网络训练参数 训练参数 net.trainParam.epochs 参数介绍 训练函数 最大训练次数(缺省为10) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm 训练要求精度(缺省为0) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm traingd、traingdm、traingda、net.trainParam.goal net.trainParam.lr 学习率(缺省为0.01) net.trainParam.max_fail 最大失败次数(缺省为5) net.trainParam.min_grad 最小梯度要求(缺省为