学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。
2009/02/11 2009/02/12 2009/02/13 2009/02/16 2009/02/17 2009/02/18 2009/02/19 2009/02/20 2009/02/23 2009/02/24 2009/02/25 2009/02/26 2009/02/27 2260.822 2248.092 2320.792 2389.392 2319.442 2209.862 2227.132 2261.482 2305.782 2200.652 2206.572 2121.252 2082.852 2009/03/11 2009/03/12 2009/03/13 2009/03/16 2009/03/17 2009/03/18 2009/03/19 2009/03/20 2009/03/23 2009/03/24 2009/03/25 2009/03/26 2009/03/27 2139.021 2133.881 2128.851 2153.291 2218.331 2223.731 2265.761 2281.091 2325.481 2338.421 2291.551 2361.701 2374.44
load data3_1.txt;
[m,n]=size( data3_1); tsx = data3_1(1:m-1,1); tsx=tsx';
ts = data3_1(2:m,1); ts=ts';
[TSX,TSXps]=mapminmax(tsx,1,2); [TS,TSps]=mapminmax(ts,1,2); TSX=TSX';
figure;
plot(ts,'LineWidth',2);
title('到杭旅游总人数(1999.01.01-2009.12.31)','FontSize',12); xlabel('统计年份(1990.12.19-2009.08.19)','FontSize',12); ylabel('归一化后的总游客数/万人','FontSize',12); grid on;
% 生成BP网络、利用minmax函数求输入样本范围
net_1=newff(minmax(TS),[10,1],{'tansig','purelin'},'traincgf') % 设置训练参数
net_1.trainParam.show = 50; %显示训练迭代过程(NaN表示不显示,缺省25) net_1.trainParam.lr = 0.025; %学习率(缺省0.01) net_1.trainParam.mc = 0.9; %动量因子(缺省0.9) net_1.trainParam.epochs = 10000; %最大训练次数 net_1.trainParam.goal = 0.001; %训练要求精度
学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。
inputWeights=net_1.IW{1,1} %输入层权值 inputbias=net_1.b{1} %输入层阈值 layerWeights=net_1.LW{2,1} %输出层权值 layerbias=net_1.b{2} %输出层阈值
TS',TSX
% 网络训练
[net_1,tr]=train(net_1,TS,TSX);