文档详情

BP神经网络实验_Matlab讲义.doc

发布:2017-02-13约2.48千字共8页下载文档
文本预览下载声明
计算智能实验报告 实验名称:BP神经网络算法实验 班级名称: 2010级软工三班 专 业: 软件工程 姓 名: 李XX 学 号: XXXXXX2010090 实验目的 编程实现BP神经网络算法; 探究BP算法中学习因子算法收敛趋势、收敛速度之间的关系; 修改训练后BP神经网络部分连接权值,分析连接权值修改前和修改后对相同测试样本测试结果,理解神经网络分布存储等特点。 实验要求 按照下面的要求操作,然后分析不同操作后网络输出结果。 可修改学习因子 可任意指定隐单元层数 可任意指定输入层、隐含层、输出层的单元数 可指定最大允许误差ε 可输入学习样本(增加样本) 可存储训练后的网络各神经元之间的连接权值矩阵; 修改训练后的BP神经网络部分连接权值,分析连接权值修改前和修改后对相同测试样本测试结果 。 实验原理 1 明确BP神经网络算法的基本思想如下: 在BPNN中,后向传播是一种学习算法,体现为BPNN的训练过程,该过程是需要教师指导的;前馈型网络是一种结构,体现为BPNN的网络构架 反向传播算法通过迭代处理的方式,不断地调整连接神经元的网络权重,使得最终输出结果和预期结果的误差最小 BPNN是一种典型的神经网络,广泛应用于各种分类系统,它也包括了训练和使用两个阶段。由于训练阶段是BPNN能够投入使用的基础和前提,而使用阶段本身是一个非常简单的过程,也就是给出输入,BPNN会根据已经训练好的参数进行运算,得到输出结果 2 明确BP神经网络算法步骤和流程如下: 1初始化网络权值 2由给定的输入输出模式对计算隐层、输出层各单元输出选取下一个输入模式对返回第2步反复训练直到网络设输出误差达到要求结束训练。 四、实验内容和分析 实验时建立三层BP神经网络,输入节点2个,隐含层节点2个,输出节点1个,输入训练样本如下表: 输入值 输出 0.0 0.0 0.0 0.0 1.0 1.0 1.0 0.0 1.0 1.0 1.0 0.0 学习因子分别为0.5和0.6, 最大允许误差0.01。 代码: P=[0.0 0.0 1.0 1.0;0.0 1.0 0.0 1.0];%输入量矩阵 T=[0.0 1.0 1.0 0.0];%输出量矩阵 net=newff(minmax(P),T,[2 1],{tansig,purelin},traingd);%创建名为net的BP神经网络 inputWeights=net.IW{1,1};%输入层与隐含层的连接权重 inputbias=net.b{2};%输入层与隐含层的阈值 net.trainParam.epochs=5000;%网络参数:最大训练次数为5000次 net.trainParam.goal=0.01;%网络参数:训练精度为0.001 net.trainparam.lr=0.5;%网络参数:学习设置率为0.5 net.trainParam.mc=0.6; %动量 net.trainparam.show=100%网络参数:设置为每5次学习显示误差曲线点 [net,tr]=train(net,P,T); %训练 A=sim(net,P); %仿真 E=T-A; %误差 MSE=mse(E); %均方误差 训练结果: 训练次数5000,全局误差0.008364 输入测试样本为 可见网络性能良好,输出结果基本满足识别要求。 改变学习因子 学习因子决定每一次循环训练中所产生的权值变化量。大的学习因子可能导致系统的不稳定;但小的学习因子导致较长的训练时间,可能收敛很慢,不过能保证网络的误差值不跳出误差表面的低谷而最终趋于误差最小值。所以一般情况下倾向于选取较小的学习速率以保证系统的稳定性。 改变输入层、隐含层、输出层的单元数 当隐含层节点个数为3时,相同训练样本和测试样本,得到测试结果为 net=newff(minmax(P),T,[3 1],{tansig,purelin},traingd);%创建名为net的BP神经网络 训练次数5000,全局误差0.004126 可见,改变输入层、隐含层、输出层的单元数,即改变网络结构,可以改善网络性能,增加隐含层节点个数可以更好的提取模式特征,识别结果更精确,但网络复杂度增加,可能不稳定。 最大允许误差ε控制网络识别精度。 选取较大值学习速度加快,但精度降低;选取较小值,学习速度变慢,精度提高,但可能导致网络无法收敛到允
显示全部
相似文档