文档详情

神经网络基于BP网络多层感知器实验报告.pdf

发布:2018-12-20约1.3万字共17页下载文档
文本预览下载声明
神经网络及应用实验报告 实验二、基于BP 网络的多层感知器 一:实验目的: 1. 理解多层感知器的工作原理 2. 通过调节算法参数了解参数的变化对于感知器训练的影响 3. 了解多层感知器局限性 二:实验原理: BP 的基本思想:信号的正向传播 误差的反向传播 –信号的正向传播:输入样本从输入层传入,经各隐层逐层处理后,传向输出层。 –误差的反向传播:将输入误差以某种形式通过隐层向输入层逐层反传,并将误 差分摊给各层的所有单元,从而获得各层单元的误差信号来作为修正各单元权值 的依据。 1. 基本BP算法的多层感知器模型: 2.BP学习算法的推导: 当网络输出与期望输出不等时,存在输出误差E 将上面的误差定义式展开至隐层,有 进一步展开至输入层,有 调整权值的原则是使误差不断地减小,因此应使权值的调整量与误差的梯度下降 成正比,即 η∈(0,1)表示比例系数,在训练中反应学习速率 BP算法属于δ学习规则类,这类算法被称为误差的梯度下降(GradientDescent) 算法。 实验步骤 1. 用Matlab编程,实现解决该问题的单样本训练BP网络,设置一个停止迭代的误差Emin和 最大迭代次数。在调试过程中,通过不断调整隐层节点数,学习率η,找到收敛速度快 且误差小的一组参数。产生均匀分布在区间[-4,4]的测试样本,输入建立的模型得到输 出,与Hermit多项式的期望输出进行比较计算总误差 (运行5次,取平均值),并记录下 每次迭代结束时的迭代次数。 (要求误差计算使用RME,Emin 设置为0.1) 程序如下: function dyb %单样本程序 clc; close all; clear; x0 [1:101;-4:0.08:4];%样本101个 x0(1,:) -1; x x0; yuzhi 0.1;%阈值 j input(请输入隐层节点数 j );%隐层节点数 n input(请输入学习效率 n );%学习效率 w rand(1,j); w [yuzhi,w]; %输出层阈值 v rand(2,j); v(1,:) yuzhi;%隐层阈值 err zeros(1,101); wucha 0; zhaosheng 0.01*randn(1,101);%噪声 erro []; ERRO [];%误差,为画收敛曲线准备 Emin 0.1; d zeros(1,101); for m 1:101 d(m) hermit(x(m,2));%期望 end; o zeros(1,101); netj zeros(1,j); net zeros(1,j); p 1; q 1; azc 0; acs 0; for z 1:5 while q30000 Erme 0; for p 1:101 y zeros(1,j); for i 1:j netj(1,i) x(p,:)*v(:,i); y(1,i) 1/(1+exp(-netj(1,i))); end; y [-1 y]; o(p) w*y+zhaosheng(p);%噪声 wucha d(p)-o(p); err(1,p) 1/2*wucha^2; erro [erro,wucha]; for m 1:j+1 w(1,m) w(1,m)+n*wucha*y(1,m); end; for m 1:j v(:,m) v(:,m)+n*wucha*w(1,m)*y(1,m)*(1-y(1,m))*x(p,:); end q q+1; end; for t 1:101; Erme Erme+err(1,t); end; err zeros(1,101);
显示全部
相似文档