文档详情

BP神经网络matlab实例(简单而经典).doc

发布:2017-02-04约字共6页下载文档
文本预览下载声明
1、BP网络构建 (1)生成BP网络 :由维的输入样本最小最大值构成的维矩阵。 :各层的神经元个数。 :各层的神经元传递函数。 :训练用函数的名称。 (2)网络训练 (3)网络仿真 BP网络的训练函数 训练方法 训练函数 梯度下降法 traingd 有动量的梯度下降法 traingdm 自适应lr梯度下降法 traingda 自适应lr动量梯度下降法 traingdx 弹性梯度下降法 trainrp Fletcher-Reeves共轭梯度法 traincgf Ploak-Ribiere共轭梯度法 traincgp Powell-Beale共轭梯度法 traincgb 量化共轭梯度法 trainscg 拟牛顿算法 trainbfg 一步正割算法 trainoss Levenberg-Marquardt trainlm BP网络训练参数 训练参数 参数介绍 训练函数 net.trainParam.epochs 最大训练次数(缺省为10) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.goal 训练要求精度(缺省为0) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.lr 学习率(缺省为0.01) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.max_fail 最大失败次数(缺省为5) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.min_grad 最小梯度要求(缺省为1e-10) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.show 显示训练迭代过程(NaN表示不显示,缺省为25) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.time 最大训练时间(缺省为inf) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.mc 动量因子(缺省0.9) traingdm、traingdx net.trainParam.lr_inc 学习率lr增长比(缺省为1.05) traingda、traingdx net.trainParam.lr_dec 学习率lr下降比(缺省为0.7) traingda、traingdx net.trainParam.max_perf_inc 表现函数增加最大比(缺省为1.04) traingda、traingdx net.trainParam.delt_inc 权值变化增加量(缺省为1.2) trainrp net.trainParam.delt_dec 权值变化减小量(缺省为0.5) trainrp net.trainParam.delt0 初始权值变化(缺省为0.07) trainrp net.trainParam.deltamax 权值变化最大值(缺省为50.0) trainrp net.trainParam.searchFcn 一维线性搜索方法(缺省为srchcha) traincgf、traincgp、traincgb、trainbfg、trainoss net.trainParam.sigma 因为二次求导对权值调整的影响参数(缺省值5.0e-5) trainscg net.trainParam
显示全部
相似文档