基于BP神经网络的手写数字识别.pptx
;文献来源:;INTRODUCTION;01;存在的问题:;ZIPCODERECOGNITION;PREPROCESSING;THENETWORK;;卷积神经网络结构;卷积和子采样过程;eNet-5共有7层,不包含输入,每层都包含可训练参数(连接权重)。输入图像为32*32大小。这要比Mnist数据库(一个公认的手写数据库)中最大的字母还大。这样做的原因是希望潜在的明显特征如笔画断电或角点能够出现在最高层特征监测子感受野的中心;每个层有多个FeatureMap,每个FeatureMap通过一种卷积滤波器提取输入的一种特征(每种特征都不一样),然后每个FeatureMap有多个神经元。;卷积的过程;LeNet-5文字识别;LeNet-5文字识别;LeNet-5文字识别;LeNet-5文字识别;F6层有84个单元(之所以选这个数字的原因来自于输出层的设计),与C5层全相连。F6层计算输入向量和权重向量之间的点积,再加上一个偏置。然后将其传递给sigmoid函数产生单元i的一个状态。
由于经典的BP网络是一个一维节点分布排列,而卷积神经网络是二维网络结构。所以,要把卷积神经网络的每一层,按照一定的顺序和规则映射为一维节点分布,然后,按照这个分布创建一个多层反向传播算法的网络结构,就可以按照一般的BP训练算法去学习网络参数
输出一般组织为“one-of-c”的形式,也就是只有该输入对应的类的输出节点输出为正,其他类的位或者节点为-1;第一阶段,向前传播阶段:
a)从样本集中取一个样本(X,Yp),X是输入向量,Yp是理想输出向量,将X输入网络;
b)计算相应的实际输出Op。
在此阶段,信息从输入层经过逐级的变换,传送到输出层。这个过程也是网络在完成训练后正常运行时执行的过程。在此过程中,网络执行的是计算(实际上就是输入与每层的权值矩阵相点乘,得到最后的输出结果):
Op=Fn(…(F2(F1(XpW(1))W(2))…)W(n))
第二阶段,向后传播阶段
a)算实际输出Op与相应的理想输出Yp的差;
b)按极小化误差的方法反向传播调整权矩阵。;;;;