神经网络控制续.doc
文本预览下载声明
《智能控制》讲义
郭兴旺
北航机械学院
2007-2012
(上接ppt,“离散Hopfield网络”)
3. 连接权的设计
为保证H网收敛,要求W有如下特点:
保证异步工作方式收敛时,W应对称。(一般只保证此条件)
保证同步工作方式收敛时,W应非负定对称。(b比a要求高)
另外,对给定样本的要求是:“样本必须是网络的吸引子,而且要有一定的吸引域”,这样才能实现联想记忆功能。
为实现上述功能,通常采用Hebb规则设计连接权。
Hebb学习规则:调整的原则为,若第i和第j个神经元同时处于兴奋(或同时抑制)状态,则它们之间的连接权应加强,即
。
这一规则与条件反射学说一致,并已得到神经细胞学说的证实。
设给定m个样本,并设(元素取值为-1或1的n维向量),则
或
(权的调整规则)
写成矩阵形式为
当网络结点状态为1和0两种状态即时,求权的算式需作修改(见孙P144,以,,相当于作[0,1]到[-1,1]的映射)。
以上设计的W满足对称性的要求。下面分析所给样本是否为网络的吸引子。
(1)若m个样本两两正交,即
则有
只要满足n-m0,便有
(对符号函数,)
即是网络的吸引子。
(n—结点数,足够多,m—样本(吸引子)数,有限。对4个结点的网络,样本(吸引子)数最多为3)。
(2)若m个样本不是两两正交,且设向量之间的内积为:
则有
(解释:先划出i=k项:,
其余项为:
)
取其中第j个元素
若能使得有
(3.2)
(此时,)
则是网络的吸引子。
又由于
(放大),其中
进而若能使
(则3.2式一定成立),即
(第1种条件式)(对样本数或吸引子数的限定)
则可保证所有样本为网络的吸引子。
若m个样本满足
[含有有百分之多少()的元素不同之意]
其中,
则有
(C)
[解释:内积
]
从而m个样本均为网络吸引子的条件为
(第2种条件式) [由(C)代入(第1种条件式)得]
此式为充分条件(并非必要条件)。不满足此条件时,需具体检验才能确定样本是否为吸引子。
讨论m就是讨论能记忆多少个状态(吸引子)。
4. 记忆容量
记忆容量——在网络结构参数一定的条件下,要保证联想功能的实现,网络所能存储的最大样本数(有一定的吸引域的吸引子的个数)。
也就是说,给定网络结点数n,样本数最大可为多少,这些样本向量不仅本身应为网络的吸引子,而且应有一定的吸引域,这样才能实现联想记忆的功能。
记忆容量与下列因素有关:(1)结点数;(2)连接权的设计;(3)样本的性质(正交,随机);(4)吸引域的大小。
对于用Hebb规则设计连接权的网络,如果输入样本是正交的,则可获得最大的记忆容量。
一个样本向量的吸引域可看成是以该向量为中心的球体。在该球体中的向量满足
称为吸引半径(不相同元素的个数占总数的比例——Guo)。
对给定的网络,严格确定其记忆容量并不是一件很容易的事情。Hopfield曾提出了一个数量范围,即
连接权的常用设计方法
法(1)样本正交法(孙P145),如前所述
法(2)一种实用的设计方法:奇异值分解法,其好处是不要求样本两两正交。(孙P146,浏览)
5.举例(孙P147)
设离散H网的结构如图,其中n=4, 所有阈值为0,样本数m=2, 两个样本为
目的:(1)理解样本为网络吸引子的条件;
(2)理解吸引子、收敛、联想记忆的含义;
(3)理解弱吸引的含义;
(4)理解异步、同步工作方式的过程;
(5)理解权矩阵的设计,自持振荡的概念。
分析:黑板上讲
按Hebb规则求连接权矩阵:
这两个样本不满足均为网络吸引子的充分条件,但代入吸引子定义式检验知:
说明它们都是吸引子。
下面考察它们是否有一定的吸引能力。
(1)
经一步调整就收敛到了x(1).
(2)
经一步调整就收敛到了x(2).
(3) 设x(0)与样本的海明距离均为2,
经2步调整收敛到了x(2).
若按3,4,1,2的次序调整,则经2步调整将收敛x(1).
从上面看出,对于不同的调整次序, x(5)既可弱收敛到x(1)也可弱收敛到x(2).
下面再按同步方式计算,
(1)
收敛到了x(1).
(2)
收敛到了x(2).
(3)
经2步调整又回到了出发点。有周期为2的极限环(自持振荡)。
[自持振荡(自激振动在相平面平面内的相轨迹是孤立的封闭曲线,称作相平面的极限环
这里同样假定。
与离散H相比的特点:
(1)多了中间的一阶微分方程,相当于一个惯性环节(为输入,为输出,对应传递函数为);对离散H网,中间式子也可看成为。
(2)输出变换函数不再是二值函数,而一般取S形函数。
显示全部