当前位置:首页 >> 高中教育 >> RBF

RBF


第4章 径向基函数神经网络
4.1 RBF网络结构和工作原理 4.2 RBF网的生理学基础 4.3 RBF网的数学基础 4.4 RBF网的常用学习算法 4.5 仿真例子 4.6 讨论

4.1 RBF网络结构和工作原理
径向基函数神经网络(RBF网)是一种前馈神经网络,一 般为三层结构,其如图4.1所示。

图4.1

RBF网结构

图4.1为n – h – m结构的RBF网,即网络具有n个输入,h个 隐节点,m个输出。其中 x = ( x1,x2, ,x n ) T ∈ R n 为网络输 L
h× m W 入矢量, ∈ R 为输出权矩阵,b0,…bm,为输出单元偏移,

y = [ y1 ,..., y m ] 为网络输出, i (?) 为第i个隐节点的激活函 Φ
T

数。图中输出层节点中 ∑的表示输出层神经元采用线性激活 函数,当然输出神经元也可以采用其它非线性激活函数,如 Sigmoid函数。

我们知道,多层感知器(包括BP网)的隐节点基函数采用 线性函数,激活函数则采用Sigmoid函数或硬极限函数。与多层 感知器不同,RBF网的最显著的特点是隐节点的基函数采用距 离函数(如欧氏距离),并使用径向基函数(如Gaussian函 数)作为激活函数。径向基函数关于n维空间的一个中心点具有 径向对称性,而且神经元的输入离该中心点越远,神经元的激 活程度就越低。隐节点的这一特性常被称为“局部特性”。因此 RBF网的每个隐节点都具有一个数据中心,如图4.1中ci就是网 络中第i个隐节点的数据中心值, ? 则表示欧氏范数。

径向基函数Φ i (?) 可以取多种形式,如下面的式(4.1)至 式(4.3),其曲线形状如图4.2所示。 (1). Gaussian函数
t2

Φ i (t ) = e
(2). Reflected sigmoid函数

?

δ i2

(4.1)

Φ i (t ) =

1
t2

(4.2)

1+ eδ

2

(3). 逆Multiquadric函数 Φ i (t ) =

(t

1
2



2 α i

)

, α >0

(4.3)

图4.2 RBF函数

(Spread)或宽度。显然,δ i 越小,径向基函数的宽度就越 小,基函数就越具有选择性。 于是图4.1中,RBF网的第个k输出可表示为:

式(4.1)至式(4.3)中的δ i 称为该基函数的扩展常数

y k = ∑ wi Φ i ( x ? ci )
i =1

h

(4.4)

下面以两输入单输出函数逼近为例,简要介绍RBF网的工 作机理。与输出节点相连的隐层第i个隐节点的所有参数可用三 元组 (ci , δ i , wi ) 表示。由于每个隐层神经元都对输入产生响应, 且响应特性呈径向对称(即是一个个同心圆),于是RBF网的 作用机理可用图4.3表示。图4.3表示输入区域中中有6个神经 元,每个神经元都对输入x产生一个响应 Φ i ( x ? ci ) ,而神经网 络的输出则是所有这些响应的加权和。 由于每个神经元具有局部特性,最终整个RBF网最终也呈 现“局部映射”特性,即RBF网是一种局部相应神经网络。这意

味着如果神经网络有较大的输出,必定激活了一个或多个隐节 点。

图4.3 RBF网的工 作原理

4.2 RBF网的生理学基础
事实上,RBF网的隐节点的局部特性主要是模仿了某些 生物神经元的“内兴奋外抑制”(on-center off-surround)功 能,灵长类动物的的视觉系统中就有这样的神经元。下面简 要介绍人眼接收信息的过程并介绍近兴奋-远抑制功能。 眼是人接收来自外部信息的最主要的接收器官。外界物 体的光线射入眼中,聚焦后在视网膜上成像,视网膜发出神 经冲动达到大脑皮层视区,产生视觉。在所有的感官系统 中,视网膜的结构最复杂。视网膜为感光系统,能感受光的 刺激,发放神经冲动。它不仅有一级神经元(感光细胞),还有

二级神经元(双极细胞)和三级神经无(神经节细胞)。 感光细胞与双极细胞形成突触联系,双极细胞外端与感光 细胞相连,内端与神经节细胞相接,神经节细胞的轴突则组成 视神经束。来自两侧的视神经在脑下垂体前方会合成视交叉。 在这里组成每一根视神经的神经纤维束在进一步进入脑部之前 被重新分组。从视神经交叉再发出的神经束叫作视束。在重新 分组时,来自两眼视网膜右侧的纤维合成一束传向脑的右半 部.来自两眼视网膜左侧的纤维合成另一束传向脑的左半部。 这两束经过改组的纤维视束继续向脑内行进,大部分终止于丘 脑的两个被分成外侧膝状体的神经核。

外膝体完成输入信息处理上的第一次分离,然后传送到大 脑的第一视区和第二视区。外膝体属丘脑,是眼到视皮层的中 继站,这就是视觉通路。视网膜上的感光细胞通过光化学反应 和光生物化学反应,产生的光感受器电位和神经脉冲就是沿着 视觉通路进行传播的。 从神经感受野可以作出员完善的分析。中枢神经元的感受 野是指能影响某一视神经元反应的视网膜或视野的区域。可通 过电生理学试验记录感受野的形状。电生理学试验可理解为有 一根极小的电极置于某个细胞内的特定欲记录电位的区域,这 样,当光束照到视网膜上,如果该细胞被激活,通过这一区域

电脉冲(Spike)就增加;反之,如果该细胞被抑制,通过这一 区域的电脉冲(Spike)就减少。静止的细胞膜电位约70毫伏, 因此我们可以用示波器观察到这些脉冲。 每个视皮层,外侧膝状体的神经元或视网膜神经细胞节细 胞在视网膜上均有其特定的感受野。Hubel与Wiesel比较了侧膝 核与节细胞的感受野,结果发现它们非常相识,都呈圆形,并 具有近兴奋远抑制(on-center off-surround)或远兴奋近抑制(offcenter on surround)功能,如图4.4所示。

图4.4 神经元的近兴奋远抑制现象

对于每一个这样的内兴奋外抑制神经元,我们可以用以下 函数进行建模:

Φ i ( x ) = G ( x ? ci

)

(4.5)

其中x为输入(光束照在视网膜上的位置),ci为感受野的 中心,对应于视网膜上使神经元最兴奋的光照位置。G(.)的具 体形式见前面的式(4.1)至式(4.3)。

4.3 RBF网的数学基础
4.3.1 内插问题 假定共有N个学习样本,其输入为 s = ( X 1,X 2, ,X N ), L
L 相应的样本输出,即教师信号(单输出)为 t = ( y1,y 2, ,y N )。

所谓的多变量内插问题是指寻找函数F,满足以下的内插条件:

yi = F ( X i )

(4.6)

这是一个非常经典的数学问题,可以有多种解决方案,采 用RBF网也可以解决这一问题的学习问题。由式(4.4)可知, 使用RBF网前必须确定其隐节点的数据中心(包括数据中心的 数目、值、扩展常数)及相应的一组权值。RBF网解决内插问 题时,使用N个隐节点,并把所有的样本输入选为RBF网的数据 中心,且各基函数取相同的扩展常数。于是RBF网从输入层到 隐层的输出便是确定的。

W L 现在我们再来确定网络的N个输出权值 = ( w1,w2, ,wN ) T

(待定)。我们只要把所有的样本再输入一遍,便可解出各wi 的值。假定当输入为Xi, = 1,L,N 时,第j个隐节点的输出 i 2, 为:

hij = Φ j ( X i ? c j )

(4.7)

其中 Φ j (?)为该隐节点的激活函数,cj=Xj为该隐节点RBF函数的 数据中心。于是可定义RBF网的隐层输出阵为

H = h ij

[ ]

, H ∈ R N ×N



此时RBF网的输出为:

f ( X i ) = ∑ hij w j = ∑ w j Φ( X i ? c j )
j =1 j =1

N

N

(4.8)

令 yi = f ( X i )

W = ( w1,w2, ,w N ) T L

y = t T = ( y1,y 2, ,y N ) T L
便得:

y = HW

如果 H ∈ R N × N 可逆,即其列向量构成RN中的一组基,则 输出权矢量可由下式得到

W = H ?1 y

(4.9)

事实上,根据Micchelli定理[Micc1986],如果隐节点激活
L 函数采用上述的径向基函数,且 X 1,X 2, ,X N 各不相同,则

隐层输出阵H的可逆性是可以保证的。 因此,如果把全部样本输入作为RBF网的数据中心,网络 在样本输入点的输出就等于教师信号,此时网络对样本实现了 完全内插,即对所有样本误差为0。但上式方案存在以下问 题:

(1). 通常情况下,样本数据较多,即N数值较大,上述方案中 隐层输出阵H的条件数可能过大,求逆时可能导致不稳定。

(2). 如果样本输出含有噪声,此时由于存在过学习的问题,作 完全内插是不合适的,而对数据作逼近可能更合理。 为了解决这些问题,可以采用下面的正则化网络。

4.3.2 正则化网络 假定 S = ( X i , y i ) ∈ R n × R i = 1,2,..., N 为我们欲用函数F 逼近的一组数据。传统的寻找逼近函数F的方法是通最小化以 下目标函数(标准误差项)实现的:
1 N 2 E S (F ) = ∑ ( y i ? F ( X i )) 2 i =1

{

}

(4.10)

该函数体现了期望响应与实际响应之间的距离。而所谓的 正则化方法[Tikh1977],是指在标准误差项基础上增加了一个

限制逼近函数复杂性的项(正则化项),该正则化项体现逼近 函数的“几何”特性:

1 E R (F ) = DF 2

2

(4.11)

其中D为线性微分算子。于是正则化方法的总的误差项定义 为:
E (F ) = E S (F ) + λE R (F )

(4.12)

其中λ为正则化系数(正实数)。我们将在第7章介绍正则化理 论,这里给出上述正则化问题的解为[Pogg1990]

F ( X ) = ∑ wi G ( X , X i )
i =1

N

(4.13)

~ 其中G(X,Xi)为自伴随算子DD 的Green函数,wi为权系数。Green
函数G(X,Xi)的形式依赖于算子D的形式,如果D具有平移不变性 和旋转不变性,则Green函数的值取决于X与Xi之间的距离,即

G( X , X i ) = G( X ? X i

)

(4.14)

如果选择不同的算子D(应具有平移和旋转不变性), 便可得到不同的Green函数,包括Gaussian函数这样的最常用 的径向基函数。 按照上述方式得到的网络称为正则化网络,其拓扑结构 如下图4.5所示。

图4.5 正则化网络

该正则化网络具有以下特点: (1). 具有万能逼近能力,即只要有足够的隐节点,正则化网络 能逼近紧集上的任意连续函数; (2). 具有最佳逼近特性,即任给未知的非线性函数f,总可以找 到一组权系数,在该组系数下正则化网络对f的逼近优于其 它系数; (3). 正则化网络得到的解是最优的,即通过最小化(4.12), 得到了同时满足对样本的逼近误差和逼近曲线平滑性的最 优解。

4.4 RBF网的常用学习算法
正则化网络要求网络的隐节点数等于训练样本数,在训练 样本较多时该方法显然不能令人满意,因此有必要寻找更适合 工程化应用的RBF网学习方法。由式(4.4)可见,给定了训练 样本,RBF网的学习算法应该解决以下问题:结构设计,即如 何确定网络隐节点数h;确定各径向基函数的数据中心ci及扩展 常数 δ i ;输出权值修正。一般情况下,如果知道了网络的隐 节点数、数据中心和扩展常数,RBF网从输入到输出就成了一 个线性方程组,此时权值学习可采用最小二乘法求解。

根据数据中心的取值方法,RBF网的设计方法可分为两大类。 1) 数据中心从样本输入中选取 这种方法中数据中心从样本输入中选,如OLS算法、ROLS 算法、进化优选算法等。这类算法的特点是数据中心一旦获得 便不再改变,而隐节点的数目或者一开始就固定,或者在学习 过程中动态调整。 2)数据中心动态调节方法 这类方法中数据中心的位置在学习过程中是动态调节的, 如各种基于动态聚类(最常用的是K-means聚类或Kohenen提出

的SOFM方法[Koho1984])方法、梯度训练方法、资源分配网络 (RAN)等。 这些方法各有优缺点。第一类算法较容易实现,且能在权 值学习的同时确定隐节点的数目,并保证学习误差不大于给定 值,但数据中心从样本输入中选取是否合理,值得进一步讨 论。另外,OLS算法并不一定能设计出具有最小结构的RBF 网,也无法确定基函数的扩展常数。第二类方法中,聚类方法 的优点是能根据各聚类中心之间的距离确定各隐节点的扩展常 数,缺点是确定数据中心时只用到了样本输入信息,而没有用 到样本输出信息;另外聚类方法也无法确定聚类的数目 (RBF

网的隐节点数)。由于RBF网的隐节点数对其泛化能力有极大的 影响,所以寻找能确定聚类数目的合理方法,是聚类方法设计 RBF网时需首先解决的问题。 下面我们主要介绍RBF学习的聚类方法、梯度学习方法, 及正交最小二乘(OLS)优选算法。这些算法也是最常用的 RBF网学习算法,其它的算法,如资源分配网络(RAN)、进 化优选算法等,将在以后各章中介绍。

X L 在以下RBF网学习算法中, 1,X 2, ,X N 为样本输入,
L 相应的样本输出(教师信号)为 y1,y 2, ,y N ,网络中第j个
隐节点的激活函数为 Φ j (?) 。

4.4.1 聚类方法 该方法是最经典的RBF网学习算法,由Moody与Darken提出 [MoDa1989]。其思路是先用无监督学习(用 k ? means 算法对 样本输入进行聚类)方法确定RBF网中h个隐节点的数据中心, 并根据各数据中心之间的距离确定隐节点的扩展常数,然后用 有监督学习(梯度法)训练各隐节点的输出权值。 假设k为迭代次数,第k次叠代时的聚类中心为

c1 (k ),c 2 (k ),..., c h (k ) ,相应的聚类域为 w1 (k ),w2 (k ),..., wh (k )。
k ? means 聚类算法确定RBF网数据中心ci和扩展常数 δ i 的步

骤如下: (1). 算法初始化:选择h个不同的初始聚类中心,并令k=1。初始 聚类中心的方法很多,比如说从样本输入中随机选取,或者 选择前k个样本输入,但这h个初始数据中心必须取不同值。 (2). 计算所有样本输入与聚类中心的距离

X j ? ci ( k ) , i = 1,2,..., h, j = 1,2,..., N



(3). 对样本输入Xj,按最小距离原则对其进行分类:即当
i

i (X j ) = min X j ? ci (k ) , i = 1,2,..., h 时, Xj即被归为第i类,

即 X j ∈ wi (k ) 。

1 c (4). 重新计算各类的新的聚类中心: i (k + 1) = ∑kx, i = 1,2,..., h N i x∈wi ( ) 其中Ni为第i个聚类域wi(k)中包含的样本数。

(5). 如果 ci ( k + 1) ≠ ci ( k ) ,转(2),否则聚类结束,转(6)。 (6). 根据各聚类中心之间的距离确定各隐节点的扩展常数。隐 节点的扩展常数取 δ i = κd i ,其中di为第i个数据中心与其 他最近的数据中心之间的距离,即 d i = min c j ? ci ( k ) ,

κ

j ≠i

称重叠系数。

一旦各隐节点的数据中心和扩展常数确定了,输出权矢量

w = [w1 , w2 ,..., wh ] 就可以用有监督学习方法(如梯度法)训
T

练得到,但更简洁的方法是使用最小二乘方法(LMS)直接计

i 2, 算。假定当输入为Xi, = 1,L,N 时,第j个隐节点的输出如前
面式(4.7)所示,则隐层输出阵为

? H = hij

[ ]

(4.15)

T ? ∈ R N ×h 。如果RBF网的当前权值为 w = [w1 , w2 ,..., wh ] 则H

(待定),则对所有样本,网络输出矢量为:

y=Hw





(4.16)

? 令 ε = y ? y 为逼近误差,则如果给定了教师信号
y = [ y1 , y 2 ,..., y N ] 并确定了H ,便可通过最小化下式求出网络
T



的输出权值w:

? ? ε = y ? y = y ? Hw
通常w可用最小二乘法(LMS)求得:

(4.17)

? w= H+y
? ? 其中,H + 为的 H 伪逆: ? ? ? ? H + = ( H T H ) ?1 H T

(4.18)

(4.19)

4.4.2 梯度训练方法

RBF网的梯度训练方法[Hayk2001]与BP算法训练多层感知
器的原理类似,也是通过最小化目标函数实现对各隐节点数据 中心、扩展常数和输出权值的调节。这里给出一种带遗忘因子 的单输出RBF网学习方法,此时神经网络学习的目标函数为:

1 N E = ∑ β je2 j 2 j =1
其中 β j 为遗忘因子,误差信号 e j 定义为

(4.20)

e j = y j ? F (X j ) = y j ? ∑ wi Φ i (X j )
h i =1

(4.21)

由于神经网络函数F( X)对数据中心ci、扩展常数ri和输出权值wi 的梯度分别为:

2wi ? ci F ( X ) = 2 Φ i ( X )( X ? ci ) ri

(4.22) (4.23)

2wi ? ri F ( X ) = 3 Φ i ( X ) X ? ci ri

2

? wi f ( X ) = Φ i ( X )

(4.24)

考虑所有训练样本和遗忘因子的影响,ci、ri和wi的调节量 为: wi N Δci = η 2 ∑ β j e j Φ i (X j )(X j ? ci ) ri j =1 (4.25)
wi Δri = η 3 ri

∑β
j =1

N

j

e j Φ i ( X j ) X j ? ci

2

(4.26) (4.27)

Δwi = η ∑ β j e j Φ i (X j )
N j =1

其中Φ i (X j ) 为第i个隐节点对 X j 的输出, 为学习 η 率。

4.4.3 正交最小二乘(OLS)学习算法 选择RBF网数据中心的另一种方法是由Chen等人提出的正 交最小二乘算法(简称OLS算法)[ChCo1991]。该方法从样本 输入中选取数据中心,思路如下:如果把所有样本输入均作为 数据中心,并令各扩展常数取相同值,则根据前面4.3.1节提到 的Micchelli定理,隐层输出阵 H ∈ R N × N 是可逆的,于是目标 输出y可以由H的N个列向量线性表出。但是,H的N个列向量对

y的能量贡献显然是不同的,因此我们可以从H的N个列向量中
M ? 按能量贡献大小依次找出 M ≤ N 个向量构成 H ∈ R N ×,直至满

足给定误差 ε ,即

? y ? Hw0 < ε

(4.28)

? 其中w0是使 y ? Hw 最小的最优权矢量w的值。显然,选择不
? 同的 H ,式(4.28)的逼近误差是不同的。是否选择了一个 ? ? 最优的 H ,直接影响着RBF网的性能。而一旦确定了H ,也
就确定了RBF网的数据中心。 下面简要介绍这里提到的能量贡献的计算原理。假定目 标输出y可由N个互相正交的矢量(不一定是单位矢量)

x1,x 2, ,x N 线性表出,即: L

y = ∑ a i xi
i =1

N

(4.29)

xiT 后,我们有 上式右乘

x y = a i xi
T i

2

i = 1,2,..., N
N

(4.30)

于是我们有:

y y = ∑ a i xi
T i =1

2

(4.31)

1= ∑
i =1

N

a i xi y y
T

2

(4.32)

因此选择M个基矢量时的能量总贡献为:
g A = ∑ gi = ∑
i =1 i =1 M M

a i xi y y
T

2

(4.33)

注意注意上式中 0 ≤ g A ≤ 1 。M越大,gA就越大,逼近精度就 越高。如果M=N,即选择了所有的基矢量,则逼近精度最高, 此时gA=1 。 式(4.29)中的xi是相互正交的,而H的各列并不正交, 因此正交最小二乘算法(OLS)对H的列的选择是在对H作 Gram-Schmidt正交化的过程中实现的。

Gram-Schmidt正交化选择数据中心的步骤如下:
L (1). 计算隐节点输出阵H,并令H的N个列向量为P1 ,P1 , ,P1,
1 2 N

H 它们构成N维欧氏空间 E N ;

P11,P12, ,P1N 上,如果y与某一 L (2). 把输出数据矢量y投影到 y T P1k 个 P k 具有最大的夹角,即 y P k 的绝对值达最大(表示 P 1
k 1

1

该 P 对y有最大能量贡献),则把 1

k

对应的样本输入选为

P1k 构成一维欧氏空间E1。 第一个数据中心,

(3). 用4.4.1节提到的广义逆方法计算网络的输出权值(包括偏 移),并得到网络对样本的训练误差。如果误差小于目标 值则终止算法,否则对前一步中剩下的N-1个向量作Gram-

Schmidt正交化,使之正交于E1,得到 P21,P22, ,P2N ?1 ; L
(4). 找出与y有最大投影的 P2 ,选择与之对应的样本输入为第 二个数据中心;计算输出权值和训练误差,并判断是否终 止算法。 (5). 重复以上步骤,直至找到M个数据中心,使网络的训练误 差小于给定值。
j

注意,上述算法可以自动设计满足精度要求的网络结 构。我们的仿真发现,尽管其结构不一定是最优的,但网络 规模确实是相对较小的。

4.5 仿真例子
这是上一章3.3.3节的Hermit多项式逼近的例子,这里改 用RBF网实现逼近,其中噪声水平和100个训练样本的产生方 法不变。 我们用聚类方法、梯度算法及正交最小二乘算法训练

RBF网。RBF网隐层采用标准Gaussian径向基函数,输出层采
用线性激活函数,即f(u)=u。其它参数设定如下:

1. 聚类方法:数据中心和扩展常数用聚类方法得到,输出权值 和偏移采用广义逆方法求解。隐节点数(即聚类数)取10, 隐节点重叠系数为1,初始聚类中心取前10个训练样本。 2. 梯度法:数据中心、扩展常数和输出权值均用梯度法求解, 它们的学习率均为0.001。其中隐节点数取10,初始输出权值 取[-0.1,0.1]内随机值,初始数据中心取[-4.0,4.0]内随机值,初 始扩展常数取[0.1,0.3]内随机值,目标误差0.9,最大训练次数 5000。 3. 正交最小二乘算法:扩展常数取固定值0.6,目标误差0.9,隐 节点数由算法自动决定,输出权值用梯度法求解。

上面三种方法用于Hermit多项式逼近的Matlab程序见附录

C、D、E。
下图4.11为对某批训练样本,三种方法对目标函数的逼近 曲线,其中三条实线(未作区分)分别为三种方法得到的RBF 网的输入输出曲线,“+”为样本。由图可见,三条曲线是非常 接近的,说明三种方法都能较好地完成对目标函数的逼近。但 事实上,聚类方法和OLS方法学习速度要快得多,梯度方法速 度较慢,与BP算法类似。

图4.11 三种RBF网学习算法对Hermit多项式的逼近

4.6 讨论
1) 径向基函数神经网络的特点 (1). 单隐层。而MLP或BP网可能多隐层,且输入层到隐层的连 接权值固定为1。 (2). 用于函数逼近时,隐节点为非线性激活函数,输出节点线 性函数。隐节点确定后,输出权值可通过解线性方程组得 到。 (3). 具有“局部映射”特性。是一种有局部响应特性的神经网 络,如果神经网络有输出,必定激活了一个或多个隐节 点。局部映射特性在某些情况下可能特别有用。因为,在

某些实际应用中,我们宁愿得不到输出,也不愿得到一个可 能有较大误差的输出。 (4). RBF网隐节点的非线性变换作用与BP网类似,都是把 线性不可分问题转化为线性可分问题。 2) 其它问题 (1). RBF网的逼近能力 有万能逼近定理:与BP网络类似,只要隐节点数足够 多,RBF网能以任意精度逼近紧集上的连续函 [HaKe1990,

PaSa1991,GoPo1990]。

(2). 如何确定RBF网的隐层节点数 通常情况下,应该设计满足精度要求的最小结构的神经 网络[NiGi1996,Moody1992],以保证神经网络的泛化能力。 (3). OLS算法并不一定能设计出具有最小结构的网络 尽管Chen等声称OLS算法能设计最小结构的RBF网,但

Sherstinsky和Picard给出了反例[ShPi1996]。OLS方法设计的 RBF网确实不一定是最小结构的,但在大多数情况下,OLS方
法确实能给出一个比较精简的神经网络结构。如果神经网络的 规模很大(目标函数或概念比较复杂),那么OLS方法设计的

RBF网可能会影响泛化能力。

(4). 如何确定学习精度 与待解决的问题有关。通常的做法是交叉测试(Cross-

Validation),以测试误差最小时的训练误差为学习精度。
(5). 如何确定基函数的扩展常数 一种方法是取固定值,但值的大小要通过凑试方法(Try

and Error)确定;另一种方法是聚类。聚类方法能根据各聚类
中心之间的距离确定各隐节点的扩展常数,缺点是确定数据中 心时只用到了样本输入信息,而没有用到样本输出信息或误差 信息;另外聚类方法也无法确定聚类的数目。


更多相关文档:

RBF神经网络概述

RBF 神经网络概述 1 RBF 神经网络的基本原理 2 RBF 神经网络的网络结构 3 RBF 神经网络的优点 1 RBF 神经网络的基本原理人工神经网络以其独特的信息处理能力在...

神经网络及BP与RBF比较

神经网络及BP与RBF比较_数学_自然科学_专业资料。对神经网络进行介绍,并对BP神经网络和RBF神经网络进行比较机器学习第四章神经网络报告一、神经网络概述 1.简介 人工...

RBF神经网络和BF神经网络优缺点

RBF神经网络和BF神经网络优缺点_计算机硬件及网络_IT/计算机_专业资料。详细系统的分析了两种神经网络的特点和优缺点 1. RBF 的泛化能力在多个方面都优于 BP ...

训练RBF神经网络

具有混合粒子群优化的 RBF 神经网络的训练 1 具有混合粒子群优化的 神经网络的 具有混合粒子群优化的 RBF 神经网络的训练 混合粒子群优化海沧高 ,伯勤冯 1 2 ...

Matlab的RBF神经网络程序

Matlab的RBF神经网络程序_数学_自然科学_专业资料 暂无评价|0人阅读|0次下载|举报文档Matlab的RBF神经网络程序_数学_自然科学_专业资料。求助,Matlab 的 RBF 神经...

bp和rbf的区别

bp和rbf的区别_计算机软件及应用_IT/计算机_专业资料。1、BP 网络 BP 神经元的传输函数为非线性函数,最常用的是 logsing 和 tansig,有的输出层也采用线性函数(...

RBF神经网络的构建与使用

4. RBF 神经网络与 BP 神经网络进行比较 这里选择的精度均为 0.02 BP 神经网络(图 7) 图7 PNN 网络(图 8) 图8 比较图 7 和图 8,可以发现径向基网络...

RBF网络

RBF网络_互联网_IT/计算机_专业资料。RBF网络的学习过程与BP网络的学习过程类似, 两者的主要区别在于各使用不同 的作用函数。 BP网络中隐层使用的是Sigmoid函数, ...

RBF神经网络

径向基函数(RBF)神经网络 RBF 网络能够逼近任意的非线性函数, 可以处理系统内的难以解析的规律性, 具有良好的泛化能 力,并有很快的学习收敛速度,已成功应用于非...

Matlab工具箱中的BP与RBF函数

Matlab 工具箱中的 BP 与 RBF 函数 Matlab 神经网络工具箱中的函数非常丰富,给网络设置合适的属性, 可以加快网络的学习速度,缩短网络的学习进程。限于篇幅,仅对...
更多相关标签:
rbf神经网络 | rbf核函数 | rbf文件 | rbf神经网络 matlab | rbf svm | rbf网络 | 神经网络 | svm |
网站地图

文档资料共享网 nexoncn.com copyright ©right 2010-2020。
文档资料共享网内容来自网络,如有侵犯请联系客服。email:zhit325@126.com