理论教育 小波网络学习过程及其重要性

小波网络学习过程及其重要性

时间:2023-11-22 理论教育 版权反馈
【摘要】:小波网络的学习过程主要包括小波函数的选择、网络参数的初始化、隐含层节点数的确定和参数的调节算法等。当小波网络的隐含层节点不是2的整数幂时,应首先使用此递归过程,剩余的数据bj和aj就可以在剩余的尺度中自由选择。通常用以下经验式关于小波网络的训练算法,一般包括如下方面。而对于小波网络的构造,可采用小波基来实现。

小波网络学习过程及其重要性

小波网络的学习过程主要包括小波函数的选择、网络参数的初始化、隐含层节点数的确定和参数的调节算法等。

小波网络参数的初始化,可根据式(3.6.3)得到。即使用输入、输出测量样本数据集T={x(t),g[x(t)]|t=1,2,…,m},将测量值经过适当的处理以求和的方式来代替积分运算,可得到该式中Wf(a,b)的粗略估计。

关于小波网络初值的确定方法,以一维小波为例,设以式(3.6.10)所示的小波网络来估计函数g(x),其定义域D =[c,d]

该小波网络需要初始化的参数为wj、aj、bj,其中wj的初值可以简单的取为0或接近0的数值。

关于式(3.6.11)中aj和bj的初始化,通常包括如下步骤。首先,初始化a1和b1,在c 和d 之间选择一个点p,使c<p<d,然后设置如下

式中:ζ>0,为一适当的常数(通常ζ取0.5)。

区间[c,d]被点p 分为两个子区间;在每个子区间,重复相同的过程来初始化b2、a2、b3、a3,…,直到网络中所有参数都被初始化。当小波网络的隐含层节点不是2的整数幂时,应首先使用此递归过程,剩余的数据bj和aj就可以在剩余的尺度中自由选择。

下面讨论在区间[c,d]中选择p 的方法。首先引入密度函数

该密度函数由样本数据集T={x(t),g[x(t)]|t=1,2,…,m}来确定,然后取点p 为区间的重心,计算方法如下

对于多维小波,bij、aij分别对应于一维小波的bj、aj,i 为小波网络的输入维数。为了初始化bij和aij,分别在i 个区间上使用类似一维情况下的递归过程,然后选择适当的组合来初始化bij和aij

对于多层网络,其输入和输出节点数视问题本身决定,而隐含层节点数的选择对于小波网络的训练学习是很重要的。如果隐含层节点数过少,网络不能具有必要的学习能力和必要的信息处理能力;反之,若隐含层节点数过多,不仅会大大增加网络结构的复杂性,网络在学习过程中更易陷入局部最小,而且会使网络的学习速度变得很慢。比较常用的方法有试凑法,一般是根据经验来选取隐含层的节点数,有一定的随机性。可以借鉴Widrowd等(1960)确定神经网络隐含层节点个数的经验公式

式中:L 为隐含层节点数;m 为输入节点数;n 为输出节点数;c,d 为待定参数。

通常用以下经验式

关于小波网络的训练算法,一般包括如下方面。对于小波网络逼近的任意函数g(x)∈L2(R),其样本数据集可用下式确定

式中:t 为采样时刻;m为样本总数;x(t)为输入向量;g[x(t)]为每个模型的输出向量。(www.daowen.com)

对于网络参数θij={wj,bij,aij},可采用批处理的方法进行训练。每一个样本的误差可定义为

其均方误差为

相应的参数调整公式为

式中:η为学习速率。

对于隐含层到输出层的权值wj

对于小波基的平移参数bij

对于小波基的平移参数aij

式中:ψ′(·)为ψ(·)的导函数。

这里,采用加入动量项的改进BP算法,可得到其参数调整公式

式中:η,α为一变量,可视具体情况确定动量项的值。

如果当前的误差梯度修正方向正确,可提高学习速率,加入动量项;否则就降低学习速率,甩掉动量项。其相应表达式为

式中:φ>1;β<1;i 为训练次数。

综上,即是基于改进BP算法的小波网络参数的训练算法。而对于小波网络的构造,可采用小波基来实现。通常包括如下步骤:①选用适当的小波函数作为神经元的激励函数;②初始化网络参数,包括小波网络的平移参数和伸缩参数,权值ωj,误差精度ε>0;③计算网络输出,包括计算最小均方误差E,如果E<ε或达到循环次数则停止,如果E>ε或未达到循环次数转步骤④;④根据式(3.6.23)~式(3.6.25)分别计算网络参数wj,bij,aij的梯度;⑤根据式(3.6.26)对网络参数进行优化,转步骤(3)。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈