由于MexicanHat小波基具有计算稳定、误差小和抗干扰性好的特点,故这里以此作为小波函数。其形式为
因为它的形状像墨西哥草帽(Mexican Hat)的截面(见图3.7.15),而称该函数为墨西哥草帽函数。
图3.7.15 Mexican Hat小波图形
选择逐步检验法,确定隐含层神经元数目。该检验法的总体思路:首先取小波变换单元数目M=1;学习迭代若干次后,如满足误差条件则停止迭代;若达到最大学习次数后,仍不满足误差条件,则小波单元数目M=M+1;并重复上述过程。
传统的BP算法在学习过程中,只要求需要改变权重,而权重是和权重误差导数成正比的,但真正的梯度下降法要求所取的间隔为无限小。比例系数η是反映学习过程的一个速率常数;其值越大,权重的改变也就越大。若能选择合适的速率,使它的值尽可能的大、但又不至于引起振动,这样就可以为系统提供一个最快的学习过程。提高学习速率而又不导致振动的方法就是修改反传中的学习速率,使它包含一个动量项。也就是,在每一个加权调节量上加上一项正比例于前次加权变化量的值,即本次权重的修改表达中引入前次加权的权重修改。这就要求每次调节完成后要把该调节量记住,以便在下面的加权调节中使用。带有动量项的加权调节公式为
式中:α为动量系数,一般取0.7~0.8。
研究表明,小波网络学习过程中动量系数α、学习速率η等参数的选取,将直接影响到训练时间的长短和成果的精度。由于上述参数的选取带有一定的经验性,这样可通过试验,对不同的α、η进行训练。发现随着η的增加,训练时间和迭代次数减少,但另一方面也伴随着振荡现象的加剧;而当α增加时,开始在一定程度上阻止了网络的振荡,但增大到一定值时会出现不收敛现象。
在求解过程中,对于学习样本的预处理是必要的。这样做,可以确保各变量在分析中具有相同的地位。此可通过对样本数据的中心化和标准化变换来实现。
对观测的样本数据,可记为
式中:第i 个样本p 个变量的观测值可以记为向量,即有xi=(xi1,xi2,…,xip)T。
数据变换将施于每个变量在各个样本上的观测值(即为X 中的每一列),所谓中心化是使各变量的观测值都有相同的基点,通常是将观测值减去相应变量的平均值。记第j 个变量的平均值为
第j 个变量n 个数据实施中心化变换后为
经上述变换后,各变量的均值为0,即各变量的取值都有相同的基点。
还可以做这样的变换
(www.daowen.com)
它将使各变量的最小值为0,此为正规化。
所谓标准化是在中心化的基础上再做变换,从而使各变量的变化范围相等。当用不同的方法衡量变化范围时,就有不同的标准化变换方法。常用的有:①标准差标准化;②极差标准化;③极差正规化。这里,采用第一种方法。
关于标准差标准化,设第j 个变量的标准差为
第j 个变量n 个数据实施标准差标准化后为
经过上述变换后,各变量的均值均为0,标准差均为1。
将训练样本采用上述方法进行标准化处理后,根据前面介绍的方法(见3.6.2节)对网络参数aij、bij、wj进行初始化。按这一方法进行设置,就可在多数情况下获得合适的初始权值,从而使网络的学习次数大为减少而提高了效率。
有关网络学习算法,包括如下步骤。
(1)采用标准化变换方法,将训练样本做标准化处理。
(3)输入学习样本以及相应的期望输出。
(4)设置小波网络的最小学习误差ε和最大学习次数T。
(5)选取学习速率η=0.95,动量系数α=0.5,并设定循环次数。
(6)输入一个样本,对小波神经元的参数aij、bij和隐含层到输出层的权值w 进行修正,具体方法如下:
通过实际计算,当网络学习次数达10004次之后,误差达到要求,说明网络收敛,学习过程结束。
为了检验所训练网络的预测能力,即泛化能力,对2005 年2 月18 日~2005 年4月21 日的实测资料(不同于训练数据)进行仿真,即用已建立的非线性映射关系求对应的输出。
有关6 号G C(大)、6 号G C(中)、6 号G C(小)这3 个测点流量的小波网络模型训练和预测结果及其残差过程线如图3.7.16~图3.7.21 所示。由此反映,小波网络的学习能力和预测能力(即泛化能力)都很强,网络性能好,预测结果合理。
免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。