理论教育 补偿滤波算法误差边界性分析

补偿滤波算法误差边界性分析

时间:2023-07-16 理论教育 版权反馈
【摘要】:在本节中,将对基于扰动观测器的补偿卡尔曼滤波算法估计误差的有界性进行分析。在6.2节中已经证明了在满足一定条件时扰动观测器的估计误差是有界的。为了便于证明,这里将采用一步表达式进行离散时间扩展卡尔曼滤波算法以及基于扰动观测器的补偿卡尔曼滤波算法的误差有界性分析。

补偿滤波算法误差边界性分析

在本节中,将对基于扰动观测器的补偿卡尔曼滤波算法估计误差的有界性进行分析。在6.2节中已经证明了在满足一定条件时扰动观测器的估计误差是有界的。因此,接下来将基于该证明对扰动观测器的卡尔曼滤波算法的估计误差进行有界性分析。

离散时间扩展卡尔曼滤波有两种常见的表达式:一种是由时间更新和量测更新组成的两步递归;另一种是基于先验变量的一步表达式。这两组方程虽然表达形式不同,但有着相同的收敛性。为了便于证明,这里将采用一步表达式进行离散时间扩展卡尔曼滤波算法以及基于扰动观测器的补偿卡尔曼滤波算法的误差有界性分析。

1.离散时间扩展卡尔曼滤波的有界性分析

首先考虑如下的离散时间非线性随机系统:

式中:非线性函数f和h为C-1函数,可以展开为

式中:矩阵Φk和Hk计算方法为

定义6.1 标准的扩展卡尔曼滤波可以由耦合差分方程表示为

状态估计差分方程:

黎卡提差分方程:

卡尔曼滤波增益:

定义标准扩展卡尔曼滤波的状态估计误差为状态的真实值与滤波估计值之差为

将式(6-64)和式(6-70)代入式(6-73)中,可得

将式(6-65)代入式(6-74)中,可得

由式(6-66)、式(6-67)和式(6-75),可得

根据式(6-73)中对估计误差的定义,式(6-76)可表示为

现假设系统满足下列条件:

(1)当k≥0时,存在正实数使得下列矩阵满足如下不等式:

(2)当k≥0时,Φk,k-1为非奇异矩阵。

(3)当x,满足时,存在正实数κφ,κχ,εφ,εχ>0,使得非线性函数φ、χ分别满足如下不等式:

为了证明离散时间扩展卡尔曼滤波算法的有界性,提出以下三个引理,这些引理在Reif的文章中已经得到证明,并且基于这三个引理推导得出了理论6.1,因此这里将直接使用结论,省略对引理及结论的证明。

引理6.2 满足条件(1)的假设时,当k≥0时,令存在正实数0<α<1使得下列不等式成立:

引理6.3 满足条件(1)的假设时,当xk满足时,令存在正实数0<α<1使得下列不等式成立:(www.daowen.com)

引理6.4 满足条件(1)的假设时,令过程噪声和测量噪声的协方差矩阵满足存在与δ相互独立的正实数κroise>0,使得下列不等式成立:

理论6.1 满足条件(1)的假设时,存在正实数ε>0,使得当初始的估计误差满足不等式

同时,过程噪声和测量噪声的协方差矩阵满足不等式

时,由式(6-76)给出的估计误差ek均方指数有界。

2.基于扰动观测器的补偿卡尔曼滤波的有界性分析

定义6.2 基于扰动观测器的补偿卡尔曼滤波可以由如下耦合差分方程表示:

补偿滤波算法的黎卡提差分方程和滤波增益方程与式(6-71)和式(6-72)一致,比较基于扰动观测器的补偿卡尔曼滤波算法与扩展卡尔曼滤波算法的差分方程式(6-93)和式(6-70),可以看出两者的不同在于式(6-93)多了一个机动加速度有关的项Bk-1 dk-1。由于机动目标的非合作特性,因此采用了由扰动观测器输出的机动加速度的估计值代替dk-1。现定义基于扰动观测器的补偿卡尔曼滤波的估计误差为

将式(6-1)和式(6-93)代入式(6-94)中,可得

将式(6-65)代入式(6-95)中,可得

由式(6-19)、式(6-66)和式(6-67),有

根据对估计误差的定义式(6-94),有

将式(6-79)和式(6-80)代入式(6-98)中,可得

将式(6-99)的估计误差与离散时间扩展卡尔曼滤波算法的估计误差方程式(6-78)相比,可以发现当引入了扰动观测器后,式(6-99)比式(6-78)多了一个误差项uk-1。由之前对离散时间扩展卡尔曼滤波算法的有界性分析可知,只要新引入的误差项是有界的,那么基于扰动观测器的补偿卡尔曼滤波算法的估计误差有界。扰动观测器的误差分析已经在6.2节中给出,式(6-58)证明了当满足一定条件时,扰动观测器的估计误差有界。因此,基于扰动观测器的补偿滤波算法在满足下述假设条件:

(1)当k≥0时,存在正实数使得下列矩阵满足如下不等式:

(2)假设

(3)当k≥0时,Φk,k-1为非奇异矩阵。

(4)当满足时,存在正实数κφ,κχ,εφ,εχ>0,使得非线性函数φ、χ分别满足如下不等式:

(5)假设

时,且存在正实数ε>0,使得当初始的估计误差满足不等式

时,基于扰动观测器的补偿滤波算法的估计误差有界。

免责声明:以上内容源自网络,版权归原作者所有,如有侵犯您的原创版权请告知,我们将尽快删除相关内容。

我要反馈