EKF ekf是扩展卡尔曼滤波的缩写:Extended Kalman Filter 本文将从概率论中的相关概念说起,逐步讲解到贝叶斯滤波、卡尔曼滤波、和扩展卡尔曼滤波。重点将放在两个例子上:ekf定位和ekf slam的python程序。(不涉及卡尔曼增益的推导) 卡尔曼滤波 概率论基础 关于随机变量、概率密度函数、正态分布、贝叶斯法则等建议首先了解基本概念。 随机变量的期望: 连续形式: import numpy as np import random x=[3,1,2] p=[0.1,0.3,0.4] E_x=np.sum(np.multiply(x,p)) print(E_x)
随机变量的期望可以看做代表了随机变量的平均值,而随机变量的方差描述了随机变量围绕平均值的分散情况: x=np.random.randn(10) np.var(x)
多元分布指的是具有多个变量的随机分布。例如二维空间中的机器人位置需要用x和y两个变量描述,为了描述它们,需要用在x和y上都有均值的二元正态分布。 对于多元分布来说,均值 μ \muμ 可以用向量来表示: 同样地,变量的方差也可以矩阵来表示,只不过,在这里需要引入协方差的概念:就像每个变量的值都有其方差一样,也可能存在表征它们“一起变化”的情况的值。这也是衡量两个数据变量如何相互关联或“相关”的一种度量。 例如,随着身高增加,体重通常也增加。这些变量是相关的。它们是正相关的,因为随着一个变量变大,另一个变量也大概率会变大。 我们可以用一个协方差矩阵来表示多元正态分布的协方差: 对角 - 各个变量的自身方差 非对角 - 第ith个变量和第jth变量的协方差 x_cor=np.random.rand(1,10) y_cor=np.random.rand(1,10) np.cov(x_cor,y_cor)
np.cov(x_cor,y_cor,bias=1)
这里简要说一下样本和总体的区别,如果说能够确定一批数据拢共就这么多了,那么计算协方差就是当做总体来计算,而如果真实数据是无穷无尽或极大数量的,得到的数据只是从中采样得到的,那就是真实数据的样本,需要当做样本来计算协方差。 高斯分布 根据“中心极限定理”,随着样本数量的增加,随机独立变量的n个样本的平均值趋于服从正态(高斯)分布。(一般n>=30) import matplotlib.mlab as mlab import matplotlib.pyplot as plt import math import scipy.stats
mu = 0 variance = 5 sigma = math.sqrt(variance) x = np.linspace(mu - 5*sigma, mu + 5*sigma, 100) plt.plot(x,scipy.stats.norm.pdf(x, mu, sigma)) plt.show() 多元高斯分布(以二维为例):注意协方差矩阵的主对角线就是方差,非对角线上的就是两个变量间的协方差。就下面的二元高斯分布而言,协方差越大,图像越扁,也就是说两个维度之间越有联系。
贝叶斯滤波 首先,我们为什么要提到高斯分布等以上概率论内容:对于一个最基本的机器人定位问题来讲,如果机器人的运动模型是准确无误的,且机器人自身的里程计、imu等内部传感器是准确的、没有误差的. 那么我们就已经能够准确定位机器人了——速度1m/s的机器人在1s后肯定会出现在1m距离以外;另一方面来说,如果机器人的GPS、激光雷达等传感器是准确的、没有误差的,那么我们也能通过机器人在地球坐标系中的位置或机器人在环境中的相对位置来准确定位机器人。 可惜的是,对于现实中的机器人来讲,我们很难得到准确的机器人运动模型,从机器人的里程计、imu、GPS、激光雷达等传感器中读到的信号也充满噪声,所以机器人的定位才不是一个简单的问题。 我们可以将机器人的状态(包括但不限于位置、角度、速度等)用多维随机变量来表示,一般取每一维变量的期望(也就是平均值)作为该时刻下该状态的估计值,用方差来表示该状态的噪声水平(模型误差、传感器噪声等)。 下面让我们跳过基于贝叶斯法则的一系列推导,直接快进到贝叶斯滤波: The basic filter algorithm is: 卡尔曼滤波 如果以上贝叶斯滤波中的运动模型和观测模型都可以用线性系统表示,且各个噪声的分布都可以假设为高斯分布,那么这样的滤波就可以称作是一个卡尔曼滤波。 卡尔曼滤波器是在估计线性系统状态的过程中,以最小均方误差为目的而推导出的几个递推数学等式,也可以从贝叶斯推断的角度来推导。 下面总结卡尔曼滤波的公式: Kalman Filter - 从一维到多维 版权声明:本文为CSDN博主「寒墨阁」的原创文章,遵循CC 4.0 BY-SA版权协议,转载请附上原文出处链接及本声明。 |
|