在入门篇中偶尔谈到了Harris Corner,在这里我们就重点聊一聊Harris Corner。 Harris Corner是最典型的角点检测子Corner Detector。角点经常被检测在边缘的交界处、被遮挡的边缘、纹理性很强的部分。满足这些条件一般都是稳定的、重复性比较高的点,所以实际上他们是不是角点并不重要(因为我们的目标就是找一些稳定、重复性高的点以作为特征点)。 Harris Corner基于二阶矩阵:
这个矩阵描述了局部邻域内梯度的分布情况。矩阵的两个特征值可以用来描述两个主要方向上信号的变化,因此特征值可以用来判决是否为特征点。Harris采用的判别方法是:
显而易见,cornerness的值越大,对应的两个特征值都应该很大,其中λ取0.04,是为了抑制比较明显的直线。最后对整幅图像得到的cornerness做一个非极大抑制,得到最后的特征点。Harris角点具有的优点是平移不变、旋转不变,能克服一定光照变化。可以先从一个例子上观察Harris Corner实现的过程:
现在有几个问题:首先3.1式矩阵是如何推导出现的;另外一个问题是为什么3.4式用来决定是否为角点(即为何3.1式的两个特征值可以用来描述两个主要方向上信号的变化强度)。
Harris算子将Moravec算子做了两个推广: 1)用像素的变化梯度代替像素值相减并引入高斯窗函数(举个x方向上变化的例子为证)。 引入高斯窗是为了滤除噪声的干扰。
2)推广出了一个公式这样可以计算任意方向上的像素值变化,而不在是8个固定的方向。
因为Vuv(x,y)的最大值才是这个点需要被考虑的值,因此我们重写以上表达式: (3.5) 看到M矩阵的形式了么?这就是Harris算子的那个原始矩阵,我想推到这里,你也就应该了解Harris矩阵为什么是这样子的了。
那么为什么3.1式的两个特征值能够反映数据在两个方向的变化程度? 注意(3.5)式的目标函数(最大化Vuv)。而这个目标函数与PCA的目标函数(通过最大化变化推导PCA的投影方程时)完全一致(如果你记不清这个过程,请你看这里,重点看公式2及之后的文字描述。另外我在这里的留言板中也回答了类似的问题)。特征值是十分重要的概念,不仅在这里以及PCA上,在Laplacian Eigenmaps,LDA上也相应地被使用到。
那么又为什么3.4式取值较大时能保证α和β的取值都很大呢? a) α和β一个大而另一个小时,det小而trace大,'-’号就能使cornerness小(而'+’号却使cornerness依然很大,所以必须是减号而不是加号); b) α和β都很小时,显然cornerness很小; c) α和β都很大时(比参数λ更大),此时det会更大于trace从而使cornerness很大。 可以参考这样一个图:描述了不同纹理下α和β的取值情况(其中α和β是矩阵M的两个特征值):
这样,当我们把目标函数定义为3.4式的时候,得到的结果就会尽力满足两个特征值都比较大了。当然,除此之外,还有Harmonic mean等方式实现更理想的组合方式达到检测出的两个特征值都尽可能大。
最后附上检测效果图(右图进行了旋转) 两个图可以看出来Harris corner是rotation invariant,但是不是scale invariant。 |
|