Abstract针对大规模的图像检索问题,论文提出了一个高效的ITQ算法。该算法先将中心化后的数据映射到超立方体的顶点上,再通过优化过程寻找一个旋转矩阵,使得数据点经过旋转后,与超立方体的顶点数据具有最小的量化误差。ITQ算法涉及到了multi-class spectral clustering(不懂)以及Orthogonal Procrustes problem,且可以通过PCA(无监督)或CCA(监督)的方法事先对数据进行降维。该方法的实验结果优于大部分start-of-the-art方法。 1. Introduction一个高效的二值编码学习方法应具有以下特点:(1)码长足够短,内存才不会占用过大;(2)应该具有局部敏感性,即原始空间相似的两个数据点在二值空间也应具有较近的汉明距离;(3)学习和查询过程效率也足够高。 在很多哈希方法中,初始的操作都是对数据进行PCA降维。但是每个特征维度所具备的方差是不同的,高方差的特征方向往往具有更多的信息,如果对所有方向都进行相同的编码(亦或要求向量间正交),那么算法有时会具有更差的表现。SSH算法通过放松对hash函数的正交限制得到了不错的表现,而在ITQ算法中并没有显式得对hash函数添加正交限制。算法初始也是进行PCA降维,然后随机初始化一个旋转矩阵,通过最小化量化误差的过程寻找到矩阵矩阵$R^*$,从而得到最终的映射函数。 2. Unsupervised Code Learning接下来对文章用到的符号表示进行声明: $X∈R^{n*d}$,为数据矩阵,并且对其进行中心化预处理 $B = sgn(XW)$,W为映射函数,sgn为符号函数,B表示X经过映射后的数据,在二值超立方体上的映射的数据。 令$V = XW$,算法的目标是最小化量化误差$||sgn(V) - V||$,并令$W^$表示最优解。假设R为旋转矩阵,因为旋转矩阵只改变方向不改变映射关系,因此$W = W^ R$依然为算法的最优解。据此可得到量化损失函数为: 固定R,对B进行更新 通过对$Q(B,R)$公式的推导,我们得到最小化$Q(B,R)$的过程等同于最大化$tr(BR^TV^T) = \sum_{i=1}^n \sum_{j=1}^cB_{ij}V^*_{ij}$,其中$V^* = VR$。显然,因为B的取值只有-1和1,为使得该式最大,应使得V为正值时对应的B为1,V为负值时对应的B为-1。此外,对原始数据$X$的尺度进行改变不会影响到B或R的最优值,因此我们实现对数据进行中心化处理对实验结果没有影响。 固定B,对R进行更新 在此情况下,目标公式(1)就变成了典型的Orthogonal Procrustes problem,该问题的求解过程可以参考wiki百科。在本文中,利用SVD分解,使得$B^TV = S\Omega S^T$,再令$R = SS^T$,便可求解。 3. Evaluation of Unsupervised Code Learning数据集
评估方案
论文比较了PCA-RR、PCA-ITQ等与其他baseline方法的对比。 在CIFAR下的实验结果表明,在两种评估方案下,PCA-ITQ算法的表现基本都优于其他baseline。除了在256-bits时,SKLSH在第一种量度下的表现最好,但是SKLSH在第二种量度下的表现却很差。由此可以看出基于PCA的方法在码长短的情况下相对于其他baseline有更好的帮助。 疑问:为什么SKLSH在高比特数下,在两种评估方案下有不同的表现? 在Tiny image dataset的实验结果表明,在256-bits下,基本所有算法的表现都优于在CIFAR的256-bits下的表现,这应该是由于大型的数据集会具有更多的特征空间,算法能够找到更多的图像之前的匹配。 4. Leveraging Label InformationRR和ITQ可以利用任何基于正交的投影方法。PCA利用一种无监督的方法进行降维,而CCA结合了数据中的标签进行,进行有监督得降维,从而得到了更好的实验结果。 因为CIFAR的类标签时人为标注的,较为“clean”,而Tiny image dataset的数据是互联网自动产生的,较为“noisy”。从实验结果可以看出,利用clean数据训练的CCA-ITQ具有最优的表现,而利用noisy数据训练的CCA-ITQ同样也比PCA-ITQ得到了很大的提升。 来源:http://www./content-4-29151.html |
|