6

【CV知识学习】Fisher Vector

 2 years ago
source link: https://www.cnblogs.com/jie-dcai/p/5740480.html
Go to the source link to view the article. You can view the picture content, updated content and better typesetting reading experience. If the link is broken, please click the button below to view the snapshot at that time.
neoserver,ios ssh client

【CV知识学习】Fisher Vector

在论文《action recognition with improved trajectories》中看到fisher vector,所以学习一下。但网上很多的资料我觉得都写的不好,查了一遍,按照自己的认识陈述一下,望大牛指正。

核函数:

先来看一下《统计学习方法》里叙述的核函数的概念,

可以看到,核函数其实是一个内积,在SVM的公式可以提炼出内积的部分。数据在低维输入空间可能线性不可分,而在高维希尔伯特空间可能线性可分的,因此会经过一个映射函数。事实上,内积中可以理解为相似性即距离。

Fisher核:

Fisher核与Fisher信息矩阵有关,Fisher信息矩阵的意义,在知乎上的答案有了解http://www.zhihu.com/question/26561604

最后,Fisher核与Fisher信息矩阵有关,得到:,而I就是信息矩阵,U就是Score Function。

Fisher Vector在图像上的应用:

图像在这里使用GMM去描述,而图像采集的描述子是在全局范围内的,因此,Fisher向量最后描述的也是全局的特征。一般步骤如下:

先随机选择数据集,去估计GMM的各个参数。Fisher向量应该是Score函数的聚集,但由于会应用到核函数,所以会乘上Fisher信息矩阵。

GMM模型为:

其中(熟悉GMM的人都很容易明白吧),

根据贝叶斯公式,定义描述子属于第i个高斯模型的概率为:

各个参数的Score函数

Fisher信息矩阵的近似解为:

计算FV向量为:

最终的结果为:

需要注意的是,参数已经在第一步估计出来了。可以看到FV向量的好处是,它把各个大小不同描述子集转化成大小一致的一个特征向量表述。

从原始特征到FV向量的算法表述如下:

其实也没有自己想的东西,本来以为昨晚理解的挺好,今天早上再来想了想,不对啊……直接把知道的写上吧,额,好多博客都没写到点上,哎~~~~~会用就好了~~~~~~~~~~~  T_T

==============  04/12/2016 更========================== 

忽然有点明白了,之前一直在想为什么Fisher Vecotr可以作为特征,首先看了两个blog:知乎专栏CSND

最关键的地方是,fisher vector之所以可以用来做特征分类,还是因为利用了fisher核,注意到它的形式为,而I就是信息矩阵,U就是Score Function。

而fisher 向量的归一化后的每一项,都是,即信息矩阵的-1/2次方 * score fucntion。如果两个fisher vector做内积,正好可以得到fisher 核

其中信息矩阵为

score function 为


About Joyk


Aggregate valuable and interesting links.
Joyk means Joy of geeK