ランクSIFT

ランクSIFTアルゴリズムは、SIFT(スケール不変特徴変換)アルゴリズムを改良したもので、ランキング手法を用いてSIFTアルゴリズムの性能を向上させています。実際、ランキング手法は、元のSIFTアルゴリズムのキーポイントの特定や記述子生成に利用できます。

ランキング手法を用いたSIFT

要点のランキング

SIFT検出器によって検出されたキーポイントを一定数維持するためにランキング技術を使用することができる。[1]

学習画像シーケンスであり、がSIFT検出器によって得られたキーポイントであるとします。次の式は、キーポイントセットにおけるの順位を決定します。 の値が大きいほど、 の順位が高くなります { メートル メートル 0 1 M } {\displaystyle \left\{I_{m},m=0,1,...M\right\}} p {\displaystyle p} p {\displaystyle p} R p {\displaystyle R(p)} p {\displaystyle p}

R p 0 メートル q メートル H メートル p q 2 < ϵ {\displaystyle R(p\in I_{0})=\sum _{m}I(\min _{q\in I_{m}}{\lVert H_{m}(p)-q\rVert }_{2}}

ここで、 は指示関数、はから へのホモグラフィ変換は閾値です。 {\displaystyle I(.)} H メートル {\displaystyle H_{m}} 0 {\displaystyle I_{0}} メートル {\displaystyle I_{m}} ϵ {\displaystyle \epsilon }

は上記で定義したキーポイントの特徴記述子であると仮定する。したがって、特徴ベクトル空間におけるランクでラベル付けすることができる。そして、ラベル付けされた要素を含むベクトル集合は、ランキングSVM [2]問題の訓練セットとして用いることができる 学習プロセスは以下のように表される。 × {\displaystyle x_{i}} p {\displaystyle p_{i}} × {\displaystyle x_{i}} p {\displaystyle p_{i}} X f e 1つの t あなた r e s p 1つの c e { × 1 × 2 } {\displaystyle X_{特徴空間}=\left\{{\vec {x}}_{1},{\vec {x}}_{2},...\right\}}

メートル n メートル z e : V 1 2 s t   ×   1つの n d   × j X f e 1つの t あなた r e s p 1つの c e T × × j 1 f   R p 0 > R p j 0 {\displaystyle {\begin{array}{lcl}minimize:V({\vec {w}})={1 \over 2}{\vec {w}}\cdot {\vec {w}}\\st\\{\begin{array}{lcl}\forall \ {\vec {x}}_{i}\ および\ {\vec {x}}_{j}\in X_{featurespace},\\{\vec {w}}^{T}({\vec {x}}_{i}-{\vec {x}}_{j})\geqq 1\quad if\ R(p_{i}\in I_{0})>R(p_{j}\in I_{0}).\end{array}}\end{array}}}

得られた最適値は、将来の重要なポイントを順序付けるために使用できます。 {\displaystyle {\vec {w}}^{*}}

記述子の要素のランク付け

ランキング技術はキーポイント記述子を生成するためにも使用できる。[3]

がキーポイントの特徴ベクトルであり、 の要素がにおけるの対応する順位であるとしますは次のように定義されます。 X { × 1 × } {\displaystyle {\vec {X}}=\left\{x_{1},...,x_{N}\right\}} R { r 1 r } {\displaystyle {R}=\left\{r_{1},...r_{N}\right\}} × {\displaystyle x_{i}} X {\displaystyle X} r {\displaystyle r_{i}}

r | { × : × × } | {\displaystyle r_{i}=\left\vert \left\{x_{k}:x_{k}\geqq x_{i}\right\}\right\vert .}

元の特徴ベクトルを順序記述子に変換した後、次の 2 つの測定で 2 つの順序記述子の違いを評価できます。 X {\displaystyle {\vec {X}}} R {\displaystyle {\vec {R}}}

  • スピアマン相関係数

スピアマン相関係数は、スピアマンの順位相関係数とも呼ばれる。2つの順序記述子とについて次の式が成り立つことが証明できる。 R {\displaystyle {\vec {R}}} R {\displaystyle {\vec {R}}^{'}}

ρ R R 1 6 1 r r 2 2 1 {\displaystyle \rho ({\vec {R}},{\vec {R}}^{'})=1-{6\sum _{i=1}^{N}(r_{i}-r_{i}^{'})^{2} \over N(N^{2}-1)}}

  • ケンドールのタウ

ケンドールのタウはケンドールのタウ順位相関係数とも呼ばれる。上記のケースでは、との間のケンドールのタウ R {\displaystyle R} R {\displaystyle R^{'}}

τ R R 2 1 j + 1 s r r j r r j 1 {\displaystyle \tau ({\vec {R}},{\vec {R}}^{'})={2\sum _{i=1}^{N}\sum _{j=i+1}^{N}s(r_{i}-r_{j},r_{i}^{'}-r_{j}^{'}) \over N(N-1)},}

h e r e s 1つの b { 1 もし  s グラム n 1つの s グラム n b 1 o {\displaystyle ここで\quad s(a,b)={\begin{cases}1,&{\text{if }}sign(a)=sign(b)\\-1,&o.w.\end{cases}}}

参考文献

  1. ^ Bing Li; Rong Xiao; Zhiwei Li; Rui Cai; Bao-Liang Lu; Lei Zhang; 「Rank-SIFT: 繰り返し可能な局所的関心点の順位付け学習」Computer Vision and Pattern Recognition (CVPR)、2011年
  2. ^ Joachims, T. (2003)、「クリックスルーデータを用いた検索エンジンの最適化」、ACM知識発見およびデータマイニング会議議事録
  3. ^ Toews, M.; Wells, W.「SIFT-Rank: 不変特徴対応の順序記述」、Computer Vision and Pattern Recognition、2009年。
「https://en.wikipedia.org/w/index.php?title=Rank_SIFT&oldid=1311241071」より取得