アルゴリズム弱太郎

Twitter @01futabato10

Dimensionality Reduction by Learning an Invariant Mapping

こんにちは、futabatoです。

今回は、Dimensionality Reduction by Learning an Invariant Mapping ( Hadsell, Raia, Sumit Chopra, and Yann LeCun. , 2006 )の論文に目を通したので、論文メモとしてBlogに残しておきます。

ieeexplore.ieee.org


Dimensionality Reduction by Learning an Invariant Mapping

論文の概要

本論文は次元削減手法として提案していますが、metric learningの基本となったContrastive Lossを提案しています。

Figure 7. This experiment measured DrLIM’s success at learning a mapping from high-dimensional, shifted digit images to a 2D manifold.

Dimensionality Reduction by Learning an Invariant Mapping

Abstract

Dimensionality reduction involves mapping a set of high dimensional input points onto a low dimensional manifold so that 'similar" points in input space are mapped to nearby points on the manifold. We present a method called Dimensionality Reduction by Learning an Invariant Mapping (DrLIM) for learning a globally coherent nonlinear function that maps the data evenly to the output manifold. The learning relies solely on neighborhood relationships and does not require any distancemeasure in the input space. The method can learn mappings that are invariant to certain transformations of the inputs, as is demonstrated with a number of experiments. Comparisons are made to other techniques, in particular LLE.

既存研究と比べてどこがすごい?

学習データに含まれていない未知の点を安定して写像することができる関数を学習できる。

技術や手法のキモはどこ?

意味的な類似性を学習するために、正のペアは0に違づくように、負のペアはmに近づくように学習する。

 \displaystyle
L(W, Y, \vec{X_{1}}, \vec{X_2}) = (1-Y)\frac{1}{2}(D_{w})^2 + (Y)\frac{1}{2}\{max(0, m-D_{w}) \}^2

どうやって有効だと検証した?

  • MNISTでどのようにマッピングされるかを示した。
  • NORBデータセットを使って1つの物体の画像群に対する次元削減を実証した。

議論はある?

  • ペアが正であるか負であるかのコンテキスト情報とペアリング作業が必要になる。
  • 正のペアは0, 負のペアはmになるように最適化が進められるが、正のペアが負のペアより相対的に近ければよいはず。

次に読むべき論文は?

triplet loss

arxiv.org


最後までご覧いただきありがとうございました。