アルゴリズム弱太郎

Twitter @01futabato10

Deep metric learning using Triplet network

こんにちは、futabatoです。

今回は、Deep metric learning using Triplet network ( Hoffer, Elad, and Nir Ailon., 2015 )の論文に目を通したので、論文メモとしてBlogに残しておきます。

arxiv.org


Deep metric learning using Triplet network

論文の概要

Triplet Lossです。

Figure 1: Triplet network structure

Deep metric learning using Triplet network

Abstract

Deep learning has proven itself as a successful set of models for learning useful semantic representations of data. These, however, are mostly implicitly learned as part of a classification task. In this paper we propose the triplet network model, which aims to learn useful representations by distance comparisons. A similar model was defined by Wang et al. (2014), tailor made for learning a ranking for image information retrieval. Here we demonstrate using various datasets that our model learns a better representation than that of its immediate competitor, the Siamese network. We also discuss future possible usage as a framework for unsupervised learning.

既存研究と比べてどこがすごい?

Contrastive Lossでは正のペアは0、負のペアはmになるように最適化されていたが、Triplet Lossは正のペアの距離より負のペアが相対的に遠ざけるように最適化される。 SiameseNetでは類似・非類似のコンテキスト情報が必要であったが、TripletNetでは3つのサンプルのうち2つが同じクラスからサンプリングされていればよく、それがどのクラスであるかの情報は必要ない。

技術や手法のキモはどこ?

あるサンプル xと同じクラスの x^{+}と違うクラスの x^{-}の3つを入力として、正のペアと負のペアとの距離を相対的に遠くなるように最適化する。

どうやって有効だと検証した?

  • MNISTでSiameseNetとの比較
  • CIFAR-10, SVHN, STL10で精度算出

議論はある?

  • データセットのサンプル数が多くなると組み合わせの数が O(n^{3})で爆発的に増える。
  • tripletの組み合わせによってモデルの性能が変わってきてしまうらしい。

次に読むべき論文は?

Triplet Lossを用いたFaceNet

arxiv.org


最後までご覧いただきありがとうございました。