こんにちは、futabatoです。
今回は、Deep metric learning using Triplet network ( Hoffer, Elad, and Nir Ailon., 2015 )の論文に目を通したので、論文メモとしてBlogに残しておきます。
Deep metric learning using Triplet network
論文の概要
- 著者: Hoffer, Elad, and Nir Ailon.
- 年度: 2015
- 論文URL: https://arxiv.org/abs/1412.6622
- 被引用数: 1591
- タグ:
face recognition
,Loss
Triplet Lossです。
Deep metric learning using Triplet network
Abstract
Deep learning has proven itself as a successful set of models for learning useful semantic representations of data. These, however, are mostly implicitly learned as part of a classification task. In this paper we propose the triplet network model, which aims to learn useful representations by distance comparisons. A similar model was defined by Wang et al. (2014), tailor made for learning a ranking for image information retrieval. Here we demonstrate using various datasets that our model learns a better representation than that of its immediate competitor, the Siamese network. We also discuss future possible usage as a framework for unsupervised learning.
既存研究と比べてどこがすごい?
Contrastive Lossでは正のペアは0、負のペアはmになるように最適化されていたが、Triplet Lossは正のペアの距離より負のペアが相対的に遠ざけるように最適化される。 SiameseNetでは類似・非類似のコンテキスト情報が必要であったが、TripletNetでは3つのサンプルのうち2つが同じクラスからサンプリングされていればよく、それがどのクラスであるかの情報は必要ない。
技術や手法のキモはどこ?
あるサンプルと同じクラスのと違うクラスのの3つを入力として、正のペアと負のペアとの距離を相対的に遠くなるように最適化する。
どうやって有効だと検証した?
- MNISTでSiameseNetとの比較
- CIFAR-10, SVHN, STL10で精度算出
議論はある?
- データセットのサンプル数が多くなると組み合わせの数がで爆発的に増える。
- tripletの組み合わせによってモデルの性能が変わってきてしまうらしい。
次に読むべき論文は?
Triplet Lossを用いたFaceNet
最後までご覧いただきありがとうございました。