Triplet loss

2021-02-19 徵實則效存

什麼是Triplet Loss?

    在Triplet Loss中提到了三個實例,其一為a(anchor),其二為P(positive)即與a同類,其三為N(negative)即與a異類。該損失的本質是拉近與同類的距離,扯遠與異類的距離,更為強調兩個距離差。這樣會導致以下情況未被優化,a與p的距離很遠,但a與n的距離更遠。

    以上所提到的距離可以是歐式距離,也可以是其他類型的距離,例如cos距離。將歐式距離換為cos距離後,公式如下:

    為避免只強調距離差帶來的負面影響,可以加入regularization。從而使得同類的特徵方向性差異更小,異類的方向性差異更大。

疑問?

    選取hard_positive和hard_negative的距離標準必須和loss中的距離標準保持一致嗎?

選擇三元的步驟1.Batchsize data
每取一個樣本,將會選取K個同樣類別的樣本,循環batchsize次。以batchsize=3為例說明。

2.Hard_negative

    特點:類別不同

              特徵相似

將Input和positive輸入到模型中獲取其特徵,並記為features、p_features。將兩個特徵相乘,可以得到3個input樣本和12個樣本的特徵相似度,記為scores。

將score按照行排序,記為rank。

循環rank的第i行第j列,在pos_labels中尋找與anchor_label不同的樣本,因為rank是將score排序獲取的,因此第一個類別不同的樣本為hard_negative。

3.Hard_positive

特點:類別相同

          特徵不相似

計算D(a,p) D(a,n)。Triplet loss 並不是直接衡量類別輸出與labels的差異性,而是更加側重同類特徵與異類特徵的差異性。因此比較適用於特徵區別微弱的數據。

相關焦點

  • 敘敘loss(總算來一更)
    smooth L1 loss結合L1 loss和L2 loss,目前多用於目標檢測邊框回歸損失。它從兩方面限制梯度:1)當差值很大時,梯度值不會很大;2)當差值很小時,梯度值足夠小。 * diff ** 2) + (1.0 - less_than_1) * (diff - 0.5) return tf.reduce_mean(smooth_l1_loss)4、Huber loss
  • 語義分割之dice loss深度分析(梯度可視化)
    >的loss。繪製曲線圖如下,其中藍色的為ce loss,橙色的為dice loss。對於ce loss,當前的點的梯度僅和當前預測值與label的距離相關,預測越接近label,梯度越小。當網絡預測接近0或1時,梯度依然保持該特性。對比發現, 訓練前中期,dice loss下正樣本的梯度值相對於ce loss,顏色更亮,值更大。說明dice loss 對挖掘正樣本更加有優勢。
  • 「技術綜述」一文道盡softmax loss及其變種
    本文首發於知乎專欄《有三AI學院》,https://zhuanlan.zhihu.com/c_151876233今天來說說softmax loss以及它的變種1 softmax losssoftmax loss是我們最熟悉的loss之一了,分類任務中使用它,分割任務中依然使用它。
  • Gong Shuguang: Death of Stephen Hawking, great loss for...
    Rednet report: "Death of Stephen Hawking, great loss for mankind of this century" --Gong Shuguang.英國媒體報導,英國著名物理學家史蒂芬·霍金14日在位於劍橋的家中去世,享年76歲。
  • Hippo kinase loss contributes to del(20q) hematologic malignanci
    MYELOID NEOPLASIA| NOVEMBER 14, 2019Hippo kinase loss contributes to
  • Why Don't We Let Go?
    We eulogize foreverness and scare the fish out of loss and uncertainty. When people leave, what are we scared/upset/sad of/about?
  • 英文閱讀30——Loss of insects and spiders
    <植>授粉(作用)'Alarming' loss of insects and spiders recorded記錄到昆蟲和蜘蛛的令人害怕的損失By Helen BriggsBBC NewsInsects and spiders
  • A 52-year-old man with left-sided hearing loss after trauma
    A 52-year-old man with left-sided hearing loss and tinnitus after recent
  • 線性回歸採用最小二乘作為loss的解釋
    回歸方程可表示如下:   對線性回歸比較熟悉的小夥伴們都知道,計算回歸參數時,使用的損失函數為最小二乘損失,即 loss   2   最小二乘作為loss的解釋和推導   說到線性回歸,就不得不說以下三個知識點:   1、高斯分布   2、最大似然估計MLE   3、最小二乘法