對本期主題感興趣的小夥伴,6 月 16 日(周二)晚 7 點,我們準時相約 PaperWeekly B 站直播間。
深度特徵學習一直受到學術界的廣泛關注,眾多的損失函數被提出用於學習好的特徵表示。例如,用於分類學習的 softmax cross entropy loss 及其變種 AM-Softmax(CosFace)、ArcFace 等,用於樣本對距離優化的 contrastive loss 和 triplet loss 等。
本次分享的是我們在這一問題上的研究工作 Circle Loss: A Unified Perspective of Pair Similarity Optimization (CVPR2020 Oral)。該工作從對相似性優化的統一視角解讀深度特徵學習:當前的多數損失函數(包括 softmax cross entropy loss 和 triplet loss)將類內相似性
作者列表中的Yarin Gal 是貝葉斯深度學習的重要人物。基本思想是估計每個任務的不確定度,每個loss除以不確定度,如果不確定度大,大體上相當於自動把loss的權重變小。Anticoder假設多個任務loss在同一個metric下,那幾乎不用統一,除了一些先驗幹預。各個任務可以得到平等對待。如果同一個metric下不同任務loss差別巨大,那就是任務訓練難度本身的問題。
從損失函數的視角來看,它就成了log損失函數了。log損失函數的標準形式:將它帶入到上式,通過推導可以得到logistic的損失函數表達式,如下:二、平方損失函數(最小二乘法, Ordinary Least Squares )最小二乘法是線性回歸的一種,最小二乘法(OLS)將問題轉化成了一個凸優化問題。在線性回歸中,它假設樣本和噪聲都服從高斯分布(為什麼假設成高斯分布呢?