文|木子 yanni
在地球生命進化歷程中,浮著一個懸案。
五億年前,地球上到處被水覆蓋,僅有少量物種在深海中流浪。它們沒有眼睛,有食物路過嘴邊,趕緊一口咬住,沒有的話,就繼續遊蕩。這種佛系的蝸速演化狀態,持續了好幾千年。
直到寒武紀時期,局面才有了變化:物種突然迎來爆炸式增長,各種奇奇怪怪的生物出現,世界也開始可可愛愛。
究竟是什麼原因造成的呢?業內大佬各執一詞,情緒到位,激情互懟,但至今也沒達成一致,依舊是個未解之謎。
幾年前,一位澳大利亞的動物學家,在研究了大量古化石後,提出了一個相當有說服力的觀點:寒武紀時期,生物第一次進化出眼睛,學會「識物」,進而催生出追逐捕食行為,不經意間引發了物種大爆炸。
物種A:你瞧對面那哥們,看起來是孜然味的,我咬它一口試試。
物種B:臥槽,兄弟們快跑...
後來人類出現,發現「臉」是個非常有趣的存在:每個人都有,誒,又都不太一樣。
於是,「臉」逐漸成為辨別身份的一把鑰匙,而「看臉」,也悄無聲息地成了社會秩序的一部分,比如媒婆手中的畫像冊,關係著傳宗接代;街頭巷尾的監控攝像頭,承載著國泰民安。
沒有任何預兆,「臉」就被安排上了 C 位。
但是,臉可以易容,眼睛也會失憶,那些藏在細節中的魔鬼,引發了一場曠日持久的「人臉識別對抗戰」。
老「臉」一紅:額,就挺突然的…
悲催的畫工,傲嬌的張管家
南宋紹興初年,一個名叫吳阜的靚仔,閒來無事在街頭溜達,猛然間,他被牆上的一張紙吸引住了。
那是一張通緝令,上面還有幅畫像,吳阜左瞅瞅案情描述,右看看畫像,眼冒金星之際,他終於確定:這、畫的不就是我嗎?
原來,就在幾天前,下級軍官出身的吳阜,搶了隔壁城一位王姓富豪的 20 萬串銅錢,得手後,吳阜迅速逃離了現場。讓吳阜沒想到的是,這位隔壁老王如此有錢,報案也如此果斷,引得州縣按照老王的描述,找畫工畫出了自己的樣貌,展示在通緝令上,全城張貼。
吳阜氣不過,一把撕下通緝令,火速進城。
幾番打聽,吳阜終於找到畫工趙四,一見面,吳阜就把通緝令甩在趙四臉上:大哥,你是不是缺鈣導致手抽筋鴨?勞煩把你的眯眯眼睜大,仔細瞅瞅,這畫像和我有哪一點相似?重新畫!
趙四:...
通常,頒發畫像通緝令的流程是:受害者到官府報案,官府命畫工按照描述作畫,隨後張貼在大街小巷,發動人民群眾的力量圍堵嫌疑人。
那麼問題來了,畫像明明是出於當事人的描述,為什麼和真人判若兩人呢?原因主要有兩點。
1、記憶屬於情景重構,並非重現。意外發生時,人處於高度緊張的狀態,除非眼前的罪犯有非常明顯的特徵,比如三隻眼睛,或者身後有條尾巴,否則短時間內,很難抓住罪犯的面部特徵。
剛剛誰 Q 我?
生而為人,臉上都是相同的數量配置,別說在短時間內描述一個陌生人的面部特徵,就是讓你描述一下自己的男/女朋友,很多人都不一定能做到。不信你找幾個同性朋友圍坐在一起,各自說說看,到最後,每個人可能都會緩緩打出一個問號:聽起來,我們說的怎麼像是同一個人?
哦,對不起,我忘了你可能沒有男/女朋友,那還是說回吳阜搶劫案裡的隔壁老王吧。
在被搶劫的過程中,老王一邊要死拽著銅錢,一邊要躲避隨時會襲來的棍棒攻擊,雙重緊張下,他還要記下對方臉上有什麼特徵,事後準確回憶出來,確實是強人所難。
2、繪畫是一種藝術,屬於主觀創作。古代繪畫,大多追求神似,而肖像畫需要神形兼備,難度可見一斑,所以直到宋朝,肖像畫技藝才算上道,成為獨立的繪畫領域,而通緝令又是肖像畫裡比較特殊的一種,不但考驗繪畫水平,還考驗想像能力。模糊描述+想像創作,效果自然隨緣。
《名偵探狄仁傑》:畫師可能和狄仁傑有仇
當然了,現實中,像吳阜這麼彪的人並不多見,對絕大多數被通緝人員來說,他們只會擔心畫師超常發揮,於是想盡各種辦法,防止自己被認出來。
道聽途說式的作畫,再加上千人千面的解讀,被通緝者很快摸出了門道:只要我夠大膽,通緝令上的畫像,就永遠不可能像我。比如在眉尾、嘴角粘個大痦子,或者男扮女裝穿個裙子,甚至搞個人皮面具,城門口那些官府小嘍囉,拜拜了您吶。
《西遊記》中,白骨精先後三次喬裝打扮
除畫像通緝令之外,拜訪也是個需要靠臉來識別身份的場景。
張管家您近來可好?我是王富貴,今兒專程來拜會丞相大人,還勞煩您給通報一聲。
您不記得我了?前幾天我們還見過吶,同福酒樓,我穿一身兒綠,帽子也是同色系,您再想想。
還是想不起來?害,您是貴人多忘事啊!(拉到一旁:我這兒有五千兩銀票,您拿去喝點茶,全當我孝敬您了~
想起來了?太好了,那我先進去,得空兒再請您喝茶。
級別高的拜訪者,純刷臉;中等級別的拜訪者,刷臉不夠,需要銀票來湊;級別再低的,就得看命運了。
從「你是誰」到「這是不是你」,在這場全社會參與的刷臉身份識別遊戲中,為了達到各自目的,每個人都費盡心思,但事實證明,「刷臉」真的很難,費力、費時、費錢不說,誤傷倒是很容易。
南宋末期,秀才林附祖好好的走在路上,幾個蒙古兵突然衝上來,大喝一聲:「文天祥,看你往哪兒跑!」
林秀才趕緊解釋,說你們認錯了,但蒙古兵從懷裡摸出一張皺巴巴的畫像,底氣十足:「畫像在此,你還狡辯,自己看,這明明就是你!」於是,林秀才就被抓到了京口,直到有人出來作證,蒙古兵才相信是誤傷,無奈把人放了。
時光如梭,攝影技術和人工智慧的出現,讓刷臉對抗從粗製濫造轉向精雕細琢。
刷臉智能化
科技進步,勝過天翻地覆。
機場、火車站、寫字樓的刷臉閘機,讓丞相府門口的張管家乖乖回家;張學友萬人演唱會上的刷臉安保,讓城門口拿著通緝令挨個比對的官府小兵驚掉下巴。
「逃犯剋星」張學友
智能時代,刷臉從線下遷移到線上,畫工、張管家以及官府小兵,都被整合進了人臉識別系統:攝像頭眨眨眼,就能精準獲取人臉圖像,再經過後臺對比,張三還是李四,一看便知。
在人臉識別系統面前,粘鬍子、穿裙子這樣的偽裝手法,簡直弱爆了,身份識別一秒完成,不再費力、費時、費錢。
簡單來說,人臉識別系統由硬體和軟體組成,硬體 (傳感器) 獲取人臉圖像,軟體 (算法) 進行分析比對,整個識別流程可以分為以下四步:
1、人臉檢測:別問,問就是先找臉 (把人臉從圖像中裁剪出來)。
2014 年,世界上人數最多的自拍合照 (檢測方法:百度 PyramidBox)
2、人臉對齊:把裁剪出來角度各異的人臉,轉換成統一的標準。
借人見人愛的貓咪來舉個慄子。平時給貓咪拍照時,有的貓咪會直視攝像頭,優雅的擺好姿勢,此時拍出的照片就是正面照。
圖片來源於網絡
但在實際操作中,貓咪不一定會配合,反而會用怪異的姿勢表示抗議,搞得自己貓不像貓,讓剛剛知道貓有兩個耳朵的寶寶一頭問號。
圖片來源於網絡
同樣,非正面拍出的人臉圖像,也會給後續的識別帶來幹擾,這就需要強行擺正照片裡的臉,也就是找到面部的若干關鍵點,用一些手段 (平移、縮放、旋轉等) ,把不標準角度的人臉轉化到標準人臉。(很多拍照掃描軟體都有邊框自動對齊功能,也是這個原理)
典型的人臉對齊過程
3、特徵提取。
在標準人臉圖像的基礎上,進一步提取出眼睛、鼻子、耳朵、嘴等部位的幾何形狀特徵,用數據記錄下來。
P.S. 智能時代,魔鬼就喜歡藏在這些細節特徵裡。
圖片來源於網絡
4、特徵比對:把上一步得到的面部特徵結果,與預置的人臉數據進行比對。
在人臉識別系統中,一般會設定一個相似度閾值,假設為 97%,如果兩份人臉數據對比下來,相似度為 98%,系統就判定為同一人,一秒放行;反之,如果是 96%,得嘞,您哪兒來快回哪兒去吧。
圖片來源於網絡
經過以上四個流程,你就能感受到人臉識別的妙處了,比如上班摸魚時監測老闆動向。 (天吶,我什麼也沒說~
圖片來源於網絡
雖然人臉識別已經智能化,但依然有漏洞可鑽。
漏洞有多大呢?假設某人臉識別系統的相似度閾值是 97%,那麼剩餘的 3%,就是魔鬼的發揮空間。
對於普通人來說,刷臉頻率最高的兩個場景,就是解鎖和支付,這也是最容易遇到魔鬼的地方。
刷臉解鎖
現如今,凡是需要驗明正身的地方,大多都接入了人臉識別系統,比如機場、銀行及各大牛逼拉轟的 APP,但能讓你笑著把臉伸過去的刷臉,大概也只有手機解鎖了。
手機裡愈加臃腫的秘密,就曾掀起了一場解鎖方式的變革。在先後嘗試了數字、圖形、指紋、虹膜等方式後,人們發現,用「臉」解鎖是最方便的,不需要用手指戳屏幕、連圓點、找位置,看一眼手機,叮,解鎖成功,極具科技感。
一時間,眾多廠商都給手機增加了面容解鎖功能,一看即開,但便捷不一定安全。
2017 年,三星在 Galaxy S8 的宣傳廣告中,就清楚的寫著:臉部識別,相比圖形、PIN 碼及密碼的安全係數較低。2018 年,三星 S9 用戶在註冊時,也會收到類似提醒:您的手機可能會被與您長相類似的人或物解鎖。
圖片來源於網絡
意思很明顯:各位上帝大大,你們喜歡面容解鎖,我就替你們安排,但醜話說在前面,萬一有一天,你的手機被別人解鎖了,別怪我事先沒提醒過你。
事實也確實沒讓人失望,照片攻擊出現了:只需一張普通的人臉照片,就能輕鬆破解安卓手機上流行的 2D 面容解鎖。
沒過多久,照片攻擊就被玩出了新花樣:沒現成的照片?屏幕翻拍一張;用屏幕不方便?那就找張紙列印出來。反正結果都是一樣的。
2D 面容解鎖為什麼容易被破解?原因出在照片上。
上學時,老師一定講過三原色,分別是紅(Red)、綠(Green)、藍(Blue),把這三種顏色按照不同強度組合,就可以調配出自然界的一切顏色。彩色照片一般都是 RGB 圖像,也就是說,圖像中的每一個像素值,都是由紅、綠、藍三種顏色組合而來。
這就暗藏一個問題:在機器的眼裡,RGB 圖片不過是一堆數字,管你是真臉,還是屏幕翻拍的照片,在機器眼裡沒有什麼不同,只要和預置照片有符合設定的相似度,就可以解鎖放行。
這樣的結果,顯然激怒了上帝大大們:我要方便,也要安全,你們誰能抵擋照片攻擊,往前一步!
2017 年,一位酷似二郎神的勇士站了出來,它就是搭載了面容識別功能 Face ID 的 iPhoneX。
誰又 Q 我?
在 iPhone X 風騷的劉海裡,藏著一枚 True Depth 攝像頭,以及紅外相機、點陣投影器等其他元件,Face ID 使用了「3D 結構光」技術,能夠把機器眼裡的你從平面變為立體,有效抵擋照片攻擊。
圖片來源於網絡
Face ID 工作時,紅外相機會工作兩次。當鏡頭前有物體出現,紅外相機趕緊叫醒泛光感應原件,如果發現只是不明物體亂入,那就各自回家,繼續等待召喚;如果發現是人臉,紅外相機會馬上叫醒點陣投影器,點陣投影器會立刻向人臉發射出 3 萬個結構光點,這些光點遇到障礙物 (人臉) 反射回來,被紅外相機接收,就會形成一張毫米級別的人臉深度圖像,這張深度圖會被發送到晶片中的專門區域,把它和你預設好的面容信息進行比對,成功即可放行。
點陣投影器的效果,有點類似於遊戲「人體印表機」
某天深夜,和失眠偶遇的你,想聽兩首催眠曲,一伸手,你摸到了枕邊的 iPhone X,當然,也可能是唱著 Are You Ok 的雷軍。總之,你拿起手機,對準自己的面部,叮,解鎖。
黑漆漆的夜裡,人臉識別是怎麼為你解鎖的呢?答案是 NIR 近紅外攝像頭。
NIR 是個夜視小能手,專治設備夜間看不見,它不受環境光的影響,能夠在低光、甚至無光環境中正常工作,媽媽再也不用擔心你在夜裡解不開手機。
不同光照角度下的成像效果:第一行是可見光,第二行是近紅外 NIR
RGB 色彩、Depth 深度和 NIR 近紅外,是人臉識別系統中最常見的三種傳感器,除手機外,考勤機、寫字樓閘機、攝像頭等設備都在使用,按照需求和使用場景的不同,三者既能單獨使用,也可隨心搭配,有錢可以都上,沒毛病。
從時間軸上來看,Face ID 帶火了 3D 結構光人臉識別,削弱了照片攻擊的勢頭,但新型攻擊手法也並未缺席:3D 面具和高仿頭模。
越南有一家安全公司,對庫克反覆誇讚的 Face ID 充滿好奇,費盡心思想要搞個大新聞:攻破 Face ID。當時,市面上很多機構都躍躍欲試,想挫一挫庫克的小傲嬌,但各種嘗試都失敗了,沒想到,越南這家安全公司還真成功了。
他們用 3D 列印技術仿製了一個人臉框架,用矽膠製作了五官,眼睛部位放了特殊的圖片,最後一整合,成功造出一個夜裡看了會尿床的 3D 人臉面具。當然,以貌取人是不對的,雖然醜,但這張臉確實破解了 Face ID。
不管黑貓白貓,能抓住老鼠就是好貓
後來,有更多公司宣稱做出了能攻破人臉識別的面具,以及頭模。比如一家位於聖地牙哥的公司 Kneron 就曾公開表示:別說手機解鎖,就連支付寶、微信的驗證也沒問題,對了,還有國內某火車站的閘機呦。
但 Kneron 也承認,面具是特製的,成本高昂,這種攻擊不會成為常態。
Kneron 的 3D 面具
Kneron 的 3D 面具,究竟是確有奇效,還是單純的噱頭?不好說,但我聽懂了後半句:這麼貴的東西,即使有,也輪不到餘額還沒密碼長的普通人,所以別擔心,洗洗睡吧。
嗯,睡吧。
刷臉支付
除了解鎖,另一個高頻的刷臉場景,就是支付。
網上廣為流傳的惡搞漫畫:人臉識別支付
手機面容解鎖的流行,養懶了一大批人,當你習慣不再手動輸入密碼後,那些需要輸密碼才能使用的軟體,瞬間就變得面目可憎了。
於是,一大波支持面容解鎖的 APP 正在趕來,但這些 APP 沒想到的是,面容解鎖被攻破的新聞,來的如此之快,不少 APP 開發者一看,這還行?趕緊想辦法,不然就留不住用戶了。
這其中,數支付類 APP 最為慌張,他們急需找到一種識別方法,保證鏡頭前的你,不僅是對的,還得是活的。基於這種需求,一系列人臉活體檢測手段就出現了,比如動作配合式,面對面視頻等。
移動端常見的是動作配合式,比如點頭、張嘴、眨眼等,如果你在街上看到一個齜牙咧嘴的人,別急著打 120,他很可能只是在配合活體識別;面對面視頻活體檢測,在銀行等金融機構用的比較多,早期辦理信用卡,需要手動填寫申請表,還要逐字抄寫一段內容,現在你再去辦卡,基本都是自助機器辦理,過程中,還會有漂亮小姐姐跟你視頻通話,問你是不是自願,確認你是本人自願辦卡後,回家等待發卡即可。
圖片來源於網絡
人臉活體檢測的出發點是好的,但又是眨眼、張嘴,又是視頻通話,好像有些違背初心了:人臉識別應該既快捷又安全,搞這些花樣反而顯得累贅,難道沒有不需要配合,就能檢測出「是不是活的我」的方法嗎?
當然有,就是靜默活體檢測 (用戶負責安靜沉默就好),這種檢測方式,雖然需要軟、硬體的默契配合,以及在、離線的恰當組合,卻能夠讓人臉識別回歸初心。
這麼有市場前景的活體檢測方式,攻擊者當然不會放過,新的攻擊手段應運而生,比如合成圖攻擊。
兩張臉,一合,就是人臉合成圖
2017 年網際網路安全創新大會上,來自平安科技的安全研究員高小廚,分享過一個「黑 Uber」的故事。
有一次,高小廚打車回家,車到眼前,司機主動打招呼,但高小廚一看,不論是司機長相,還是車輛信息,都和軟體上顯示的不一樣,但回家心切的高小廚沒多想,拉開車門就鑽了進去。
車開了還不到一分鐘,司機開口了:「我現在要取消這個訂單,費用你直接轉我就行。」高小廚一聽,果斷拒絕,司機再三勸說無果後,表示可以把高小廚送回原處,讓他重新打車,高小廚接受了。
結果,出人意料的事情發生了。
高小廚再次使用優步打車,出現的居然還是剛才的司機。司機得意的笑到:「別白費力氣了,要麼你就打計程車,但如果你繼續用優步叫車,來接你的只會是我。」
高小廚:...
事後,高小廚才搞明白,附近有個車隊,由 30 多個黑車司機組成,每個司機都有一堆假優步帳號,車隊合起來有數百個帳號,這些帳號都由一個人統一接單,再通過電臺調度,派車去接人,所以只要高小廚在原地用優步打車,不管誰接單,出車接人的大概率都是這個司機。
這些司機是怎麼破解優步人臉識別功能的呢?答案就是:能夠讓照片「開口說話」的軟體 Photospeak。
「照片活化」就是合成圖攻擊的一種,鹹魚上有段時間曾經瘋狂售賣,一套照片活化軟體加教程,35 元即可到手。
使用方法也很簡單,添加一張人臉照片,軟體通過識別和定位面部關鍵點,就能讓「臉」活起來,流暢實現「眨眼、張嘴、點頭」。
照片活化示意圖
優步大概想不到,自己這麼容易就被一群司機給黑了。
合成圖攻擊不同於一般的照片翻拍攻擊。我們都有過這樣的體驗,當你舉起手機對著屏幕拍攝時,照片上會出現一條一條的紋路,有時候沒掌握好角度,還會把物體拍變形。常規的照片翻拍,都是對著屏幕拍攝,比如用手機拍攝電腦屏幕上的人像,咔嚓一聲,手機上就有了一張翻拍圖,但這樣很難避開摩爾紋、成像畸形等問題,在現在的檢測技術下,全是馬腳。
LED 顯示屏上的摩爾紋現象
合成圖就不存在這樣的馬腳,它避開了屏幕這類圖像介質,直接編輯原圖,生成一張新圖片,這就給檢測帶來了很大的難度,這不,就連優步都翻車了。國內很多技術公司都在嘗試通過算法,提高甄別合成圖的準確度,其中有一種算法,憑藉清奇的思路,收穫了一大波粉絲。
在揭秘這個「百方有佳人,絕世而獨立」的算法之前,我們需要另一個知識來打底:人臉識別最大的挑戰是什麼?
答案是:算法的泛化能力。
泛化能力,是指算法對新鮮樣本的適應能力,也可以簡單理解為歸納總結能力。一個孩子見過幾次貓咪,以後再遇到癱地上的、掛牆上的,一樣能認得出,因為他抓住了貓咪不同形態背後的規律,但人臉識別模型就不一樣了。
小區門口的人臉識別門禁,晴天認識你,雨天認識你,碰到哪天刮沙塵,就不一定認識你了,因為算法沒見過沙塵天變「黃」的你,歸納總結能力又不足,非常容易受到環境變化的幹擾。
搞算法的程序猿們為什麼累?就是因為要手把手教,把所有可能遇到的情況都考慮進去,操心的人最累,所以他們禿的並不禿然。
這裡其實還牽扯到一個概念:魯棒性。
很多人可能都有過切身體會,作為一名合格的社畜,除了具備過硬的工作能力外,還必須抗造。比如就算甲方爸爸半夜突然提出修改意見,你也得陪著笑說:您說的對,我這就改。耐著性子改好一版發過去,甲方爸爸終於揚起了嘴角,你一看表,已是凌晨五點,爭分奪秒睡了三個小時後,再度精緻地出門上班。能在逆境中保持優雅,臨危不亂,用一個詞來形容,叫做抗壓能力。
同理,要想成為一個優秀的人臉識別系統,也必須具備抗壓能力:抗再多攻擊,不能死機;受再多苦,不能崩潰;天塌下來,也要微笑工作。用一個詞來形容系統的抗壓能力,就叫做魯棒性 (Robust),它和泛化能力成正比。
人臉識別已經遍布生活各個角落,與此同時,人臉識別攻擊更是防不勝防,上至幾十萬的 3D 面具、頭模,下至 35 元的照片活化軟體,不算你身價幾何,總有人用奇奇怪怪的方法,想要變成你。
兵來將擋,而這個將,就是算法。
有句話說得好:有多少人工,就有多少智能。傳統的攻擊檢測算法,需要手工提取攻擊特徵,進行分類,再通過大量的數據集訓練,教會機器如何識別異常,阻止別人冒用你的臉。
但是,這種方法需要大量的數據集做支撐,而數據集的更新又具有滯後性,新的攻擊手法已經出現,相應的數據集還沒有建立,這就像壞人已經提著錢箱跑出了銀行大門,而你才在給槍裝子彈。
有沒有一種方法,能夠增強算法的泛化性,讓它在沒有接受過對應樣本訓練的情況下,也能夠有效發現異常呢?
有的,就是我剛剛提到靠清奇思路出奇制勝,圈了一大波粉的算法,它叫做 LGSC (Learning Generalized Spoof Cues for Face Anti-spoofing),這個有趣的思路,出自百度的計算機視覺團隊。
在傳統的檢測方法中,算法面對的是選擇題,每道題都有 A、B、C、D 四個選項,算法不僅要選出正確答案 (找出真臉),還要知道為什麼不選其他選擇 (分辨是照片、視頻還是面具攻擊),這樣的局面,其實算法也很累,如果有一道題,它只能排除掉兩個選項,那麼答對的機率就只有 50%,一旦選錯,鍋就是技術小哥來背。
但百度的計算機視覺團隊,非常巧妙的把選擇題改成了判斷題。
在 LGSC 算法中,百度定義了一種「攻擊線索」。在算法眼裡,一張真實的人臉圖像是什麼樣的呢?每一個特徵都真實,每一個像素點都安全,不存在帶有惡意攻擊性質的線索。百度把這樣一張天然無害、沒有任何攻擊線索的人臉圖像,叫做全零圖像,並告訴算法:小子,你記住了,只有全零圖像才能相信,如果你發現人像臉上還有其他的特徵,就要小心了,它很可能是來騙你的,別上當,趕緊把它推得遠遠的。
這樣一來,算法就懂了:有這些特徵的就是真臉 (下圖中的紅點),可以開門,其他的都是騙子 (下圖中的藍點),不管認不認識,都關在門外就好了。
圖片來源於 LGSC
如此一來,既減輕了算法的工作量,又提升了工作效率,可謂一舉兩得。(悄悄說,百度小哥哥們已經開源了這個算法,感興趣的可以去瞧瞧~
提到開源,我突然又想起一件事。
對使用 iPhone 的盆友們來說,比戴了好幾個月口罩、而且很有可能一直戴下去更煎熬的事情,恐怕是一天內要輸入無數次解鎖密碼。
為什麼呢?因為戴上口罩,算法就不認識你了鴨。
一個輕薄的口罩,之所以對算法有這麼大的衝擊力,主要有兩個原因:
1、通常情況下,算法要看完整張臉,才能確定你是不是你,結果你「啪」一下,口罩一戴,誰都不愛,只露出眉毛和眼睛,大部分特徵都丟失了。
算法:在下無能,先溜為敬。
2、疫情來的太突然,短時間內很難收集到大量的戴口罩照片,沒有充足的數據集,就沒辦法有效的訓練算法。
時間不等人,難題亟待攻破,怎麼辦呢?
1、調整權重。雖然面部一大半都被口罩遮住了,但好在外露的眼睛區域,擁有比擋住的鼻子和嘴更多的信息,只要加大算法對眼部特徵的識別權重,讓算法集中觀察眼部,就能把口罩所帶來的特徵丟失損失降到最低。
AI:集中注意力,看眼看眼看眼
2、合成數據樣本。
基於人臉關鍵點的 3D 圖像融合技術,百度視覺給各種姿態、各種 size 的人臉,「戴上」了各種款式、各種尺寸的口罩,足不出戶就擁有了海量真實數據。
AI:是不是戴的挺好?快誇我!
疫情期間,百度開源了業內首個口罩人臉檢測和分類模型,至於開源的原因,他們不說,我也不問,就算問了,估計也是場面話,不過當我刷著疫情新聞,突然看到這張宣傳圖的時候,還是有風吹進眼睛。(不服老不行了~
是啊,我仍認得你英雄的樣子
搞人臉識別算法的公司千千萬,宣傳做的再好都沒用,最後還是得療效說了算。話說,BCTC (Bank Card Test Center) 就是這麼一家療效測評公司,它的中文名叫做銀行卡檢測中心,是經過中國人民銀行總行批准的一家機構,專門負責與支付行業相關的檢測認證,比如負責把控行動支付行業的準入門檻:想做行動支付?先過了我設置的技術關再說。
這樣一來,想進入行動支付行業的公司,就必須保證產品上搭載的人臉識別算法足夠安全可靠,為了通過 BCTC 的嚴峻考驗,人臉識別領域的軟硬體公司開始了強強聯合,典型的例子就是鏡頭模組廠商和算法公司的合作。
不過,BCTC 的技術關也有含金量之分,比如普通認證和「增強級」認證,不仔細看,很難發現裡面的道道,所以各位大佬搞投資理財之前,可以從這裡入手,先探探軟體的安全級別。別的不說,在這個浮躁的社會裡,選擇用「增強級」技術來保障用戶安全的公司,最起碼有顆走心的初心。
在人臉算法領域,雖然此消彼長的龍虎鬥很精彩,但我真心希望,天下無賊。
其中,也包括高級的「偷臉」賊。
老「臉」再次一紅:真的,別搞我,我只想安靜的貌美如花。
嗨,這裡是淺黑科技,在未來面前,我們都是孩子。
想看更多科技故事,歡迎戳→微信公眾號:淺黑科技。