贈書|從阿里到Facebook,一線大廠這樣做深度學習推薦系統

2021-01-07 AI科技大本營

本文內容節選自《深度學習推薦系統》一書。由美國Roku推薦系統架構負責人、前Hulu高級研究員王喆精心編著,書中包含了這場革命中一系列的主流技術要點:深度學習推薦模型、Embedding技術、推薦系統工程實現、模型評估體系、業界前沿實踐…………深度學習在推薦系統領域掀起了一場技術革命,本書是一本致力於提高一線算法工程師們工業級推薦系統實踐能力的技術乾貨。想要了解關於推薦系統的更多乾貨知識,關注AI科技大本營並在評論區分享你對本文的學習心得,我們將從中選出5條優質評論,各送出《深度學習推薦系統》一本。活動截止時間為5月13日晚8點。

推薦系統領域是深度學習落地最充分,產生商業價值最大的應用領域之一。

一些最前沿的研究成果大多來自業界巨頭的實踐。從Facebook 2014年提出的GBDT+LR組合模型引領特徵工程模型化的方向,到2016年微軟提出Deep Crossing模型,谷歌發布Wide&Deep模型架構,以及YouTube公開其深度學習推薦系統,業界迎來了深度學習推薦系統應用的浪潮。

時至今日,無論是阿里巴巴團隊在商品推薦系統領域的持續創新,還是Airbnb在搜索推薦過程中對深度學習的前沿應用,深度學習已經成了推薦系統領域當之無愧的主流。

對從業者或有志成為推薦工程師的讀者來說,處在這個代碼開源和知識共享的時代無疑是幸運的。我們幾乎可以零距離地通過業界先鋒的論文、博客及技術演講接觸到最前沿的推薦系統應用。

本章的內容將由簡入深,由框架到細節,依次講解Facebook、Airbnb、YouTube及阿里巴巴的深度學習推薦系統。希望讀者能夠在之前章節的知識基礎上,關注業界最前沿的推薦系統應用的技術細節和工程實現,將推薦系統的知識融會貫通,學以致用。

2014年,Facebook發表了廣告推薦系統論文Practical Lessons from Predicting Clicks on Ads at Facebook[1],提出了經典的GBDT+LR的CTR模型結構。嚴格意義上講,GBDT+LR的模型結構不屬於深度學習的範疇,但在當時,利用GBDT模型進行特徵的自動組合和篩選,開啟了特徵工程模型化、自動化的新階段。

從那時起,諸如Deep Crossing、Embedding等的深度學習手段被應用在特徵工程上,並逐漸過渡到全深度學習的網絡。從某種意義上講,Facebook基於GBDT+LR的廣告推薦系統成了連接傳統機器學習推薦系統時代和深度學習推薦系統時代的橋梁。此外,其在2014年就採用的在線學習、在線數據整合、負樣本降採樣等技術至今仍具有極強的工程意義。

2019年,Facebook又發布了最新的深度學習模型DLRM[2](Deep Learning Recommender Model),模型採用經典的深度學習模型架構,基於CPU+GPU的訓練平臺完成模型訓練,是業界經典的深度學習推薦系統嘗試。

本節先介紹Facebook基於GBDT+LR組合模型的推薦系統實現,再深入到DLRM的模型細節和實現中,一窺社交領域巨頭企業推薦系統的風採。

8.1.1 推薦系統應用場景

Facebook廣告推薦系統的應用場景是一個標準的CTR預估場景,系統輸入用戶(User)、廣告(Ad)、上下文(Context)的相關特徵,預測CTR,進而利用CTR進行廣告排序和推薦。需要強調的是:Facebook廣告系統的其他模塊需要利用CTR計算廣告出價、投資回報率(Return on Investment,ROI)等預估值,因此CTR模型的預估值應是一個具有物理意義的精準的CTR,而不是僅僅輸出廣告排序的高低關係(這一點是計算廣告系統與推薦系統關鍵的不同之處)。Facebook也特別介紹了CTR校正的方法,用於在CTR預估模型輸出值與真實值有偏離時進行校正。

8.1.2 以GBDT+LR組合模型為基礎的CTR預估模型

簡而言之,Facebook的CTR預估模型採用了GBDT+LR的模型結構,通過GBDT自動進行特徵篩選和組合,生成新的離散型特徵向量,再把該特徵向量當作LR模型的輸入,預測CTR。

其中,使用GBDT構建特徵工程和利用LR預測CTR兩步是採用相同的優化目標獨立訓練的。所以不存在如何將LR的梯度回傳到GBDT這類複雜的訓練問題,這樣的做法也符合Facebook一貫的實用主義的風格。

在引入GBDT+LR的模型後,相比單純的LR和GBDT,提升效果非常顯著。從表81中可以看出,混合模型比單純的LR或GBDT模型在損失(Loss)上減少了3%左右。

表8-1 GBDT+LR模型與其他模型的效果對比

在模型的實際應用中,超參數的調節過程是影響效果的重要環節。在GBDT+LR組合模型中,為了確定最優的GBDT子樹規模,Facebook給出了子樹規模與模型損失的關係曲線(如圖81所示)。

圖8-1 GBDT子樹規模與模型損失的關係曲線

可以看出,在規模超過500棵子樹後,增加子樹規模對於損失下降的貢獻微乎其微。特別是最後1000棵子樹僅貢獻了0.1%的損失下降。可以說,繼續增加模型複雜性帶來的收益幾乎可以忽略不計,最終Facebook在實際應用中選擇了600作為子樹規模。

5.3.3節對GBDT+LR的模型更新方式做了介紹,囿於Facebook巨大的數據量及GBDT較難實施並行化的特點,Facebook的工程師在實際應用中採用了「GBDT部分幾天更新一次,LR部分準實時更新」的模型更新策略,兼顧模型的實時性和複雜度。

8.1.3 實時數據流架構

為了實現模型的準實時訓練和特徵的準實時更新(5.3節詳細介紹過推薦模型和特徵的實時性相關知識),Facebook基於Scribe(由Facebook開發並開源的日誌收集系統)構建了實時數據流架構,被稱為online data joiner模塊(在線數據整合),該模塊與Facebook推薦系統其他模塊的關係如圖82所示。

圖8-2 Facebook的online data joiner與其他模塊的關係

該模塊最重要的作用是準實時地把來自不同數據流的數據整合起來,形成訓練樣本,並最終與點擊數據進行整合,形成完整的有標籤樣本。在整個過程中,最應該注意的有以下三點。

1.waiting window(數據等待窗口)的設定

waiting window指的是在曝光(impression)發生後,要等待多久才能夠判定一個曝光行為是否產生了對應的點擊。如果waiting window過大,則數據實時性會受影響;如果waiting window過小,則會有一部分點擊數據來不及與曝光數據進行聯結,導致樣本CTR與真實值不符。這是一個工程調優的問題,需要有針對性地找到與實際業務相匹配的waiting window。除此之外,少量的點擊數據遺漏是不可避免的,這就要求數據平臺能夠階段性地對所有數據進行全量重新處理,避免流處理平臺產生的誤差積累。

2.分布式架構與全局統一的action id(行為id)

為了實現分布式架構下曝光記錄和點擊記錄的整合,Facebook除了為每個行為建立全局統一的request id(請求id),還建立了HashQueue(哈希隊列)用於緩存曝光記錄。在HashQueue中的曝光記錄,如果在等待窗口過期時還沒有匹配到點擊,就會被當作負樣本。Facebook使用Scribe框架實現了這一過程,更多公司使用Kafka完成大數據緩存,使用Flink、Spark Streaming等流計算框架完成後續的實時計算。

3.數據流保護機制

Facebook專門提到了online data joiner的保護機制,因為一旦data joiner由於某些異常而失效(如點擊數據流由於action id的Bug無法與曝光數據流進行正確聯結),所有的樣本都會成為負樣本。由於模型實時進行訓練和服務,模型準確度將立刻受到錯誤樣本數據的影響,進而直接影響廣告投放和公司利潤,後果是非常嚴重的。為此,Facebook專門設立了異常檢測機制,一旦發現實時樣本流的數據分布發生變化,將立即切斷在線學習的過程,防止預測模型受到影響。

8.1.4 降採樣和模型校正

為了控制數據規模,降低訓練開銷,Facebook實踐了兩種降採樣的方法——uniform subsampling(均勻採樣)和 negative down sampling(負樣本降採樣,以下簡稱負採樣)。均勻採樣是對所有樣本進行無差別的隨機抽樣,為選取最優的採樣頻率,Facebook試驗了1%、10%、50%、100%四個採樣頻率,圖8-3比較了不同採樣頻率下訓練出的模型的損失。

圖8-3 不同採樣頻率下的模型損失

可以看到,當採樣頻率為10%時,相比全量數據訓練的模型(最右側100%的柱狀圖),模型損失僅上升了1%,而當採樣頻率降低到1%時,模型損失大幅上升了9%左右。因此,10%的採樣頻率是一個比較合適的平衡工程消耗和理論最優的選擇。

另一種方法負採樣則保留全量正樣本,對負樣本進行降採樣。除了提高訓練效率,負採樣還直接解決了正負樣本不均衡的問題,Facebook經驗性地選擇了從0.0001到0.1的負採樣頻率,試驗效果如圖84所示。

圖8-4 不同負採樣頻率下的模型損失

可以看到,當負採樣頻率在0.0250時,模型損失不僅小於基於更低採樣頻率訓練出來的模型,居然也小於負採樣頻率在0.1時訓練出來的模型。雖然Facebook在論文中沒有做出進一步的解釋,但最可能的原因是通過解決數據不均衡問題帶來的效果提升。在實際應用中,Facebook採用了0.0250的負採樣頻率。

負採樣帶來的問題是CTR預估值的漂移,假設真實CTR是0.1%,進行0.01的負採樣之後,CTR將會攀升到10%左右。為了進行準確的競價及ROI預估,CTR預估模型是要提供準確的、有物理意義的CTR值的,因此在進行負採樣後需要進行CTR的校正,使CTR模型的預估值的期望回到0.1%。校正的公式如(式81)所示。

其中q是校正後的CTR,p是模型的預估CTR,w是負採樣頻率。通過負採樣計算CTR的過程並不複雜,有興趣的讀者可以根據負採樣的過程手動推導上面的式子。

8.1.5 Facebook GBDT+LR組合模型的工程實踐

Facebook基於GBDT+LR組合模型實現的廣告推薦系統雖然已經是2014年的工作,但我們仍能從中吸取不少模型改造和工程實現的經驗,總結來講最值得學習的有下面三點:

1.特徵工程模型化

2014年,在很多從業者還在通過調參經驗嘗試各種特徵組合的時候,Facebook利用模型進行特徵自動組合和篩選是相當創新的思路,也幾乎是從那時起,各種深度學習和Embedding的思想開始爆發,發揚著特徵工程模型化的思路。

2.模型複雜性和實效性的權衡

對GBDT和LR採用不同的更新頻率是非常工程化且有價值的實踐經驗,也是對組合模型各部分優點最大化的解決方案。

3.有想法要用數據驗證

在工作中,我們往往有很多直覺上的結論,比如數據和模型實時性的影響有多大,GBDT應該設置多少棵子樹,到底用負採樣還是隨機採樣。針對這些問題,Facebook告訴我們用數據說話,無論是多麼小的一個選擇,都應該用數據支撐,這才是一位工程師嚴謹的工作態度。

8.1.6 Facebook的深度學習模型DLRM

時隔5年,Facebook於2019年再次公布了其推薦系統深度學習模型DLRM(Deep Learning Recommender Model),相比GBDT+LR,DLRM是一次徹底的應用深度學習模型的嘗試。接下來將介紹DLRM的模型結構、訓練方法和效果評估。

DLRM的模型結構如圖85所示,模型各層的作用如下。

圖85 DLRM的模型結構

特徵工程:所有特徵被分為兩類:一類是將類別、id類特徵用one-hot編碼生成的稀疏特徵(sparse features);另一類是數值型連續特徵(dense features)。

Embedding層:每個類別型特徵轉換成one-hot向量後,用Embedding層將其轉換成維度為n的Embedding向量。也就是說,將稀疏特徵轉換成Embedding向量。而年齡、收入等連續型特徵將被連接(concat)成一個特徵向量,輸入圖中黃色的MLP中,被轉化成同樣維度為n的向量。至此,無論是類別型稀疏特徵,還是連續型特徵組成的特徵向量,在經過Embedding層後,都被轉換成了n維的Embedding向量。神經網絡層(NNs層):Embedding層之上是由三角形代表的神經網絡層。也就是說,得到n維的Embedding 向量後,每類Embedding還有可能進一步通過神經網絡層做轉換。但這個過程是有選擇性的,根據調參和性能評估的情況來決定是否引入神經網絡層進行進一步的特徵處理。特徵交互層(interactions層):這一層會將之前的Embedding兩兩做內積,再與之前連續型特徵對應的Embedding連接,輸入後續的MLP。所以這一步其實與3.5節介紹的PNN一樣,目的是讓特徵之間做充分的交叉,組合之後,再進入上層MLP做最終的目標擬合。

目標擬合層:結構圖中最上層的藍色三角代表了另一個全連接多層神經網絡,在最後一層使用 sigmoid函數給出最終的點擊率預估,這也是非常標準的深度學習模型輸出層的設置。

從DLRM的模型結構中可以看出,模型結構並不特別複雜,也沒有加入注意力機制、序列模型、強化學習等模型思路,是一個非常標準的工業界深度學習推薦模型。這與Facebook務實的技術風格相關,也說明在海量數據的背景下,簡單的模型結構就可以發揮不俗的作用。

8.1.7 DLRM模型並行訓練方法

作為一篇來自工業界的論文,模型的實際訓練方法往往可以讓業界同行收益頗多。Facebook的數據量之大,單節點的模型訓練必然無法快速完成訓練任務,因此模型的並行訓練就是必須採用的解決方法。

簡單來說,DLRM融合使用了模型並行和數據並行的方法,對Embedding部分採用了模型並行,對MLP部分採用了數據並行。Embedding部分採用模型並行的目的是減輕大量Embedding層參數帶來的內存瓶頸問題。MLP部分採用數據並行可以並行進行前向和反向傳播。

其中,Embedding做模型並行訓練指的是在一個device(設備)或者計算節點上,僅保存一部分Embedding層參數,每個設備進行並行mini batch梯度更新時,僅更新自己節點上的部分Embedding層參數。

MLP層和特徵交互層進行數據並行訓練指的是每個設備上已經有了全部模型參數,每個設備利用部分數據計算梯度,再利用全量規約(AllReduce)的方法匯總所有梯度進行參數更新。

8.1.8 DLRM模型的效果

DLRM的訓練是在Facebook自研的AI平臺Big Basin platform上進行的,平臺的具體配置是Dual Socket Intel Xeon 6138 CPU@2.00GHz +8個Nvidia Tesla V100 16GB GPUs。Facebook Big Basin AI硬體平臺示意圖如圖8-6所示。

圖86 Facebook Big Basin AI硬體平臺

很明顯,Big Basin platform是一個高性能的CPU+GPU的組合平臺,沒有採用類似6.3節介紹的Parameter Server的分布式硬體架構。這節約了大量網絡通信的成本,但在擴展性方面沒有Parameter Server靈活。

在性能的對比上,DLRM選擇了谷歌2017年提出的DCN作為baseline(性能基準)。通過對比本節介紹的DLRM和3.6節介紹的DCN可以發現,DLRM和DCN的主要區別在於特徵交叉方式的不同,DLRM採用了不同特徵域兩兩內積的交叉方式,而DCN採用了比較複雜的cross layer的特徵交叉方式。以Criteo Ad Kaggle data為測試集,二者的性能對比如圖87所示。

圖8-7 DLRM與DCN性能對比

可以看出,DLRM在準確率指標上稍勝一籌。當然,模型的性能與數據集的選擇、參數的調優都有很大關係,而且DLRM在Adagrad訓練方式下的優勢已經微乎其微,這裡的性能評估讀者僅做參考即可。

8.1.9 Facebook深度學習推薦系統總結

無論是GBDT+LR組合模型,還是最新的DLRM模型,Facebook的技術選擇總給人非常工業化的感覺,簡單直接,以解決問題為主。雖然從學術角度看模型的創新性不足,但業界的從業者卻能從中借鑑非常多的工程實踐經驗。DLRM模型是非常標準且實用的深度學習推薦模型。如果公司剛開始從傳統機器學習模型轉到深度學習模型,則完全可以採用DLRM作為標準實現。而GBDT+LR組合模型傳遞出的特徵工程模型化及模型組合的思路,對推薦系統技術發展有更深遠的影響。

贈書活動

想要了解關於推薦系統的更多乾貨知識,關注AI科技大本營並在評論區分享你對本文的學習心得,我們將從中選出5條優質評論,各送出《深度學習推薦系統》一本。

相關焦點

  • 【推薦實踐】深度學習在阿里B2B電商推薦系統中的實踐
    推薦導購場景在電商中是重要的滿足用戶"逛"和"買"的場景,本次分享我們聚焦深度學習在阿里B2B電商 ( 1688 ) 推薦系統中的應用,其中包括商品推薦中召回 ( 多興趣Deep Match ),排序 ( 自研DMR ) 的相關工作,以及在新興的互動內容場景 ( 直播、短視頻 ) 中通過異構網絡來解決異構信息的精準匹配問題。
  • 深度學習在推薦系統上的應用
    確實深度學習很火,近期深度學習的戰火燒到推薦系統,其強大的表徵能力和低準入門檻,已經成為各大高校和中國人改網絡發paper的紅利時代。可是我還沒能發上那麼幾篇,之前面試大廠的AI labs被總監虐,感覺工作之後被壓榨太多,快幹了。推薦系統為什麼引入深度學習?
  • 大神擼個暗黑系統深度學習框架...
    2018年,高民權老師著眼於我國AI領域核心人才的教學研究,通過「深入理解原理 + 實戰項目驅動」的教學方法,2年裡培養了許多優秀的AI算法工程師,「桃李」遍布騰訊、阿里、字節這樣的一線大廠以及滴滴為了改變AI新人浮於表面、缺乏進階方向的學習現狀,開課吧邀請到高民權老師聯手打造了《用純python從零創造自己的深度學習框架 》這個訓練營,還原了深度學習框架的構成與演化過程,讓大家對深度學習不再一知半解,並能靈活設計並創造出自己所需的框架!
  • 重讀 Youtube 深度學習推薦系統論文,字字珠璣,驚為神文
    這裡是王喆的機器學習筆記,每隔一到兩周我會站在算法工程師的角度講解一些計算廣告、推薦系統相關的文章。
  • 想知道Facebook怎樣做推薦?FB開源深度學習推薦模型
    選自Facebook博客作者:Maxim Naumov等機器之心編譯參與:路、一鳴近日,Facebook 開源了深度學習推薦模型DLRM 通過結合協同過濾算法和預測分析方法,提供了推薦系統當前最優效果。隨著深度學習的發展,基於神經網絡的個性化和推薦模型成為在生產環境中構建推薦系統的重要工具。但是,這些模型與其他深度學習模型有顯著區別,它們必須能夠處理類別數據(categorical data),該數據類型用於描述高級屬性。
  • 2020,達到阿里 P6+ 的薪資水平真的很難嗎?
    不過想要系統全面的提升這些硬技能,還是建議聽聽業界大咖們的經驗,這裡再次推薦下廖雪峰老師的「Java高級架構課」,口碑很不錯。同時,也為粉絲們爭取到了 10 個課程優惠名額,需要的朋友不要錯過。(文末領取)不同於市面上一些訓練營或培訓班,知識點零零散散,又缺乏一定的深度。
  • 周志華推薦 | 李沐《動手學深度學習》中文版上線!(免費贈書)
    新智元報導 編輯:金磊【新智元導讀】李沐大神《動手學深度學習》中文版發布了!與當前其它深度學習教科書相比,本教科書更加注重交互式的學習體驗。新智元值此之際,與人民郵電出版社合作開展免費贈書活動!深度學習在短短幾年之內便讓世界大吃一驚。
  • 重讀Youtube深度學習推薦系統論文,字字珠璣,驚為神文
    AI 前線導讀:2016 年,Youtube 發布了一篇深度推薦系統論文《Deep Neural Networks for YouTube Recommendations》,按照今天的標準來看,已經沒有什麼新穎的地方。
  • 深度學習應對推薦系統,必須懂的3個層面
    撰寫推薦系統的文章多如牛毛,筆者準備撰寫推薦系統產品的文章除了以下4點原因外,更是因為推薦系統已經從傳統的推薦系統升級到智能的以深度學習驅動的深度推薦系統為主的旋律。有了這一與網上推薦系統文章立意不同的思路,故此分享出來。因為與時下大數據AI緊密相關。故此本文先講為什麼推薦系統總被提及?
  • 看Youtube怎麼利用深度學習做推薦
    該文是對《Deep Neural Networks for YouTube Recommendations》論文的精讀筆記,這篇論文是介紹深度學習在推薦系統領域應用的經典之作。可以想見,Youtube的推薦系統所要面臨的問題:如何平衡Explore/Exploit,使模型具備「推新」能力而正如文中所說,Youtube與Google的其他業務線,正在經歷一次技術變革,即,將深度學習技術作為一種通用解決方案,來解決所有機器學習問題。因此,看Youtube是如何在運用深度學習的過程中,解決以上這些難題,對於搭建我們自己的推薦系統,具有極大的借鑑意義。
  • 這套1307頁的阿里、騰訊等大廠Android面試真題解析火了!
    下面的題目是一個大牛花了很長時間整理的群友在面試阿里、騰訊等網際網路大廠被問到的面試真題和答案解析,如果大家還有其他好的題目或者好的見解歡迎分享。接下來我們看看一線大廠Android中高級面試展開的完整面試題
  • 贈書領取丨助力深度學習的好書
    上周末,我們發布了贈書活動9本助力深度學習的好書【開學福利】我們抽取了三位幸運讀者,請以下讀者將快遞信息留言到本篇微信。
  • 高徒魏秀參新書《解析深度學習》試讀(評論贈書)
    這次推薦的是南京大學周志華教授高徒、曠視南京研究院負責人魏秀參最新出版的《解析深度學習:卷積神經網絡原理與視覺實踐》。還等什麼,趕緊留言吧~「市面上深度學習書籍已不少,但專門針對卷積神經網絡展開,側重實踐又不失論釋者尚不多見。本書基本覆蓋了卷積神經網絡實踐所涉之環節,作者交代的若干心得技巧亦可一觀,讀者在實踐中或有見益。」
  • Tensroflow練習,包括強化學習、推薦系統、nlp等
    4、推薦系統推薦系統遇上深度學習(一)--FM模型理論和實踐推薦系統遇上深度學習(二)--FFM模型理論和實踐推薦系統遇上深度學習(三)--DeepFM模型理論和實踐推薦系統遇上深度學習(四)--多值離散特徵的embedding解決方案推薦系統遇上深度學習(五)--Deep&Cross Network模型理論和實踐推薦系統遇上深度學習
  • YouTube深度學習推薦系統的十大工程問題
    文 | 王喆源 | https://zhuanlan.zhihu.com/p/52504407這篇文章主要介紹了YouTube深度學習系統論文中的十個工程問題,為了方便進行問題定位,我們還是簡單介紹一下背景知識,簡單回顧一下YouTube的深度推薦系統論文Deep Neural Networks
  • Graph Embedding:深度學習推薦系統的基本操作
    Embedding 是深度學習十分重要的「基本操作」,不論是 NLP,搜索排序,還是推薦系統,Embedding 都扮演著重要的角色。
  • 去阿里面試失敗後,我總結了7條小經驗.
    第二面:偏向做的項目、視野、認知、思考深度。第三面:比較全面的面試,方方面面都會問,甚至還會問到一些近期熱點事件,你的觀點。有些人力資源核心崗位,5輪面試也不算稀奇,阿里的面試就是反反覆覆確定你這個人,是不是他們真正需要的。
  • 推薦系統遇上深度學習(二十)--貝葉斯個性化排序(BPR)算法原理及實戰
    它在學習和預測過程中都將排序列表作為一個樣本。排序的組結構被保持。如果對於用戶u來說我們有m組這樣的反饋,那麼我們就可以得到m組用戶u對應的訓練樣本。這裡,我們做出兩個假設:每個用戶之間的偏好行為相互獨立,即用戶u在商品i和j之間的偏好和其他用戶無關。同一用戶對不同物品的偏序相互獨立,也就是用戶u在商品i和j之間的偏好和其他的商品無關。
  • 阿里小蜜:語音識別、語義分析、深度學習在手機淘寶的實戰分享
    業內都期待了解阿里的人工智慧技術的實踐。我們特別邀請阿里技術專家空無來深入分享下手機淘寶客戶端是如何用語音識別、語義分析、深度學習等AI技術打造阿里小蜜客服系統的。下為正文:一場人機大戰,讓全世界所有對人工智慧一知半解的人們變成了人類未來的擔憂者、段子手。「人機大戰」佔據著公眾的眼球,但人工智慧的價值已並不局限於「人機大戰」的全民話題中。
  • AI | 怎樣快速入門機器學習和深度學習?
    說人話就是找一個函數或者一個映射,使得一段聲波進去能映射到語言,一張貓咪的圖片進去能映射到貓咪。你跟siri說hi自動映射到回答hello~一天學會深度學習-李宏毅給大家推薦一些書,同時提醒大家一些坑。書大致可以分為三類『科普書籍』『機器學習算法書籍』『編程書籍』。1.