深度學習框架比較,我該選擇哪一個?

2020-12-04 騰訊網

近年來,深度學習在很多機器學習領域都有著非常出色的表現,在圖像識別、語音識別、自然語言處理、機器人、網絡廣告投放、醫學自動診斷和金融等領域有著廣泛應用。面對繁多的應用場景,深度學習框架有助於建模者節省大量而繁瑣的外圍工作,更聚焦業務場景和模型設計本身。

使用深度學習框架完成模型構建有如下兩個優勢:

節省編寫大量底層代碼的精力:屏蔽底層實現,用戶只需關注模型的邏輯結構。同時,深度學習工具簡化了計算,降低了深度學習入門門檻。

省去了部署和適配環境的煩惱:具備靈活的移植性,可將代碼部署到CPU/GPU/移動端上,選擇具有分布式性能的深度學習工具會使模型訓練更高效。

因此,在開始深度學習項目之前,選擇一個合適的框架是非常重要的。目前,全世界最為流行的深度學習框架有PaddlePaddle、Tensorflow、Caffe、Theano、MXNet、Torch和PyTorch等。下面我們就來介紹一下目前主流的、以及一些剛開源但表現非常優秀的深度學習框架的各自特點,希望能夠幫助大家在學習工作時作出合適的選擇。

Theano

作為深度學習框架的祖師爺,Theano 的誕生為人類叩開了新時代人工智慧的大門。Theano 的開發始於 2007 年的蒙特婁大學,早期雛形由兩位傳奇人物 Yoshua Bengio 和 Ian Goodfellow 共同打造,並於開源社區中逐漸壯大。

Theano 基於 Python,是一個擅長處理多維數組的庫,十分適合與其它深度學習庫結合起來進行數據探索。它設計的初衷是為了執行深度學習中大規模神經網絡算法的運算。其實,Theano 可以被更好地理解為一個數學表達式的編譯器:用符號式語言定義你想要的結果,該框架會對你的程序進行編譯,在 GPU 或 CPU 中高效運行。

Theano 的出現為人工智慧在新時代的發展打下了強大的基礎,在過去的很長一段時間內,Theano 都是深度學習開發與研究的行業標準。往後也有大量基於 Theano 的開源深度學習庫被開發出來,包括 Keras、Lasagne 和 Blocks,甚至後來火遍全球的 TensorFlow 也有很多與 Theano 類似的功能。

隨著更多優秀的深度學習開源框架陸續湧現,Theano 逐漸淡出了人們的視野。2013 年,Theano 創始者之一 Ian Goodfellow 加入 Google 開發 TensorFlow,標誌著 Theano 正式退出歷史舞臺。目前僅有部分研究領域的學者會使用 Theano 進行一些學術研究。

Caffe&Caffe2

Caffe 是一個優先考慮表達、速度和模塊化來設計的框架,它由賈揚清和伯克利人工智慧實驗室研究開發。支持 C、C++、Python等接口以及命令行接口。它以速度和可轉性以及在卷積神經網絡建模中的適用性而聞名。Caffe可以每天處理超過六千萬張圖像,只需單個NVIDIA K40 GPU,其中 1毫秒/圖像用於推理,4毫秒/圖像用於學習。

使用Caffe庫的好處是從深度網絡存儲庫"Caffe 模型Zoo"訪問可用網絡,這些網絡經過預先培訓,可以立即使用。通過Caffe Model Zoo框架可訪問用於解決深度學習問題的預訓練網絡、模型和權重。這些模型可完成簡單的遞歸、大規模視覺分類、用於圖像相似性的SiameSE網絡、語音和機器人應用等。

不過,Caffe 不支持精細粒度網絡層,給定體系結構,對循環網絡和語言建模的總體支持相當差,必須用低級語言建立複雜的層類型,使用門檻很高。Caffe2是由Facebook組織開發的深度學習模型,雖然使用門檻不像Caffe那樣高,但仍然讓不那麼看重性能的開發者望而卻步。另外,Caffe2繼承了Caffe的優點,在速度上令人印象深刻。Facebook 人工智慧實驗室與應用機器學習團隊合作,利用Caffe2大幅加速機器視覺任務的模型訓練過程,僅需 1 小時就訓練完ImageNet 這樣超大規模的數據集。2018 年 3 月底,Facebook 將 Caffe2 併入 PyTorch,一度引起轟動。

Tensorflow

TensorFlow 是 Google 於 2015 年開源的深度學習框架。TensorFlow前身是谷歌的神經網絡算法庫 DistBelief,由谷歌人工智慧團隊谷歌大腦(Google Brain)開發和維護,擁有包括 TensorFlow Hub、TensorFlow Lite、TensorFlow Research Cloud 在內的多個項目以及各類應用程式接口。

TensorFlow 讓用戶可以快速設計深度學習網絡,將底層細節進行抽象,而不用耗費大量時間編寫底層 CUDA 或 C++ 代碼。TensorFlow 在很多方面擁有優異的表現,比如設計神經網絡結構的代碼的簡潔度,分布式深度學習算法的執行效率,還有部署的便利性(能夠全面地支持各種硬體和作業系統)。

TensorFlow在很大程度上可以看作是Theano的後繼者,不僅因為它們有很大一批共同的開發者,而且它們還擁有相近的設計理念,都是基於計算圖實現自動微分系統。TensorFlow 使用數據流圖進行數值計算,圖中的節點代表數學運算,而圖中的邊則代表在這些節點之間傳遞的多維數組(張量)。

TensorFlow編程接口支持Python、C++、Java、Go、R和Haskell API的alpha版本。此外,TensorFlow還可在GoogleCloud和AWS中運行。TensorFlow還支持 Windows 7、Windows 10和Windows Server 2016。由於TensorFlow使用C++ Eigen庫,所以庫可在ARM架構上編譯和優化。這也就意味著用戶可以在各種伺服器和行動裝置上部署自己的訓練模型,無須執行單獨的模型解碼器或者加載Python解釋器。

TensorFlow構建了活躍的社區,完善的文檔體系,大大降低了我們的學習成本,不過社區和文檔主要以英文為主,中文支持有待加強。另外,TensorFlow有很直觀的計算圖可視化呈現。模型能夠快速的部署在各種硬體機器上,從高性能的計算機到行動裝置,再到更小的更輕量的智能終端。

不過,對於深度學習的初學者而言,TensorFlow的學習曲線太過陡峭,需要不斷練習、探索社區並繼續閱讀文章來掌握TensorFlow的訣竅。

Keras

Keras用Python編寫,可以在TensorFlow(以及CNTK和Theano)之上運行。TensorFlow的接口具備挑戰性,因為它是一個低級庫,新用戶可能會很難理解某些實現。而Keras是一個高層的API,它為快速實驗而開發。因此,如果希望獲得快速結果,Keras會自動處理核心任務並生成輸出。Keras支持卷積神經網絡和遞歸神經網絡,可以在CPU和GPU上無縫運行。

深度學習的初學者經常會抱怨:無法正確理解複雜的模型。如果你是這樣的用戶,Keras便是你的正確選擇。它的目標是最小化用戶操作,並使其模型真正容易理解。Keras的出現大大降低了深度學習應用的門檻,通過Keras的API可以通過數行代碼就構建一個網絡模型,曾幾何時,Keras+Theano,Keras+CNTK的模式深得開發者喜愛。目前Keras整套架構已經封裝進了TensorFlow,在TF.keras上可以完成Keras的所有事情。

如果你熟悉Python,並且沒有進行一些高級研究或開發某種特殊的神經網絡,那麼Keras適合你。Keras的重點更多地放在取得成果上,而不是被模型的複雜之處所困擾。因此,如果有一個與圖像分類或序列模型相關的項目,可以從Keras開始,很快便可以構建出一個工作模型。Keras也集成在TensorFlow中,因此也可以使用Tf.keras構建模型。

Pytorch

2017年1月,Facebook人工智慧研究院(FAIR)團隊在GitHub上開源了PyTorch,並迅速佔領GitHub熱度榜榜首。PyTorch的歷史可追溯到2002年就誕生於紐約大學的Torch。Torch使用了一種不是很大眾的語言Lua作為接口。Lua簡潔高效,但由於其過於小眾,用的人不是很多。在2017年,Torch的幕後團隊推出了PyTorch。PyTorch不是簡單地封裝Lua Torch提供Python接口,而是對Tensor之上的所有模塊進行了重構,並新增了最先進的自動求導系統,成為當下最流行的動態圖框架。

Pytorch官網的標題語簡明地描述了Pytorch的特點以及將要發力的方向。Pytorch在學術界優勢很大,關於用到深度學習模型的文章,除了Google的,其他大部分都是通過Pytorch進行實驗的,究其原因,一是Pytorch庫足夠簡單,跟NumPy,SciPy等可以無縫連接,而且基於tensor的GPU加速非常給力,二是訓練網絡迭代的核心——梯度的計算,Autograd架構(借鑑於Chainer),基於Pytorch,我們可以動態地設計網絡,而無需笨拙地定義靜態網絡圖,才能去進行計算,想要對網絡有任務修改,都要從頭開始構建靜態圖。基於簡單,靈活的設計,Pytorch快速成為了學術界的主流深度學習框架。

Pytorch的缺點則是前期缺乏對移動端的支持,因此在商用領域的普及度不及 TensorFlow 。在 2019 年,Facebook 推出 PyTorch Mobile 框架,彌補了 PyTorch 在移動端的不足,使得其在商用領域的發展有望趕超 TensorFlow 。不過現在,如果稍微深入了解TensorFlow和Pytorch,就會發現他們越來越像,TF加入了動態圖架構,Pytorch致力於其在工業界更加易用。打開各自的官網,你也會發現文檔風格也越發的相似。

PyTorch Lightning

PyTorch非常易於使用,可以構建複雜的AI模型。但是一旦研究變得複雜,並且將諸如多GPU訓練,16位精度和TPU訓練之類的東西混在一起,用戶很可能會引入錯誤。PyTorch Lightning就可以完全解決這個問題。Lightning會構建你的PyTorch代碼,以便可以抽象出訓練的細節。這使得AI研究可擴展且可快速迭代。這個項目在GitHub上斬獲了6.6k星。

Lightning將DL/ML代碼分為三種類型:研究代碼、工程代碼、非必要代碼。使用Lightning就只需要專注於研究代碼,不需要寫一大堆的 .cuda() 和 .to(device),Lightning會幫你自動處理。如果要新建一個tensor,可以使用type_as來使得新tensor處於相同的處理器上。此外,它會將工程代碼參數化,減少這部分代碼會使得研究代碼更加清晰,整體也更加簡潔。

PyTorch Lightning 的創建者WilliamFalcon,現在在紐約大學的人工智慧專業攻讀博士學位,並在《福布斯》擔任AI特約作者。他表示,PyTorch Lightning是為從事AI研究的專業研究人員和博士生創建的。該框架被設計為具有極強的可擴展性,同時又使最先進的AI研究技術(例如TPU訓練)變得微不足道。

PaddlePaddle

PaddlePaddle 的前身是百度於 2013 年自主研發的深度學習平臺Paddle,且一直為百度內部工程師研發使用。PaddlePaddle 在深度學習框架方面,覆蓋了搜索、圖像識別、語音語義識別理解、情感分析、機器翻譯、用戶畫像推薦等多領域的業務和技術。在 2016 年的百度世界大會上,前百度首席科學家 Andrew Ng首次宣布將百度深度學習平臺對外開放,命名 PaddlePaddle,中文譯名「飛槳」。

PaddlePaddle同時支持稠密參數和稀疏參數場景的超大規模深度學習並行訓練,支持千億規模參數、數百個幾點的高效並行訓練,也是最早提供如此強大的深度學習並行技術的深度學習框架。PaddlePaddle擁有強大的多端部署能力,支持伺服器端、移動端等多種異構硬體設備的高速推理,預測性能有顯著優勢。PaddlePaddle已經實現了API的穩定和向後兼容,具有完善的中英雙語使用文檔,形成了易學易用、簡潔高效的技術特色。

2019 年,百度還推出了多平臺高性能深度學習引擎Paddle Lite(Paddle Mobile 的升級版),為 PaddlePaddle 生態完善了移動端的支持。

Deeplearning4j

DL4J 是由來自舊金山和東京的一群開源貢獻者協作開發的。2014 年末,他們將其發布為 Apache 2.0 許可證下的開源框架。主要是作為一種平臺來使用,通過這種平臺來部署商用深度學習算法。創立於 2014 年的 Skymind 是 DL4J 的商業支持機構。2017 年 10 月,Skymind 加入了 Eclipse 基金會,並且將 DL4J 貢獻給開源 Java Enterprise Edition 庫生態系統。

DL4J是為java和jvm編寫的開源深度學習庫,支持各種深度學習模型。它具有為 Java 和 Scala 語言編寫的分布式深度學習庫,並且內置集成了 Apache Hadoop 和 Spark。Deeplearning4j 有助於彌合使用Python 語言的數據科學家和使用 Java 語言的企業開發人員之間的鴻溝,從而簡化了在企業大數據應用程式中部署深度學習的過程。

DL4J主要有三大優勢:

1. Python 可與 Java、Scala、Clojure 和 Kotlin 實現互操作性。Python為數據科學家所廣泛採用,而大數據編程人員則在 Hadoop 和 Spark 上使用 Java 或 Scala 來開展工作。DL4J 填補了之間的鴻溝,開發人員因而能夠在 Python 與 JVM 語言(例如,Java、Scala、Clojure 和 Kotlin)之間遷移。通過使用 Keras API,DL4J 支持從其他框架(例如,TensorFlow、Caffe、Theano 和 CNTK)遷移深度學習模型。甚至有人建議將 DL4J 作為 Keras 官方貢獻的後端之一。

2. 分布式處理。DL4J 可在最新分布式計算平臺(例如,Hadoop 和 Spark)上運行,並且可使用分布式 CPU 或 GPU 實現加速。通過使用多個 GPU,DL4J 可以實現與 Caffe 相媲美的性能。DL4J 也可以在許多雲計算平臺上運行。

3. 並行處理。DL4J 包含單線程選項和分布式多線程選項。這種減少迭代次數的方法可在集群中並行訓練多個神經網絡。因此,DL4J 非常適合使用微服務架構來設計應用程式。

CNTK

2015年8月,微軟公司在CodePlex上宣布由微軟研究院開發的計算網絡工具集CNTK將開源。5個月後,2016年1月25日,微軟公司在他們的GitHub倉庫上正式開源了CNTK。早在2014年,在微軟公司內部,黃學東博士和他的團隊正在對計算機能夠理解語音的能力進行改進,但當時使用的工具顯然拖慢了他們的進度。於是,一組由志願者組成的開發團隊構想設計了他們自己的解決方案,最終誕生了CNTK。

根據微軟開發者的描述,CNTK的性能比Caffe、Theano、TensoFlow等主流工具都要強。CNTK支持CPU和GPU模式,和TensorFlow/Theano一樣,它把神經網絡描述成一個計算圖的結構,葉子節點代表輸入或者網絡參數,其他節點代表計算步驟。CNTK 是一個非常強大的命令行系統,可以創建神經網絡預測系統。

CNTK 最初是出於在 Microsoft 內部使用的目的而開發的,一開始甚至沒有Python接口,而是使用了一種幾乎沒什麼人用的語言開發的,而且文檔有些晦澀難懂,推廣不是很給力,導致現在用戶比較少。但就框架本身的質量而言,CNTK表現得比較均衡,沒有明顯的短板,並且在語音領域效果比較突出。

MindSpore

MindSpore是華為在今年3月召開的開發者大會上正式開源,MindSpore是一款支持端邊雲全場景的深度學習訓練推理框架,當前主要應用於計算機視覺、自然語言處理等AI領域,旨在為數據科學家和算法工程師提供設計友好、運行高效的開發體驗,提供昇騰AI處理器原生支持及軟硬體協同優化。

MindSpore的特性是可以顯著減少訓練時間和成本(開發態)、以較少的資源和最高能效比運行(運行態),同時適應包括端、邊緣與雲的全場景(部署態),強調了軟硬體協調及全場景部署的能力。因此,使用MindSpore的優勢可以總結為四點:

簡單的開發體驗。幫助開發者實現網絡自動切分,只需串行表達就能實現並行訓練,降低門檻,簡化開發流程;

靈活的調試模式。具備訓練過程靜態執行和動態調試能力,開發者通過變更一行代碼即可切換模式,快速在線定位問題;

充分發揮硬體潛能。最佳匹配昇騰處理器,最大程度地發揮硬體能力,幫助開發者縮短訓練時間,提升推理性能;

全場景快速部署。支持雲、邊緣和手機上的快速部署,實現更好的資源利用和隱私保護,讓開發者專注於AI應用的創造。

MegEngine(天元)

MegEngine(天元)是今年3月正式開源的工業級深度學習框架,曠世也成為國內第一家開源AI框架的AI企業。天元可幫助開發者用戶藉助友好的編程接口,進行大規模深度學習模型訓練和部署。架構上天元具體分為計算接口、圖表示、優化與編譯、運行時管理和計算內核五層,可極大簡化算法開發流程,實現了模型訓練速度和精度的無損遷移,支持動靜態的混合編程和模型導入,內置高性能計算機視覺算子,尤其適用於大模型算法訓練。

若說谷歌TensorFlow採用利於部署的靜態圖更適用於工業界,而Facebook PyTorch採用靈活且方便調試的動態圖更適合學術科研。那麼曠視的天元則在兼具了雙方特性的過程中,找到了一個的平衡點。天元是一個訓練和推理在同一個框架、同一個體系內完整支持的設計。基於這些創新性的框架設計,天元深度學習框架擁有推理訓練一體化、動靜合一、兼容並包和靈活高效四大優勢:

訓練推理:一體化天元既能夠支持開發者進行算法訓練,同時其訓練得到的模型,還可以直接用於產品的推理和封裝,無需進行多餘的模型轉換。這極大地簡化了算法開發流程,實現速度和精度的無損遷移。與此同時,天元在模型部署時還能夠自動優化模型,自動幫助開發者刪除冗餘代碼。

動靜合一:天元將動態圖的簡單靈活,與靜態圖的高性能優勢進行整合,能在充分利用動態圖模型訓練優勢的同時,通過動靜態一鍵轉換功能,以靜態圖的形式完成生產和部署。此外,天元還支持動靜態的混合編程,進一步提高其靈活性。

兼容並包:天元部署了Pythonic的API和PyTorchModule功能,支持模型直接導入,進一步降低框架遷移的入門門檻和學習成本。同時,它內置高性能計算機視覺算子和算法,能夠深度優化計算機視覺相關模型訓練和應用。

靈活高效:在部署方面,天元擁有多平臺多設備適應能力,其內置算子能夠在推理或生產環境中充分利用多核優勢,靈活調用設備算力,十分適用於大模型算法訓練。

3月,曠視推出的天元是Alpha版本,其中包括曠視前期整理的代碼和關鍵步驟。今年6月曠視推出了Beta版本,添加對ARM系列CPU的支持,以及更多加速晶片的支持。而天元的正式版本將於今年9月發布,除了添加對主流計算設備的支持外,還將升級其動態計算能力,進一步優化訓練推理全流程的使用體驗。與此同時,曠視天元已在GitHub和國內新一代人工智慧開源開放社區OpenI上同步開源。

Jittor(計圖)

Jittor 出自清華大學,開發團隊來自清華大學計算機系圖形學實驗室,牽頭者是清華大學計算機系胡事民教授。Jittor 是國內第一個由高校開源的深度學習框架,同時也是繼 Theano、Caffe 之後,又一個由高校主導的框架。

與主流的深度學習框架TensorFlow、Pytorch不同,Jittor是一個完全基於動態編譯(Just-in-time)、使用元算子和統一計算圖的深度學習框架。Jittor 前端語言為 Python,使用了模塊化的設計,類似於 PyTorch、Keras;後端則使用高性能語言編寫,如 CUDA、C++。元算子和 Numpy 一樣易於使用,而統一計算圖則是融合了靜態計算圖和動態計算圖的諸多優點,在易於使用的同時,提供高性能的優化。基於元算子開發的深度學習模型,可以被計圖實時地自動優化並且運行在指定的硬體上,如 CPU、GPU。

Jittor開發團隊提供了實驗數據。在ImageNet數據集上,使用Resnet50模型,GPU圖像分類任務性能比PyTorch相比,提升32%;CPU圖像分類任務提升11%。在CelebA數據集上,使用LSGAN模型,使用GPU處理圖像生成任務,Jittor比PyTorch性能提升達51%。

此外,為了方便更多人上手Jittor,開發團隊採用了和PyTorch較為相似的模塊化接口,並提供輔助轉換腳本,可以將PyTorch的模型自動轉換成Jittor的模型。他們介紹稱,在參數保存和數據傳輸上,Jittor使用和PyTorch一樣的 Numpy+pickle 協議,所以Jittor和PyTorch的模型可以相互加載和調用。

當然, Jittor作為一個新興深度學習框架,在一些功能上,仍舊需要持續迭代完善。比如生態的建設,以及更大範圍的推廣,仍舊需要很多的努力。Jittor開發團隊介紹稱,就目前來看,Jittor框架的模型支持還待完善,分布式功能待完善。這也是他們下一階段研發的重點。

總的來說,各家的深度學習框架各有千秋,重要的是找到適合自己團隊的,能夠快速匹配團隊的技術棧,快速試驗以期發揮深度學習技術應用落地的商業價值。

編輯:黃繼彥

校對:汪雨晴

相關焦點

  • AI 從業者該如何選擇深度學習開源框架丨雷鋒網公開課
    正如程序語言一樣,深度學習開源框架同樣各有優劣和適用的場景,那麼 AI 從業者該如何有針對性地選擇這些平臺來玩轉深度學習?本期公開課特邀了先後在谷歌、亞馬遜、微軟供職的機器學習科學家彭河森博士為大家講述《MXNet火了,AI從業者該如何選擇深度學習開源框架》。彭河森博士親眼見證並深入參與了這三家巨頭布局深度學習的過程。嘉賓介紹彭河森,埃默裡大學統計學博士。
  • Keras vs PyTorch:誰是第一深度學習框架?
    【IT168 資訊】「第一個深度學習框架該怎麼選」對於初學者而言一直是個頭疼的問題。本文中,來自 deepsense.ai 的研究員給出了他們在高級框架上的答案。在 Keras 與 PyTorch 的對比中,作者還給出了相同神經網絡在不同框架中性能的基準測試結果。
  • 深度學習框架哪家強?國產框架OneFlow做了一份測評報告
    機器之心報導機器之心編輯部近日,國產深度學習框架 OneFlow 發布了人工智慧方向深度學習領域的 DLPerf 測評報告。隨著數據量級的增長,開發者對於深度學習框架如何激發硬體性能持續關注,我們希望這份報告可以給開發者在應用深度學習框架時提供必要的助力,並以此填補業界沒有在嚴格對齊算法和硬體配置的條件下科學測評分布式深度學習框架的空白。」
  • 最熱門的深度學習框架TensorFlow入門必備書籍
    但進入機器學習和人工智慧領域並不是一件簡單的事情,目前市場上有許多大量的學習資源,許多開發者和想要進入的愛好者往往很難找到適合自己的發展路徑。其實,早在 2015 年底,谷歌就開源了內部使用的深度學習框架 TensorFlow 。眾多研究表明,Tensorflow 是研究深度學習的首選平臺。
  • Nature Neurosci: 神經科學的深度學習框架是什麼?
    那如果我們反過來思考,也許深度學習並沒有與神經科學背道而馳,而恰恰是觸及了當前神經科學還未開拓的領域呢?那麼我們是否可以,借鑑當前深度學習已有的規則和框架,來研究神經科學本身呢?今天分享一篇經典的文章。
  • 通過對比深度學習各大框架的優缺點尋找最優
    開源的深度學習神經網絡正步入成熟,而現在有許多框架具備為個性化方案提供先進的機器學習和人工智慧的能力。那麼如何決定哪個開源框架最適合你呢?本文試圖通過對比深度學習各大框架的優缺點,從而為各位讀者提供一個參考。你最看好哪個深度學習框架呢?
  • 迎來PyTorch,告別 Theano,2017 深度學習框架發展大盤點
    深度學習是機器學習中一種基於對數據進行表徵學習的方法,作為當下最熱門的話題,谷歌、Facebook、微軟等巨頭紛紛圍繞深度學習做了一系列研究,一直在支持開源深度學習框架的建設。過去一年間,在這些巨頭的加持下,深度學習框架格局發生了極大改變:新框架橫空出世,舊的框架也逐漸退出歷史舞臺,而框架與框架之間的聯繫也更加緊密,生態更為開放。
  • TensorFlow與PyTorch之爭,哪個框架最適合深度學習
    那麼究竟哪種框架最適宜自己手邊的深度學習項目呢?本文作者從這兩種框架各自的功能效果、優缺點以及安裝、版本更新等諸多方面給出了自己的建議。如果你在讀這篇文章,那麼你可能已經開始了自己的深度學習之旅。如果你對這一領域還不是很熟悉,那麼簡單來說,深度學習使用了「人工神經網絡」,這是一種類似大腦的特殊架構,這個領域的發展目標是開發出能解決真實世界問題的類人計算機。
  • 四大深度學習框架+四類GPU+七種神經網絡:交叉性能評測
    選自add-for作者:Pedro Gusmo機器之心編譯參與:李澤南、黃小天最近,Pedro Gusmo 等人對於英偉達的四種 GPU 在四種不同深度學習框架下的性能進行了評測。本次評測共使用了 7 種用於圖像識別的深度學習模型。第一個評測對比不同 GPU 在不同神經網絡和深度學習框架下的表現。
  • 深度學習框架太抽象?其實不外乎這五大核心組件
    為了更好地認識深度學習框架,也為了給一些想要自己親手搭建深度學習框架的朋友提供一些基礎性的指導,日前來自蘇黎世聯邦理工學院計算機科學系的碩士研究生Gokula Krishnan Santhanam在博客上撰文,概括了大部分深度學習框架都會包含的五大核心組件,為我們詳細剖析了深度學習框架一般性的內部組織結構。以下由雷鋒網編譯。
  • TensorFlow和Caffe、MXNet、Keras等其他深度學習框架的對比
    在這一年多時間,TensorFlow 已從初入深度學習框架大戰的新星,成為了幾近壟斷的行業事實標準。主流深度學習框架對比深度學習研究的熱潮持續高漲,各種開源深度學習框架也層出不窮,其中包括 TensorFlow、Caffe、Keras、CNTK、Torch7、MXNet、Leaf、Theano、DeepLearning4、Lasagne、Neon 等等。
  • 通用深度學習框架:預測材料相形成
    來自中國北京科技大學和英國萊斯特大學的Huadong Fu和Hongbiao Dong研究組提出了一種可應用於小型數據集的通用且可移植的深度學習框架(GTDL),用於預測材料成相。GTDL框架在玻璃形成能力和高熵合金案例研究中的應用表明, GTDL優於目前的模型,嵌入數據中的元素周期表等信息以及不同模型之間共享的信息,使得基於小型數據集的預測成為可能。
  • 瀏覽器中實現深度學習?有人分析了7個基於JS語言的DL框架
    具體而言,作者重點分析了 7 個最近出現的基於JavaScript 的 DL 框架,並對比了具體框架支持哪些 DL 任務。深度學習(Deep Learning,DL)是一類利用多層非線性處理單元(稱為神經元)進行特徵提取和轉換的機器學習算法。每個連續層使用前一層的輸出作為輸入。近十年來,深度學習技術的進步極大地促進了人工智慧的發展。
  • 物聯網、信息安全、計算機科學,本科期間該選擇哪一個
    首先,物聯網、信息安全和計算機科學這三個專業都是可以選擇的,各自也都有自己的側重點,從知識體系的設置上來看,物聯網專業涉及到的內容比較多,而從學科體系的成熟度上來看,計算機科學與技術專業則更成熟一些。如果有讀研的計劃,在本科期間可以重點關注一下計算機科學與技術專業,原因有三個方面,其一是計科專業比較注重理論知識體系的學習,而且也有一定的深度,其二是計科專業的研究生培養能力比較強,而且科研環境相對比較成熟,其三是計科專業的研究生培養方向比較多,在讀研期間也可以主攻物聯網和信息安全相關方向,還可以選擇大數據、人工智慧等熱門方向。
  • 還不會使用PyTorch框架進行深度學習的小夥伴,看過來
    選自heartbeat.fritz.ai作者:Derrick Mwiti機器之心編譯參與:Geek AI、王淑婷這是一篇關於使用 PyTorch 框架進行深度學習的教程,讀完以後你可以輕鬆地將該框架應用於深度學習模型。
  • 華為深度學習框架MindSpore正式開源:自動微分不止計算圖
    今年的華為開發者大會 HDC 2020 上,除了昇騰、鯤鵬等自研晶片硬體平臺之外,最令人期待的就是深度學習框架 MindSpore 的開源了。今天上午,華為 MindSpore 首席科學家陳雷在活動中宣布這款產品正式開源,我們終於可以在開放平臺上一睹它的真面目。
  • 十行代碼就能搞定深度學習?飛槳框架高層API,輕鬆玩轉AI
    機器之心發布機器之心編輯部嚮往深度學習技術,可是深度學習框架太難學怎麼辦?百度傾心打造飛槳框架高層 API,零基礎也能輕鬆上手深度學習,一起來看看吧?另:文末有福利,一定要看完呦~高層 API,What深度學習作為人工智慧時代的核心技術,近年來無論學術、還是工業領域,均發揮著愈加重要的作用。然而,深度學習理論太難學,開發過程太複雜,又將許多人拒之於深度學習的門外。
  • React、Angular和Vue三種最流行的前端框架哪一個最好?
    在本次討論中,我們將比較三種最受歡迎的前端開發技術 - Angular,React和Vue。我們正在根據項目架構或者從開發人員的角度來討論這種比較,他們將為新項目選擇技術。因此,我們首先需要明確決定是要開發單頁面應用程式(SPA)還是標準的多頁面應用程式。庫或框架?因此,在深入比較之前,我們首先需要確定哪一個是必需的 - 一個庫或一個框架?
  • 瀏覽器中實現深度學習?有人分析了7個基於JS語言的DL框架,發現還有...
    具體而言,作者重點分析了 7 個最近出現的基於JavaScript 的 DL 框架,並對比了具體框架支持哪些 DL 任務。深度學習(Deep Learning,DL)是一類利用多層非線性處理單元(稱為神經元)進行特徵提取和轉換的機器學習算法。每個連續層使用前一層的輸出作為輸入。近十年來,深度學習技術的進步極大地促進了人工智慧的發展。
  • 35 萬行代碼,曠視重磅開源天元深度學習框架 ,四大特性實現簡單開發
    發布會上,曠視研究院高級技術總監田忠博詳細介紹了這款剛剛正式對外開源的深度學習框架。  全球AI開發框架又添一員,曠視開源「天元」  曠視天元開源之時,正值深度學習框架百花齊放的時代。  自2007年Theano誕生以來,經過十餘年發展,深度學習技術與應用突飛猛進,深度學習框架也處在不斷迭代與進化的過程;另一方面,開源的概念在全球範圍內越來越深入人心,這使得人工智慧開發依賴的環境安裝、部署、測試,以及不斷迭代改進準確性和性能調優的工作變得更加簡單,在人工智慧領域,開源深度學習框架已經成為開發者離不開的平臺和工具。