PyTorch 1.7發布,支持CUDA 11、Windows分布式訓練

2020-11-04 Python部落

本文由機器之心報導

昨日,PyTorch 團隊發布 PyTorch 1.7 版本。該版本增添了很多新特性,如支持 CUDA 11、Windows 分布式訓練、增加了支持快速傅立葉變換(FFT)的新型 API 等。

PyTorch 1.7 版本包含很多新的 API,如支持 NumPy 兼容的 FFT 操作、性能分析工具,以及對基於分布式數據並行(DDP)和基於遠程過程調用(RPC)的分布式訓練的重要更新。

此外,一些特性也更新為穩定版,包括自定義 C++ 類、內存分析器、通過自定義類張量對象進行擴展、RPC 中的用戶異步函數,以及 torch.distributed 中的許多其他特性(如 Per-RPC 超時、DDP dynamic bucketing、RRef helper)。

本次更新的亮點包括:

  • CUDA 11 得到 PyTorch 官方支持;

  • 對 autograd 分析器,更新和添加了 RPC、TorchScript 和堆棧跟蹤(Stack trace)的分析和性能;

  • (測試版)通過 torch.fft 支持 NumPy 兼容的 FFT 操作;

  • (原型版)支持英偉達 A100 GPU 和原生 TF32 格式;

  • (原型版)支持 Windows 系統上的分布式訓練。

  • torchvision

  • (穩定版)transforms 支持張量輸入、批處理計算、GPU 和 TorchScript

  • (穩定版)JPEG 和 PNG 格式的原生圖像 I/O

  • (測試版)新型視頻讀取器 API

  • torchaudio

  • (穩定版)增加了對語音錄製(wav2letter)、文本轉語音(WaveRNN)和源分離(ConvTasNet)的支持

(註:從 PyTorch 1.6 版本開始,PyTorch 特性分為 Stable(穩定版)、Beta(測試版)和 Prototype(原型版)。

新特性

PyTorch 1.7 相比之前版本,增加了很多新特性,包括 Python API、C++ API、Autograd、CUDA、量化等多個方面。

例如 Python API 增添了多個新的 namespace、operator 以及 API 擴展,CUDA 增加了 TF32 支持等,量化方面增加了新的量化操作、支持 FP16 量化等。

PyTorch 1.7 部分新特性,詳情參見 https://github.com/pytorch/pytorch/releases/tag/v1.7.0。

開發者對 PyTorch 1.7 的態度

有開發者對 PyTorch 1.7「支持 Windows 上的分布式訓練」這一新功能表示讚賞:

以及樂見於「PyTorch 對 CUDA 11 的支持」:

依然有人趁機表白 PyTorch,並列出偏好 PyTorch 的原因,如報錯易讀、代碼直觀、易於實驗。

當然,版本更迭的路似乎永無止境。有開發者提出了自己的需求,例如 fp32 卷積、TensorFlow 有而 PyTorch 沒有的 Semantic Versioning:

此時距離 PyTorch 1.6 版本發布僅三個月,不知道 PyTorch 的下一個版本又將帶給我們哪些驚喜。

參考連結:

https://pytorch.org/blog/pytorch-1.7-released/https://github.com/pytorch/pytorch/releases/tag/v1.7.0https://www.reddit.com/r/MachineLearning/comments/jj4sr7/d_pytorch_17_released_w_cuda_11_new_apis_for_ffts/com

PyTorch 中文版官方教程來了。


PyTorch 是近年來較為火爆的深度學習框架,然而其中文版官方教程久久不來。近日,一款完整的 PyTorch 中文版官方教程出爐,讀者朋友可以更好的學習了解 PyTorch 的相關細節了。教程作者來自 pytorchchina.com。

教程網站:http://pytorch123.com


如果不想自己下載,請通過下面方式獲取pdf資料:


回復「pytorch」獲取pdf和代碼

相關焦點

  • PyTorch 1.7發布,支持CUDA 11、Windows分布式訓練
    機器之心報導參與:魔王、小舟昨日,PyTorch 團隊發布 PyTorch 1.7 版本。該版本增添了很多新特性,如支持 CUDA 11、Windows 分布式訓練、增加了支持快速傅立葉變換(FFT)的新型 API 等。
  • PyTorch1.7發布,支持CUDA11分布式訓練
    該版本增添了很多新特性,如支持 CUDA 11、Windows 分布式訓練、增加了支持快速傅立葉變換(FFT)的新型 API 等。NumPy 兼容的 FFT 操作、性能分析工具,以及對基於分布式數據並行(DDP)和基於遠程過程調用(RPC)的分布式訓練的重要更新。
  • Pytorch中的分布式神經網絡訓練
    經常,在訓練這些網絡時,深度學習從業人員需要使用多個GPU來有效地訓練它們。 在本文中,我將向您介紹如何使用PyTorch在GPU集群上設置分布式神經網絡訓練。通常,分布式訓練會在有一下兩種情況。在GPU之間拆分模型:如果模型太大而無法容納在單個GPU的內存中,則需要在不同GPU之間拆分模型的各個部分。跨GPU進行批量拆分數據。
  • PyTorch 1.4 發布:支持 Java 和分布式模型並行訓練
    PyTorch 團隊上周發布了最新的 PyTorch 1.4 版本。更新日誌顯示,此版本包含了 1500 多次提交,並在 JIT、ONNX、分布式、性能和 Eager 前端等方面進行了改進,以及對於移動版本和量化方面的實驗領域也進行了改進。1.4 還增加了新的實驗性功能,其中包括基於 RPC 的分布式模型並行訓練以及對 Java 的語言綁定。
  • Pytorch中的分布式神經網絡訓練|pytorch|bat|拆分|調用_網易訂閱
    經常,在訓練這些網絡時,深度學習從業人員需要使用多個GPU來有效地訓練它們。 在本文中,我將向您介紹如何使用PyTorch在GPU集群上設置分布式神經網絡訓練。    在PyTorch中,只需要一行就可以使用nn.DataParallel進行分布式訓練。 該模型只需要包裝在nn.DataParallel中。  model = torch.nn.DataParallel(model)......loss = ...
  • PyTorch 1.7 發布:支持 CUDA 11、FFT 新 API、及 Windows 分布式...
    千萬別說你來過 OSChttps://www.oschina.net/project/top_cn_2020PyTorch 1.7 現已發布,此版本增加了許多新的 API、包括對與 NumPy 兼容的 FFT 操作的支持、用於性能分析的工具、以及對基於分布式數據並行(Distributed Data Parallel
  • 在PyTorch中使用進行多GPU分布式模型訓練
    分布式訓練是使用多個GPU和/或多個機器訓練深度學習模型的技術。 分布式訓練作業使您能夠克服單GPU內存瓶頸,通過同時利用多個GPU來開發更大,功能更強大的模型。這篇文章是使用torch.nn.parallel.DistributedDataParallel API在純PyTorch中進行分布式訓練的簡介。 我們會:1.
  • PyTorch 0.2發布:更多NumPy特性,高階梯度、分布式訓練等
    李林 編譯整理量子位 報導 | 公眾號 QbitAIFacebook的機器學習框架(之一)PyTorch今天發布了新版本:0.2.0。這一版本引入了NumPy風格的Broadcasting、Advanced Indexing,增加了高階梯度和分布式PyTorch。
  • PyTorch中使用DistributedDataParallel進行多GPU分布式模型訓練
    雖然GPT是一個比較極端的例子但是各種SOTA模型正在推動越來越大的模型進入生產應用程式,這裡的最大挑戰是使用GPU卡在合理的時間內完成模型訓練工作的能力。為了解決這些問題,從業者越來越多地轉向分布式訓練。 分布式訓練是使用多個GPU和/或多個機器訓練深度學習模型的技術。
  • Pytorch的極簡安裝
    系統要求:Pytorch支持windows、linux、macos等,要求系統版本為:windows 7及以上版本,推薦 windows 10 ;ubantu 13.04 及以上版本, 其他linux版本要求參考pytorch文檔;macOS 10.10 及以上版本(macOS安裝GPU版本需從源碼構建,下面安裝步驟不適用)。
  • GPU-驅動-CUDA-PyTorch對應關係
    查詢顯卡能支持的最新驅動在 NVIDIA 官網能夠找到自己的顯卡所對應的最新驅動的版本。https://www.nvidia.cn/Download/index.aspx?lang=cn# 以 GTX 1050 為例:1.
  • PyTorch 0.4:完全改變API,官方支持Windows
    新智元報導 來源:Pytorch 官網【新智元導讀】今天,PyTorch官方在GitHub發布0.4.0版本,最重要的改進是支持Windows系統。新版本完全改變了API,是本年度最重大的升級。TensorFlow依舊有王者榮耀,但PyTorch虎視眈眈。
  • PyTorch1.6:新增自動混合精度訓練、Windows版開發維護權移交微軟
    相比於以往的 PyTorch 版本,本次即將發布的 PyTorch 1.6 有哪些吸引人的地方呢?總的來說,PyTorch 1.6 版本包括許多新的 API、用於性能改進和性能分析的工具,以及對基於分布式數據並行(DDP)和遠程過程調用(RPC)的分布式訓練的重大更新。
  • PyTorch 1.6來了:新增自動混合精度訓練、Windows版開發維護權移交...
    機器之心報導機器之心編輯部剛剛,Facebook 通過 PyTorch 官方博客宣布:PyTorch 1.6 正式發布!新版本增加了一個 amp 子模塊,支持本地自動混合精度訓練。
  • PyTorch 1.6 發布:原生支持自動混合精度訓練並進入穩定階段
    PyTorch 1.6 穩定版已發布,此版本增加了許多新的 API、用於性能改進和性能分析的工具、以及對基於分布式數據並行(Distributed
  • 讓PyTorch訓練速度更快,你需要掌握這17種方法
    主題內容是關於怎樣加速 PyTorch 訓練。原文作者是來自蘇黎世聯邦理工學院的計算機科學碩士生 LORENZ KUHN,文章向我們介紹了在使用 PyTorch 訓練深度模型時最省力、最有效的 17 種方法。
  • 大家心心念念的PyTorch Windows官方支持來了
    五個小時前,PyTorch 官方 GitHub 發布 0.4.0 版本,大家心心念念的 Windows 支持終於來了。GitHub 發布地址:https://github.com/pytorch/pytorch/releasesPyTorch 官網:http://pytorch.org/這一次更新從 0.3.1 到 0.4.0 有著非常多的改進,最重要的就是官方支持 Windows 系統。
  • Pytorch-Transformers 1.0 發布,支持六個預訓練框架,含 27 個預...
    雷鋒網 AI 科技評論按:剛剛,在 Github 上發布了開源 Pytorch-Transformers 1.0,該項目支持 BERT, GPT, GPT-2, Transfo-XL, XLNet, XLM 等,並包含 27 個預訓練模型。我們來看。
  • 《PyTorch中文手冊》來了
    12 月 8 日 PyTorch 已經發布 1.0 的穩定版。 API 的改動不是很大,本教程已經通過測試,保證能夠在 1.0 中正常運行。 不過目前看影響不大,因為畢竟內容還不多。 v0.4.1 已經新建了分支作為存檔,並且該不會再進行更新了。目錄第一章: pytorch 入門1.
  • 在Linux系統中安裝深度學習框架Pytorch
    因為PyTorch官網上提供了無cuda的安裝指示,所以我覺得沒有cuda應該也可以安裝好PyTorch。還有網上一些安裝教程會有通過nvcc -V檢測cuda的版本等。如果要訓練大規模的數據集,跑的程序很大需要使用GPU版本。