最新翻譯的官方 PyTorch 簡易入門教程

2021-03-02 人工智慧頭條

「PyTorch 深度學習:60分鐘快速入門」為 PyTorch 官網教程,網上已經有部分翻譯作品,隨著PyTorch1.0 版本的公布,這個教程有較大的代碼改動,本人對教程進行重新翻譯,並測試運行了官方代碼,製作成 Jupyter Notebook文件(中文注釋)在 github 予以公布。(黃海廣)

本文內容較多,可以在線學習,如果需要本地調試,請到github下載:

https://github.com/fengdu78/machine_learning_beginner/tree/master/PyTorch_beginner

此教程為翻譯官方地址:

https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html

作者: Soumith Chintala

本教程的目標:

注意: 務必確認您已經安裝了 torch 和 torchvision 兩個包。

目錄

一、Pytorch是什麼?

二、AUTOGRAD

三、神經網絡

四、訓練一個分類器

五、數據並行

一、PyTorch 是什麼

他是一個基於Python的科學計算包,目標用戶有兩類

為了使用GPU來替代numpy

一個深度學習研究平臺:提供最大的靈活性和速度

開始張量(Tensors)

張量類似於numpy的ndarrays,不同之處在於張量可以使用GPU來加快計算。

from __future__ import print_function
import torch

構建一個未初始化的5*3的矩陣:

x = torch.Tensor(5, 3)
print(x)

輸出 :

tensor([[ 0.0000e+00,  0.0000e+00,  1.3004e-42],
       [ 0.0000e+00,  7.0065e-45,  0.0000e+00],
       [-3.8593e+35,  7.8753e-43,  0.0000e+00],
       [ 0.0000e+00,  1.8368e-40,  0.0000e+00],
       [-3.8197e+35,  7.8753e-43,  0.0000e+00]])

構建一個零矩陣,使用long的類型

x = torch.zeros(5, 3, dtype=torch.long)
print(x)

輸出:

tensor([[0, 0, 0],
       [0, 0, 0],
       [0, 0, 0],
       [0, 0, 0],
       [0, 0, 0]])

從數據中直接構建一個張量(tensor):

x = torch.tensor([5.5, 3])
print(x)

輸出:

或者在已有的張量(tensor)中構建一個張量(tensor). 這些方法將重用輸入張量(tensor)的屬性,例如, dtype,除非用戶提供新值

x = x.new_ones(5, 3, dtype=torch.double)      
print(x)
x = torch.randn_like(x, dtype=torch.float)    
print(x)                                      

輸出:

tensor([[1., 1., 1.],
       [1., 1., 1.],
       [1., 1., 1.],
       [1., 1., 1.],
       [1., 1., 1.]], dtype=torch.float64)
tensor([[ 1.1701, -0.8342, -0.6769],
       [-1.3060,  0.3636,  0.6758],
       [ 1.9133,  0.3494,  1.1412],
       [ 0.9735, -0.9492, -0.3082],
       [ 0.9469, -0.6815, -1.3808]])

獲取張量(tensor)的大小

輸出:

注意

torch.Size實際上是一個元組,所以它支持元組的所有操作。

操作

張量上的操作有多重語法形式,下面我們以加法為例進行講解。

語法1

y = torch.rand(5, 3)
print(x + y)

輸出:

tensor([[ 1.7199, -0.1819, -0.1543],
       [-0.5413,  1.1591,  1.4098],
       [ 2.0421,  0.5578,  2.0645],
       [ 1.7301, -0.3236,  0.4616],
       [ 1.2805, -0.4026, -0.6916]])


語法二

輸出:

tensor([[ 1.7199, -0.1819, -0.1543],
       [-0.5413,  1.1591,  1.4098],
       [ 2.0421,  0.5578,  2.0645],
       [ 1.7301, -0.3236,  0.4616],
       [ 1.2805, -0.4026, -0.6916]])

語法三:給出一個輸出張量作為參數

result = torch.empty(5, 3)
torch.add(x, y, out=result)
print(result)

輸出:

tensor([[ 1.7199, -0.1819, -0.1543],
       [-0.5413,  1.1591,  1.4098],
       [ 2.0421,  0.5578,  2.0645],
       [ 1.7301, -0.3236,  0.4616],
       [ 1.2805, -0.4026, -0.6916]])


語法四:原地操作(in-place)

輸出:

tensor([[ 1.7199, -0.1819, -0.1543],
       [-0.5413,  1.1591,  1.4098],
       [ 2.0421,  0.5578,  2.0645],
       [ 1.7301, -0.3236,  0.4616],
       [ 1.2805, -0.4026, -0.6916]])

注意

任何在原地(in-place)改變張量的操作都有一個』_『後綴。例如x.copy_(y), x.t_()操作將改變x.

你可以使用所有的numpy索引操作。你可以使用各種類似標準NumPy的花哨的索引功能

輸出:

tensor([-0.8342,  0.3636,  0.3494, -0.9492, -0.6815])

調整大小:如果要調整張量/重塑張量,可以使用torch.view:

x = torch.randn(4, 4)
y = x.view(16)
z = x.view(-1, 8)  # -1的意思是沒有指定維度
print(x.size(), y.size(), z.size())

輸出:

torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])

如果你有一個單元素張量,使用.item()將值作為Python數字

x = torch.randn(1)
print(x)
print(x.item())

輸出:

tensor([0.3441])
0.34412217140197754

numpy 橋

把一個 torch 張量轉換為 numpy 數組或者反過來都是很簡單的。

Torch 張量和 numpy 數組將共享潛在的內存,改變其中一個也將改變另一個。

把 Torch 張量轉換為 numpy 數組


a = torch.ones(5)
print(a)

輸出:

tensor([1., 1., 1., 1., 1.])

輸入:

b = a.numpy()
print(b)
print(type(b))

輸出:

[ 1.  1.  1.  1.  1.]
<class 'numpy.ndarray'>

通過如下操作,我們看一下numpy數組的值如何在改變。

a.add_(1)
print(a)
print(b)

輸出:

tensor([2., 2., 2., 2., 2.])
[ 2.  2.  2.  2.  2.]

把 numpy 數組轉換為 torch 張量

看看改變 numpy 數組如何自動改變 torch 張量。

import numpy as np
a = np.ones(5)
b = torch.from_numpy(a)
np.add(a, 1, out=a)
print(a)
print(b)

輸出:

[ 2.  2.  2.  2.  2.]
tensor([2., 2., 2., 2., 2.], dtype=torch.float64)

所有在CPU上的張量,除了字符張量,都支持在numpy之間轉換。

CUDA 張量

可以使用.to方法將張量移動到任何設備上。

# let us run this cell only if CUDA is available
# We will use ``torch.device`` objects to move tensors in and out of GPU
if torch.cuda.is_available():
   device = torch.device("cuda")          # a CUDA device object
   y = torch.ones_like(x, device=device)  # directly create a tensor on GPU
   x = x.to(device)                       # or just use strings ``.to("cuda")``
   z = x + y
   print(z)
   print(z.to("cpu", torch.double))       # ``.to`` can also change dtype together!

腳本總運行時間:0.003秒

二、Autograd: 自動求導(automatic differentiation)

PyTorch 中所有神經網絡的核心是autograd包.我們首先簡單介紹一下這個包,然後訓練我們的第一個神經網絡.

autograd包為張量上的所有操作提供了自動求導.它是一個運行時定義的框架,這意味著反向傳播是根據你的代碼如何運行來定義,並且每次迭代可以不同.

接下來我們用一些簡單的示例來看這個包:

張量(Tensor)

torch.Tensor是包的核心類。如果將其屬性.requires_grad設置為True,則會開始跟蹤其上的所有操作。完成計算後,您可以調用.backward()並自動計算所有梯度。此張量的梯度將累積到.grad屬性中。

要阻止張量跟蹤歷史記錄,可以調用.detach()將其從計算歷史記錄中分離出來,並防止將來的計算被跟蹤。

要防止跟蹤歷史記錄(和使用內存),您還可以使用torch.no_grad()包裝代碼塊:在評估模型時,這可能特別有用,因為模型可能具有requires_grad = True的可訓練參數,但我們不需要梯度。

還有一個類對於autograd實現非常重要 - Function。

Tensor和Function互相連接並構建一個非循環圖構建一個完整的計算過程。每個張量都有一個.grad_fn屬性,該屬性引用已創建Tensor的Function(除了用戶創建的Tensors - 它們的grad_fn為None)。

如果要計算導數,可以在Tensor上調用.backward()。如果Tensor是標量(即它包含一個元素數據),則不需要為backward()指定任何參數,但是如果它有更多元素,則需要指定一個梯度參數,該參數是匹配形狀的張量。

創建一個張量並設置requires_grad = True以跟蹤它的計算

x = torch.ones(2, 2, requires_grad=True)
print(x)

輸出:

tensor([[1., 1.],
       [1., 1.]], requires_grad=True)

在張量上執行操作:

輸出:

tensor([[3., 3.],
       [3., 3.]], grad_fn=<AddBackward>)

因為y是通過一個操作創建的,所以它有grad_fn,而x是由用戶創建,所以它的grad_fn為None.

print(y.grad_fn)
print(x.grad_fn)

輸出:

<AddBackward object at 0x000001C015ADFFD0>
None

在y上執行操作

z = y * y * 3
out = z.mean()
print(z, out)

輸出:

tensor([[27., 27.],
       [27., 27.]], grad_fn=<MulBackward0>) tensor(27., grad_fn=<MeanBackward1>)


.requires_grad_(...)就地更改現有的Tensor的requires_grad標誌。 如果沒有給出,輸入標誌默認為False。

a = torch.randn(2, 2)
a = ((a * 3) / (a - 1))
print(a.requires_grad)
a.requires_grad_(True)
print(a.requires_grad)
b = (a * a).sum()
print(b.grad_fn)

輸出:

False
True
<SumBackward0 object at 0x000001E020B79FD0>

梯度(Gradients)

現在我們來執行反向傳播,out.backward()相當於執行out.backward(torch.tensor(1.))

輸出out對x的梯度d(out)/dx:

輸出:

tensor([[4.5000, 4.5000],
       [4.5000, 4.5000]])

你應該得到一個值全為4.5的矩陣,我們把張量out稱為"o". 則:

雅可比向量積的這種特性使得將外部梯度饋送到具有非標量輸出的模型中非常方便。

現在讓我們來看一個雅可比向量積的例子:

x = torch.randn(3, requires_grad=True)
y = x * 2
while y.data.norm() < 1000:
   y = y * 2
print(y)

輸出:

tensor([  384.5854,   -13.6405, -1049.2870], grad_fn=<MulBackward0>)

現在在這種情況下,y不再是標量。 torch.autograd無法直接計算完整雅可比行列式,但如果我們只想要雅可比向量積,只需將向量作為參數向後傳遞:

v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float)
y.backward(v)
print(x.grad)

輸出:

tensor([5.1200e+01, 5.1200e+02, 5.1200e-02])

您還可以通過torch.no_grad()代碼,在張量上使用.requires_grad = True來停止使用跟蹤歷史記錄。

print(x.requires_grad)
print((x ** 2).requires_grad)
with torch.no_grad():
   print((x ** 2).requires_grad)

輸出:

關於 autograd 和 Function 的文檔在 http://pytorch.org/docs/autograd

三、神經網絡

可以使用 torch.nn 包來構建神經網絡.

你已知道 autograd 包,nn 包依賴 autograd 包來定義模型並求導.一個 nn.Module 包含各個層和一個 forward(input)  方法,該方法返回 output.

例如,我們來看一下下面這個分類數字圖像的網絡.

convnet

他是一個簡單的前饋神經網絡,它接受一個輸入,然後一層接著一層的輸入,直到最後得到結果.

神經網絡的典型訓練過程如下:

weight = weight - learning_rate * gradient

定義網絡

我們先定義一個網絡

import torch
import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):

   def __init__(self):
       super(Net, self).__init__()
       
       
       self.conv1 = nn.Conv2d(1, 6, 5)
       self.conv2 = nn.Conv2d(6, 16, 5)
       
       self.fc1 = nn.Linear(16 * 5 * 5, 120)
       self.fc2 = nn.Linear(120, 84)
       self.fc3 = nn.Linear(84, 10)

   def forward(self, x):
       
       x = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))
       
       x = F.max_pool2d(F.relu(self.conv2(x)), 2)
       x = x.view(-1, self.num_flat_features(x))
       x = F.relu(self.fc1(x))
       x = F.relu(self.fc2(x))
       x = self.fc3(x)
       return x

   def num_flat_features(self, x):
       size = x.size()[1:]  
       num_features = 1
       for s in size:
           num_features *= s
       return num_features


net = Net()
print(net)

輸出:

Net(
 (conv1): Conv2d(1, 6, kernel_size=(5, 5), stride=(1, 1))
 (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
 (fc1): Linear(in_features=400, out_features=120, bias=True)
 (fc2): Linear(in_features=120, out_features=84, bias=True)
 (fc3): Linear(in_features=84, out_features=10, bias=True)
)

你只需定義forward函數,backward函數(計算梯度)在使用autograd時自動為你創建.你可以在forward函數中使用Tensor的任何操作.

net.parameters()返回模型需要學習的參數。

params = list(net.parameters())
print(len(params))
print(params[0].size())

輸出:

10
torch.Size([6, 1, 5, 5])f

讓我們嘗試一個隨機的 32x32 輸入。 注意:此網絡(LeNet)的預期輸入大小為 32x32。 要在MNIST數據集上使用此網絡,請將數據集中的圖像大小調整為 32x32。

input = torch.randn(1, 1, 32, 32)
out = net(input)
print(out)

輸出:

tensor([[-0.1217,  0.0449, -0.0392, -0.1103, -0.0534, -0.1108, -0.0565,  0.0116,
         0.0867,  0.0102]], grad_fn=<AddmmBackward>)

將所有參數的梯度緩存清零,然後進行隨機梯度的的反向傳播.

net.zero_grad()
out.backward(torch.randn(1, 10))

注意

torch.nn只支持小批量輸入,整個torch.nn包都只支持小批量樣本,而不支持單個樣本

‍‍例如,nn.Conv2d將接受一個4維的張量,每一維分別是:

nSamples×nChannels×Height×Width(樣本數*通道數*高*寬).‍‍

如果你有單個樣本,只需使用input.unsqueeze(0)來添加其它的維數.

在繼續之前,我們回顧一下到目前為止見過的所有類.

回顧

torch.Tensor-支持自動編程操作(如backward())的多維數組。 同時保持梯度的張量。

nn.Module-神經網絡模塊.封裝參數,移動到GPU上運行,導出,加載等

nn.Parameter-一種張量,當把它賦值給一個Module時,被自動的註冊為參數.

autograd.Function-實現一個自動求導操作的前向和反向定義, 每個張量操作都會創建至少一個Function節點,該節點連接到創建張量並對其歷史進行編碼的函數。

損失函數

一個損失函數接受一對(output, target)作為輸入(output為網絡的輸出,target為實際值),計算一個值來估計網絡的輸出和目標值相差多少.

在nn包中有幾種不同的損失函數.一個簡單的損失函數是:nn.MSELoss,他計算輸入(個人認為是網絡的輸出)和目標值之間的均方誤差.

例如:

output = net(input)
target = torch.randn(10)  # a dummy target, for example
target = target.view(1, -1)  # make it the same shape as output
criterion = nn.MSELoss()
loss = criterion(output, target)
print(loss)

輸出:

tensor(0.5663, grad_fn=<MseLossBackward>)

現在,你反向跟蹤loss,使用它的.grad_fn屬性,你會看到向下面這樣的一個計算圖:

input -> conv2d -> relu -> maxpool2d -> conv2d -> relu -> maxpool2d
     -> view -> linear -> relu -> linear -> relu -> linear
     -> MSELoss
     -> loss

所以, 當你調用loss.backward(),整個圖被區分為損失以及圖中所有具有requires_grad = True的張量,並且其.grad 張量的梯度累積。

為了說明,我們反向跟蹤幾步:

print(loss.grad_fn)  # MSELoss
print(loss.grad_fn.next_functions[0][0])  # Linear
print(loss.grad_fn.next_functions[0][0].next_functions[0][0])

輸出:

<MseLossBackward object at 0x0000029E54C509B0>
<AddmmBackward object at 0x0000029E54C50898>
<AccumulateGrad object at 0x0000029E54C509B0>

反向傳播

為了反向傳播誤差,我們所需做的是調用loss.backward().你需要清除已存在的梯度,否則梯度將被累加到已存在的梯度。

現在,我們將調用loss.backward(),並查看conv1層的偏置項在反向傳播前後的梯度。

net.zero_grad()     # zeroes the gradient buffers of all parameters
print('conv1.bias.grad before backward')
print(net.conv1.bias.grad)
loss.backward()
print('conv1.bias.grad after backward')
print(net.conv1.bias.grad)

輸出:

conv1.bias.grad before backward
tensor([0., 0., 0., 0., 0., 0.])
conv1.bias.grad after backward
tensor([ 0.0006, -0.0164,  0.0122, -0.0060, -0.0056, -0.0052])

更新權重

實踐中最簡單的更新規則是隨機梯度下降(SGD)。

weight=weight−learning_rate∗gradient

我們可以使用簡單的 Python 代碼實現這個規則.

learning_rate = 0.01
for f in net.parameters():
   f.data.sub_(f.grad.data * learning_rate)

然而,當你使用神經網絡是,你想要使用各種不同的更新規則,比如SGD,Nesterov-SGD,Adam, RMSPROP等.為了能做到這一點,我們構建了一個包torch.optim實現了所有的這些規則.使用他們非常簡單:

import torch.optim as optim

optimizer = optim.SGD(net.parameters(), lr=0.01)

optimizer.zero_grad()  
output = net(input)
loss = criterion(output, target)
loss.backward()
optimizer.step()    

注意

觀察如何使用optimizer.zero_grad()手動將梯度緩衝區設置為零。 這是因為梯度是反向傳播部分中的說明那樣是累積的。

四、訓練一個分類器

你已經學會如何去定義一個神經網絡,計算損失值和更新網絡的權重。

你現在可能在思考:數據哪裡來呢?

關於數據

通常,當你處理圖像,文本,音頻和視頻數據時,你可以使用標準的Python包來加載數據到一個numpy數組中.然後把這個數組轉換成torch.*Tensor。

對於圖像,有諸如Pillow,OpenCV包等非常實用

對於音頻,有諸如scipy和librosa包

對於文本,可以用原始Python和Cython來加載,或者使用NLTK和SpaCy 對於視覺,我們創建了一個torchvision包,包含常見數據集的數據加載,比如Imagenet,CIFAR10,MNIST等,和圖像轉換器,也就是torchvision.datasets和torch.utils.data.DataLoader。

這提供了巨大的便利,也避免了代碼的重複。

在這個教程中,我們使用CIFAR10數據集,它有如下10個類別:』airplane』,』automobile』,』bird』,』cat』,』deer』,』dog』,』frog』,』horse』,’ship』,’truck』。這個數據集中的圖像大小為3*32*32,即,3通道,32*32像素。

在這個教程中,我們使用CIFAR10數據集,它有如下10個類別:』airplane』,』automobile』,』bird』,』cat』,』deer』,』dog』,』frog』,』horse』,’ship』,’truck』.這個數據集中的圖像大小為3*32*32,即,3通道,32*32像素.

訓練一個圖像分類器

我們將按照下列順序進行:

1. 加載和歸一化 CIFAR0

使用 torchvision 加載 CIFAR10 是非常容易的。

import torch
import torchvision
import torchvision.transforms as transforms

torchvision 的輸出是 [0,1] 的 PILImage 圖像,我們把它轉換為歸一化範圍為 [-1, 1] 的張量。

transform = transforms.Compose(
   [transforms.ToTensor(),
    transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))])
trainset = torchvision.datasets.CIFAR10(root='./data', train=True,
                                       download=True, transform=transform)
trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,
                                         shuffle=True, num_workers=2)
testset = torchvision.datasets.CIFAR10(root='./data', train=False,
                                      download=True, transform=transform)
testloader = torch.utils.data.DataLoader(testset, batch_size=4,
                                        shuffle=False, num_workers=2)
classes = ('plane', 'car', 'bird', 'cat',
          'deer', 'dog', 'frog', 'horse', 'ship', 'truck')

torchvision的輸出是[0,1]的PILImage圖像,我們把它轉換為歸一化範圍為[-1, 1]的張量.

輸出:

Files already downloaded and verified
Files already downloaded and verified

我們展示一些有趣的訓練圖像。

import matplotlib.pyplot as plt
import numpy as np

def imshow(img):
   img = img / 2 + 0.5    
   npimg = img.numpy()
   plt.imshow(np.transpose(npimg, (1, 2, 0)))
   plt.show()

dataiter = iter(trainloader)
images, labels = dataiter.next()


imshow(torchvision.utils.make_grid(images))

print(' '.join('%5s' % classes[labels[j]] for j in range(4)))

輸出:

2. 定義一個卷積神經網絡

從之前的神經網絡一節複製神經網絡代碼,並修改為接受3通道圖像取代之前的接受單通道圖像。

import torch.nn as nn
import torch.nn.functional as F

class Net(nn.Module):
   def __init__(self):
       super(Net, self).__init__()
       self.conv1 = nn.Conv2d(3, 6, 5)
       self.pool = nn.MaxPool2d(2, 2)
       self.conv2 = nn.Conv2d(6, 16, 5)
       self.fc1 = nn.Linear(16 * 5 * 5, 120)
       self.fc2 = nn.Linear(120, 84)
       self.fc3 = nn.Linear(84, 10)

   def forward(self, x):
       x = self.pool(F.relu(self.conv1(x)))
       x = self.pool(F.relu(self.conv2(x)))
       x = x.view(-1, 16 * 5 * 5)
       x = F.relu(self.fc1(x))
       x = F.relu(self.fc2(x))
       x = self.fc3(x)
       return x

net = Net()

3. 定義損失函數和優化器

我們使用交叉熵作為損失函數,使用帶動量的隨機梯度下降。

import torch.optim as optim
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

4. 訓練網絡

這是開始有趣的時刻,我們只需在數據迭代器上循環,把數據輸入給網絡,並優化。

for epoch in range(2):  

   running_loss = 0.0
   for i, data in enumerate(trainloader, 0):
       
       inputs, labels = data
       
       optimizer.zero_grad()
       
       outputs = net(inputs)
       loss = criterion(outputs, labels)
       loss.backward()
       optimizer.step()
       
       running_loss += loss.item()
       if i % 2000 == 1999:    
           print('[%d, %5d] loss: %.3f' %
                 (epoch + 1, i + 1, running_loss / 2000))
           running_loss = 0.0

print('Finished Training')

輸出:

[1,  2000] loss: 2.286
[1,  4000] loss: 1.921
[1,  6000] loss: 1.709
[1,  8000] loss: 1.618
[1, 10000] loss: 1.548
[1, 12000] loss: 1.496
[2,  2000] loss: 1.435
[2,  4000] loss: 1.409
[2,  6000] loss: 1.373
[2,  8000] loss: 1.348
[2, 10000] loss: 1.326
[2, 12000] loss: 1.313
Finished Training


5. 在測試集上測試網絡

我們在整個訓練集上訓練了兩次網絡,但是我們還需要檢查網絡是否從數據集中學習到東西。

我們通過預測神經網絡輸出的類別標籤並根據實際情況進行檢測,如果預測正確,我們把該樣本添加到正確預測列表。

第一步,顯示測試集中的圖片一遍熟悉圖片內容。

dataiter = iter(testloader)
images, labels = dataiter.next()
# print images
imshow(torchvision.utils.make_grid(images))
print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))

輸出:

GroundTruth:    cat  ship  ship plane

現在我們來看看神經網絡認為以上圖片是什麼?

輸出是10個標籤的概率。一個類別的概率越大,神經網絡越認為他是這個類別。所以讓我們得到最高概率的標籤。

_, predicted = torch.max(outputs, 1)
print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]
                             for j in range(4)))

輸出:

Predicted:    cat  ship  ship plane

這結果看起來非常的好。

接下來讓我們看看網絡在整個測試集上的結果如何。

correct = 0
total = 0
with torch.no_grad():
   for data in testloader:
       images, labels = data
       outputs = net(images)
       _, predicted = torch.max(outputs.data, 1)
       total += labels.size(0)
       correct += (predicted == labels).sum().item()

print('Accuracy of the network on the 10000 test images: %d %%' % (
   100 * correct / total))

輸出:

Accuracy of the network on the 10000 test images: 54 %

結果看起來好於偶然,偶然的正確率為10%,似乎網絡學習到了一些東西。

那在什麼類上預測較好,什麼類預測結果不好呢?

class_correct = list(0. for i in range(10))
class_total = list(0. for i in range(10))
with torch.no_grad():
   for data in testloader:
       images, labels = data
       outputs = net(images)
       _, predicted = torch.max(outputs, 1)
       c = (predicted == labels).squeeze()
       for i in range(4):
           label = labels[i]
           class_correct[label] += c[i].item()
           class_total[label] += 1
for i in range(10):
   print('Accuracy of %5s : %2d %%' % (
       classes[i], 100 * class_correct[i] / class_total[i]))

輸出:

Accuracy of plane : 52 %
Accuracy of   car : 63 %
Accuracy of  bird : 43 %
Accuracy of   cat : 33 %
Accuracy of  deer : 36 %
Accuracy of   dog : 46 %
Accuracy of  frog : 68 %
Accuracy of horse : 62 %
Accuracy of  ship : 80 %
Accuracy of truck : 63 %


在GPU上訓練

你是如何把一個 Tensor 轉換 GPU 上,你就如何把一個神經網絡移動到 GPU 上訓練。這個操作會遞歸遍歷有所模塊,並將其參數和緩衝區轉換為 CUDA 張量。

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")


print(device)

輸出:

接下來假設我們有一臺CUDA的機器,然後這些方法將遞歸遍歷所有模塊並將其參數和緩衝區轉換為CUDA張量:

輸出:

Net(
 (conv1): Conv2d(3, 6, kernel_size=(5, 5), stride=(1, 1))
 (pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
 (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
 (fc1): Linear(in_features=400, out_features=120, bias=True)
 (fc2): Linear(in_features=120, out_features=84, bias=True)
 (fc3): Linear(in_features=84, out_features=10, bias=True)
)

請記住,你也必須在每一步中把你的輸入和目標值轉換到 GPU 上:

inputs, labels = inputs.to(device), labels.to(device)

為什麼我們沒注意到GPU的速度提升很多?那是因為網絡非常的小.

實踐:嘗試增加你的網絡的寬度(第一個nn.Conv2d的第2個參數, 第二個nn.Conv2d的第一個參數,他們需要是相同的數字),看看你得到了什麼樣的加速。

實現的目標:

深入了解了PyTorch的張量庫和神經網絡.

訓練了一個小網絡來分類圖片.

五、數據並行(選讀)

作者:Sung Kim和Jenny Kang

在這個教程裡,我們將學習如何使用數據並行(DataParallel)來使用多GPU。

PyTorch非常容易的就可以使用GPU,你可以用如下方式把一個模型放到GPU上:

device = torch.device("cuda:0")
model.to(device)

然後你可以複製所有的張量到GPU上:

mytensor = my_tensor.to(device)

請注意,只調用mytensor.gpu()並沒有複製張量到 GPU 上。你需要把它賦值給一個新的張量並在 GPU 上使用這個張量。

在多 GPU 上執行前向和反向傳播是自然而然的事。然而,PyTorch 默認將只是用一個GPU。你可以使用 DataParallel 讓模型並行運行來輕易的讓你的操作在多個 GPU 上運行。

model = nn.DataParallel(model)

這是這篇教程背後的核心,我們接下來將更詳細的介紹它。

導入和參數

導入PyTorch模塊和定義參數。

import torch
import torch.nn as nn
from torch.utils.data import Dataset, DataLoader

input_size = 5
output_size = 2
batch_size = 30
data_size = 100

設備:

device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")

虛擬數據集

製作一個虛擬(隨機)數據集,你只需實現__getitem__。

class RandomDataset(Dataset):
   def __init__(self, size, length):
       self.len = length
       self.data = torch.randn(length, size)
   def __getitem__(self, index):
       return self.data[index]
   def __len__(self):
       return self.len
rand_loader = DataLoader(dataset=RandomDataset(input_size, data_size),
                        batch_size=batch_size, shuffle=True)


簡單模型

作為演示,我們的模型只接受一個輸入,執行一個線性操作,然後得到結果。然而,你能在任何模型(CNN,RNN,Capsule Net等)上使用DataParallel。

我們在模型內部放置了一條列印語句來檢測輸入和輸出向量的大小。請注意批等級為0時列印的內容。

class Model(nn.Module):
   
   def __init__(self, input_size, output_size):
       super(Model, self).__init__()
       self.fc = nn.Linear(input_size, output_size)
   def forward(self, input):
       output = self.fc(input)
       print(" In Model: input size", input.size(),
             "output size", output.size())
       return output

創建一個模型和數據並行

這是本教程的核心部分。首先,我們需要創建一個模型實例和檢測我們是否有多個 GPU。如果我們有多個 GPU,我們使用 nn.DataParallel 來包裝我們的模型。然後通過 model.to(device) 把模型放到 GPU 上。

model = Model(input_size, output_size)
if torch.cuda.device_count() > 1:
 print("Let's use", torch.cuda.device_count(), "GPUs!")
 # dim = 0 [30, xxx] -> [10, ...], [10, ...], [10, ...] on 3 GPUs
 model = nn.DataParallel(model)
model.to(device)

輸出:

Model(
 (fc): Linear(in_features=5, out_features=2, bias=True)
)


運行模型

現在我們可以看輸入和輸出張量的大小。

for data in rand_loader:
   input = data.to(device)
   output = model(input)
   print("Outside: input size", input.size(),
         "output_size", output.size())

輸出:

In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
 In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
 In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
 In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])


結果

當我們對30個輸入和輸出進行批處理時,我們和期望的一樣得到30個輸入和30個輸出,但是如果你有多個 GPU,你得到如下的結果。

2個GPU

如果你有2個GPU,你將看到:

# on 2 GPUs
Let's use 2 GPUs!
   In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
   In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
   In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
   In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
   In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])
Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

3個GPU

如果你有3個GPU,你將看到:

Let's use 3 GPUs!
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
   In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])

8個GPU

Let's use 8 GPUs!
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
   In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])
Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])


總結

DataParallel 自動的劃分數據,並將作業發送到多個 GPU 上的多個模型。在每個模型完成作業後,DataParallel 收集並合併結果返回給你。

更多信息請看這裡:

http://pytorch.org/tutorials/beginner/former_torchies/parallelism_tutorial.html

相關焦點

  • 福利,PyTorch中文版官方教程來了
    機器之心整理參與:一鳴PyTorch 中文版官方教程來了。PyTorch 是近年來較為火爆的深度學習框架,然而其中文版官方教程久久不來。近日,一款完整的 PyTorch 中文版官方教程出爐,讀者朋友可以更好的學習了解 PyTorch 的相關細節了。教程作者來自 pytorchchina.com。
  • PyTorch 中文教程最新版
    本文檔的定位是 PyTorch 入門教程,主要針對想要學習 PyTorch 的學生群體或者深度學習愛好者。通過教程的學習,能夠實現零基礎想要了解和學習深度學習,降低自學的難度,快速學習 PyTorch。
  • PyTorch 深度學習官方入門中文教程 pdf 下載|PyTorchChina
    官方教程包含了 PyTorch 介紹,安裝教程;60分鐘快速入門教程,可以迅速從小白階段完成一個分類器模型;計算機視覺常用模型,方便基於自己的數據進行調整,不再需要從頭開始寫;自然語言處理模型,聊天機器人,文本生成等生動有趣的項目。總而言之:如果你想了解一下 PyTorch,可以看介紹部分。
  • 帶你少走彎路:強烈推薦的Pytorch快速入門資料和翻譯(可下載)
    ,受到很多好評,讀者強烈建議我出一個pytorch的快速入門路線,經過翻譯和搜索網上資源,我推薦3份入門資料,希望對大家有所幫助。>「PyTorch 深度學習:60分鐘快速入門」為PyTorch官網教程,網上已經有部分翻譯作品,隨著PyTorch1.0版本的公布,這個教程有較大的代碼改動,本人對教程進行重新翻譯,並測試運行了官方代碼,製作成Jupyter Notebook文件(中文注釋)在github予以公布。
  • PyTorch官方教程大更新:增加標籤索引,更加新手友好
    標籤索引:哪裡不會點哪裡如果你是PyTorch 24K純萌新,PyTorch官方一如既往地向你推薦他們最受歡迎的教程之一:60分鐘入門PyTorch(Start 60-min blitz)。並且這一次,有了更顯眼的入口,保證你絕對不會錯過。而這一次更新的重點,在於快速標籤索引。
  • PyTorch 官方教程中文版正式上線,激動人心的大好事!
    就在剛剛,激動人心的好消息:PyTorch 官方教程中文版正式發布啦!教程地址:http://pytorch123.com/本文檔主要使用於 PyTorch 入門學者,主要參考 PyTorch 官方文檔。
  • 60分鐘入門PyTorch,官方教程手把手教你訓練第一個深度學習模型(附連結)
    那麼,入門 PyTorch 深度學習需要多久?PyTorch 的一份官方教程表示:只需要 60 分鐘。教程連結:https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html這是一份非常簡潔的學習材料,目標是讓學習者了解 PyTorch 的 Tensor 庫和神經網絡,以及如何訓練一個可以進行圖像分類的神經網絡。
  • Pytorch 中文文檔和中文教程
    前言目前對於Pytorch官方文檔的翻譯,我覺得ApacheCN社區是做得最完善的!筆者獲得了ApacheCN社區的同意,放出該社區的翻譯文檔和官方教程,歡迎大家多去GitHub頁面 fork,star!
  • 庫、教程、論文實現,這是一份超全的PyTorch資源列表(Github 2.2K星)
    這些項目有很多是官方的實現,其中 FAIR 居多,一般會有系統的使用說明,包含安裝、加載、訓練、測試、演示等多方面的詳細解釋。例如哈佛大學的 OpenNMT 項目,它是非常流行的神經機器翻譯工具包。從導入自定義數據集、加載詞嵌入向量到完成神經機器翻譯模型的訓練,OpenNMT 能支持整個流程,並且官方也一直在更新。
  • 60分鐘入門PyTorch
    Github 地址:https://github.com/pytorch/pytorch官網:https://pytorch.org/論壇:https://discuss.pytorch.org/本文是翻譯自官方版教程--DEEP LEARNING WITH PYTORCH: A 60 MINUTE BLITZ,一份
  • 《PyTorch中文手冊》來了
    本書提供PyTorch快速入門指南並與最新版本保持一致,其中包含的 Pytorch 教程全部通過測試保證可以成功運行。PyTorch 是一個深度學習框架,旨在實現簡單靈活的實驗。這是一本開源的書籍,目標是幫助那些希望和使用 PyTorch 進行深度學習開發和研究的朋友快速入門,其中包含的 Pytorch 教程全部通過測試保證可以成功運行。
  • 《Google SEO 入門教程》更新中文翻譯版
    站長之家(chinaz.com)11月17日消息:本月初,谷歌更新了《Google SEO 入門教程》指南,新入門教程豐富了內容,有了更多的圖文例子,對詞彙定義也更加完善,而谷歌機器人也強勢回歸。
  • 新手必備 | 史上最全的PyTorch學習資源匯總
    (1)PyTorch英文版官方手冊:https://pytorch.org/tutorials/。對於英文比較好的同學,非常推薦該PyTorch官方文檔,一步步帶你從入門到精通。(2)PyTorch中文官方文檔:https://pytorch-cn.readthedocs.io/zh/latest/。閱讀上述英文文檔比較困難的同學也不要緊,我們為大家準備了比較官方的PyTorch中文文檔,文檔非常詳細的介紹了各個函數,可作為一份PyTorch的速查寶典。
  • Github 2.2K星的超全PyTorch資源列表
    這些項目有很多是官方的實現,其中 FAIR 居多,一般會有系統的使用說明,包含安裝、加載、訓練、測試、演示等多方面的詳細解釋。例如哈佛大學的 OpenNMT 項目,它是非常流行的神經機器翻譯工具包。從導入自定義數據集、加載詞嵌入向量到完成神經機器翻譯模型的訓練,OpenNMT 能支持整個流程,並且官方也一直在更新。
  • 【乾貨】史上最全的PyTorch學習資源匯總
    、手冊    · PyTorch英文版官方手冊(https://pytorch.org/tutorials/):對於英文比較好的同學,非常推薦該PyTorch官方文檔,一步步帶你從入門到精通。    · PyTorch中文官方文檔(https://pytorch-cn.readthedocs.io/zh/latest/):閱讀上述英文文檔比較困難的同學也不要緊,我們為大家準備了比較官方的PyTorch中文文檔,文檔非常詳細的介紹了各個函數,可作為一份PyTorch的速查寶典。
  • 深度學習大講堂之pytorch入門
    今天小天就帶大家從數據操作、自動求梯度和神經網絡設計的pytorch版本三個方面來入門pytorch。1.2.4 線性代數官方文檔:https://pytorch.org/docs/stable/torch.html
  • 資料|【乾貨】PyTorch學習資源匯總
    、手冊PyTorch英文版官方手冊:對於英文比較好的同學,非常推薦該PyTorch官方文檔,一步步帶你從入門到精通。PyTorch中文官方文檔:閱讀上述英文文檔比較困難的同學也不要緊,我們為大家準備了比較官方的PyTorch中文文檔,文檔非常詳細的介紹了各個函數,可作為一份PyTorch的速查寶典。比較偏算法實戰的PyTorch代碼教程:在github上有很高的star。建議大家在閱讀本文檔之前,先學習上述兩個PyTorch基礎教程。
  • TypeScript 中文入門教程
    , https://cn.bing.com ,上都找不到官方的翻譯,也沒有一個像樣的翻譯(搜索的時間是2015-12-02),可憐我們無法使用google,所以就想去自己翻譯官方的 TypeScript-Handbook。
  • 《PyTorch中文手冊》開源!附資源下載連結!
    今天我們強烈推薦一本中文 PyTorch 書籍 ——PyTorch 中文手冊 (pytorch handbook)。這是一本開源的書籍,目標是幫助那些希望和使用 PyTorch 進行深度學習開發和研究的朋友快速入門,其中包含的 Pytorch 教程全部通過測試保證可以成功運行。2.
  • LeCun力薦,PyTorch官方權威教程書來了,意外的通俗易懂
    遺憾的是,PyTorch 官方尚未提供一部權威的教程書籍,儘管官網和其他渠道的相關教程已經浩如煙海。最近,PyTroch 官方終於宣布,官方權威的 PyTorch 教程書終於問世了。消息一經宣布就獲得了社區的關注,而圖靈獎獲得者、Facebook 首席 AI 科學家 Yann LeCun 則直接轉推力薦。