CNN卷積神經網絡實例(基於pytorch)

2021-03-02 深度學習科研平臺
1.關於卷積神經網絡

卷積神經網絡(Convolutional Neural Network,CNN) 是一種具有局部連接、權重共享等特徵的深層前饋神經網絡。
我們先來看一下比較直觀的了解一下,對卷積神經網絡有個感性的認識:

我們首先先對我們輸入的圖片進行一次卷積,而後加入Relu激活函數,再做一次卷積,再加入Relu激活函數,而後對其處理結果進行匯聚(此處為Pool,也可以稱為池化),再後來就是不斷地重複前邊的步驟,最後會得到一個屬於某一類圖片的概率。這時概率最大的那個就是我們需要的判別結果了。

以訓練這個 小貓圖片為例,如果輸入圖像為100* 100 *3(即圖像長度為100,寬度為100,3個顏色通道:RGB),如果我們的輸入圖像為灰色的話,其顏色通道數為1,我們也稱為圖片的高度。

過濾器不斷的在圖像中收集小批小批的像素塊,收集完所有的信息後,輸出的值為一個比之前的高度更高,長和寬更小的圖片,這個圖片中包含了一些邊緣信息。
然後再以同樣的步驟再進行多次卷積,將圖片的長寬再次壓縮,高度再次增加,就會有了對輸入圖片更深的理解。

然後將壓縮,增高的信息嵌入普通的分類神經層上,我們就能對這個圖片進行分類了。

2.卷積神經網絡實例(手寫字母識別)

下面我將會以一個手寫字母識別的例子來入門CNN吧。MNIST 數據集來自美國國家標準與技術研究所。訓練集 (training set) 由來自 250 個不同人手寫的數字構成, 其中 50% 是高中學生, 50% 來自人口普查局 (the Census Bureau) 的工作人員. 測試集(test set) 也是同樣比例的手寫數字數據.其圖片形式如下所示:

2.1 代碼示例

# @Time : 2020/6/6 13:23
# @Author : kingback
# @File : cnn_test.py
# @Software: PyCharm

import torch
import torch.nn as nn
from torch.autograd import Variable
import torch.utils.data as Data
import torchvision
import matplotlib.pyplot as plt

#Hyper prameters
EPOCH=1
BATCH_SIZE=50
LR=0.001
DOWNLOAD_MNIST=False

train_data=torchvision.datasets.MNIST(
root='./mnist',
train=True,
transform=torchvision.transforms.ToTensor(), #將下載的文件轉換成pytorch認識的tensor類型,且將圖片的數值大小從(0-255)歸一化到(0-1)
download=DOWNLOAD_MNIST
)

#畫一個圖片顯示出來
# print(train_data.data.size())
# print(train_data.targets.size())
# plt.imshow(train_data.data[0].numpy(),cmap='gray')
# plt.title('%i'%train_data.targets[0])
# plt.show()

train_loader=Data.DataLoader(dataset=train_data, batch_size=BATCH_SIZE, shuffle=True)

test_data=torchvision.datasets.MNIST(
root='./mnist',
train=False,
)
with torch.no_grad():
test_x=Variable(torch.unsqueeze(test_data.data, dim=1)).type(torch.FloatTensor)[:2000]/255 #只取前兩千個數據吧,差不多已經夠用了,然後將其歸一化。
test_y=test_data.targets[:2000]

'''開始建立CNN網絡'''
class CNN(nn.Module):
def __init__(self):
super(CNN,self).__init__()
'''
一般來說,卷積網絡包括以下內容:
1.卷積層
2.神經網絡
3.池化層
'''
self.conv1=nn.Sequential(
nn.Conv2d( #--> (1,28,28)
in_channels=1, #傳入的圖片是幾層的,灰色為1層,RGB為三層
out_channels=16, #輸出的圖片是幾層
kernel_size=5, #代表掃描的區域點為5*5
stride=1, #就是每隔多少步跳一下
padding=2, #邊框補全,其計算公式=(kernel_size-1)/2=(5-1)/2=2
), # 2d代表二維卷積 --> (16,28,28)
nn.ReLU(), #非線性激活層
nn.MaxPool2d(kernel_size=2), #設定這裡的掃描區域為2*2,且取出該2*2中的最大值 --> (16,14,14)
)

self.conv2=nn.Sequential(
nn.Conv2d( # --> (16,14,14)
in_channels=16, #這裡的輸入是上層的輸出為16層
out_channels=32, #在這裡我們需要將其輸出為32層
kernel_size=5, #代表掃描的區域點為5*5
stride=1, #就是每隔多少步跳一下
padding=2, #邊框補全,其計算公式=(kernel_size-1)/2=(5-1)/2=
), # --> (32,14,14)
nn.ReLU(),
nn.MaxPool2d(kernel_size=2), #設定這裡的掃描區域為2*2,且取出該2*2中的最大值 --> (32,7,7),這裡是三維數據
)

self.out=nn.Linear(32*7*7,10) #注意一下這裡的數據是二維的數據

def forward(self,x):
x=self.conv1(x)
x=self.conv2(x) #(batch,32,7,7)
#然後接下來進行一下擴展展平的操作,將三維數據轉為二維的數據
x=x.view(x.size(0),-1) #(batch ,32 * 7 * 7)
output=self.out(x)
return output

cnn=CNN()
# print(cnn)

# 添加優化方法
optimizer=torch.optim.Adam(cnn.parameters(),lr=LR)
# 指定損失函數使用交叉信息熵
loss_fn=nn.CrossEntropyLoss()

'''
開始訓練我們的模型哦
'''
step=0
for epoch in range(EPOCH):
#加載訓練數據
for step,data in enumerate(train_loader):
x,y=data
#分別得到訓練數據的x和y的取值
b_x=Variable(x)
b_y=Variable(y)

output=cnn(b_x) #調用模型預測
loss=loss_fn(output,b_y)#計算損失值
optimizer.zero_grad() #每一次循環之前,將梯度清零
loss.backward() #反向傳播
optimizer.step() #梯度下降

#每執行50次,輸出一下當前epoch、loss、accuracy
if (step%50==0):
#計算一下模型預測正確率
test_output=cnn(test_x)
y_pred=torch.max(test_output,1)[1].data.squeeze()
accuracy=sum(y_pred==test_y).item()/test_y.size(0)

print('now epoch : ', epoch, ' | loss : %.4f ' % loss.item(), ' | accuracy : ' , accuracy)

'''
列印十個測試集的結果
'''
test_output=cnn(test_x[:10])
y_pred=torch.max(test_output,1)[1].data.squeeze() #選取最大可能的數值所在的位置
print(y_pred.tolist(),'predecton Result')
print(test_y[:10].tolist(),'Real Result')

2.2 運行過程及結果

2.3 測試結果

模型訓練完畢之後,我又隨機取了十個圖片帶入模型,然後將其結果與正確的結果比對,有如下結果:

相關焦點

  • 【乾貨】基於pytorch的CNN、LSTM神經網絡模型調參小結
    Demo Site:  https://github.com/bamtercelboo/cnn-lstm-bilstm-deepcnn-clstm-in-pytorchPytorch是一個較新的深度學習框架,是一個 Python 優先的深度學習框架,能夠在強大的 GPU 加速基礎上實現張量和動態神經網絡。
  • 9 大主題卷積神經網絡(CNN)的 PyTorch 實現
    輕量級網絡3. 目標檢測網絡4. 語義分割網絡5. 實例分割網絡6. 人臉檢測和識別網絡7. 典型網絡(Classical network)典型的卷積神經網絡包括:AlexNet、VGG、ResNet、InceptionV1、InceptionV2、InceptionV3、InceptionV4、Inception-ResNet。
  • 9大主題卷積神經網絡(CNN)的PyTorch實現
    上文聚焦於源碼和論文,對於各種卷積神經網絡模型的實現,本文將介紹它們的 PyTorch 實現,非常有用!語義分割網絡5. 實例分割網絡6. 人臉檢測和識別網絡7. 人體姿態識別網絡8. 注意力機制網絡9. 人像分割網絡下面具體來看一下:1.
  • pytorch學習筆記(2):在 MNIST 上實現一個 cnn
    我們會基於上一篇文章中的分類器,來討論實現一個 CNN,需要在之前的內容上做出哪些升級。在前面我要先說一下,這個系列是為了讓大家對 pytorch 從入門到熟悉,對於 deep learning 相關的知識我們不會花費過多的內容去介紹。如果大家對一些 DL 的基礎相關知識不懂的話,推薦幾個資源去學習:所以我們在筆記中對於一些相關的知識就不做深入介紹了。
  • 教程 | 基於Matlab的卷積神經網絡(CNN)
    原文連結:https://blog.csdn.net/walegahaha/article/details/51603040原文標題:卷積神經網絡
  • 輕鬆學pytorch-構建卷積神經網絡
    大家好,這個是我的pytorch學習筆記第三篇,主要是使用pytorch來構建一個簡單的卷積神經網絡,完成mnist手寫字符識別。涉及到主要知識點是如何使用torch.nn.Module這個基類來實現一個網絡結構定義。這個基類中最重要的是實現自己的forward方法,這個也是自定義網絡結構的實現方法。
  • 【專知-PyTorch手把手深度學習教程02】CNN快速理解與PyTorch實現: 圖文+代碼
    二、卷積神經網絡(Convolutional Neural Network)卷積神經網絡(Convolutional Neural Network)簡稱CNN。它是近些年逐步興起的一種人工神經網絡結構, 因為利用卷積神經網絡在圖像和語音識別方面能夠給出更優預測結果, 這一種技術也被廣泛的傳播和應用.
  • 雲計算必備知識-基於PyTorch機器學習構建生成對抗網絡
    生成對抗網絡被廣泛應用於廣告、遊戲、娛樂、媒體、製藥等行業,可以用來創造虛構的人物、場景,模擬人臉老化,圖像風格變換,以及產生化學分子式等等。下面兩張圖片,分別展示了圖片到圖片轉換的效果,以及基於語義布局合成景物的效果。
  • 用於圖像分割的卷積神經網絡:從R-CNN到Mask R-CNN
    選自Athelas作者:Dhruv Parthasarathy機器之心編譯參與:王宇欣、hustcxy、黃小天卷積神經網絡(CNN)的作用遠不止分類那麼簡單!在本文中,我們將看到卷積神經網絡(CNN)如何在圖像實例分割任務中提升其結果。
  • Matlab編程之——卷積神經網絡CNN代碼解析
    deepLearnToolbox-master是一個深度學習matlab包,裡面含有很多機器學習算法,如卷積神經網絡CNN,深度信念網絡DBN,
  • 【深度學習】textCNN論文與原理——短文本分類(基於pytorch)
    前言前文已經介紹了TextCNN的基本原理,如果還不熟悉的建議看看原理:【深度學習】textCNN論文與原理[1]及一個簡單的基於pytorch的圖像分類案例:【深度學習】卷積神經網絡-圖片分類案例(pytorch實現)[2]。
  • PyTorch實現TPU版本CNN模型
    在這裡,我們使用PyTorch定義了一個卷積神經網絡(CNN)模型,並在PyTorch/XLA環境中對該模型進行了訓練。XLA將CNN模型與分布式多處理環境中的Google Cloud TPU(張量處理單元)連接起來。在這個實現中,使用8個TPU核心來創建一個多處理環境。
  • Github 2.2K星的超全PyTorch資源列表
    項目地址:https://github.com/longcw/RoIAlign.pytorch10.pytorch-cnn-finetune:PyTorch 實現的微調預訓練卷積神經網絡。地址:https://github.com/MorvanZhou/PyTorch-Tutorial19.pytorch-intro:展示如何執行卷積神經網絡和循環神經網絡的一些腳本。
  • 卷積神經網絡(CNN)綜述
    卷積神經網絡概念2. 卷積神經網絡的特點   2.1 局部區域連接   2.2 權值共享   2.3 降採樣3. 卷積神經網絡的結構   3.1 卷積層   3.2 池化層4. 卷積神經網絡的研究進展1.
  • 輕鬆構建 PyTorch 生成對抗網絡(GAN)
    下面兩張圖片,分別展示了圖片到圖片轉換的效果,以及基於語義布局合成景物的效果。2016年,Alec Radford 等發表的論文 《深度卷積生成對抗網絡》(DCGAN)中,開創性地將卷積神經網絡應用到生成對抗網絡的模型算法設計當中,替代了全連結層,提高了圖片場景裡訓練的穩定性。
  • 【深度學習】卷積神經網絡-CNN簡單理論介紹
    當然,這裡默認讀者對神經網絡有一定的了解和認識,如果有疑問可留言,本文也不介紹太多關於數學的內容,以便於讀者理解,如有需要後期更新相關數學推導。1 卷積神經網絡簡介通常有:當然也還包括神經網絡常用的激活層,正則化層等。
  • 數據分析之道|CNN卷積神經網絡之文本分類
    卷積神經網絡(Convolutional Neural Networks, CNN)
  • 庫、教程、論文實現,這是一份超全的PyTorch資源列表(Github 2.2K星)
    項目地址:https://github.com/longcw/RoIAlign.pytorch10.pytorch-cnn-finetune:PyTorch 實現的微調預訓練卷積神經網絡。地址:https://github.com/MorvanZhou/PyTorch-Tutorial19.pytorch-intro:展示如何執行卷積神經網絡和循環神經網絡的一些腳本。
  • 深度學習100+經典模型TensorFlow與Pytorch代碼實現大集合
    GitHub | Nbviewer]   [PyTorch: GitHub | Nbviewer]Multilayer Perceptron with Backpropagation from Scratch   [TensorFlow 1: GitHub | Nbviewer]   [PyTorch: GitHub | Nbviewer]卷積神經網絡