實戰|手把手入門神經網絡,74行代碼實現手寫數字識別

2020-12-16 FlyAI

訪問flyai.club,一鍵創建你的人工智慧項目。

作者 | 龍心塵&&寒小陽——CSDN

原文 | https://blog.csdn.net/longxinchen_ml

/article/details/50281247

github | https://github.com/mnielsen

/neural-networks-and-deep-learning.git

一、 引言:不要站在岸上學遊泳

「機器學習」是一個很實踐的過程。就像剛開始學遊泳,你在只在岸上比劃一堆規定動作還不如先跳到水裡熟悉水性學習來得快。以我們學習「機器學習」的經驗來看,很多高大上的概念剛開始不懂也沒關係,先寫個東西來跑跑,有個感覺了之後再學習那些概念和理論就快多了。如果別人已經做好了輪子,直接拿過來用則更快。因此,本文直接用Michael Nielsen先生的代碼作為例子,給大家展現神經網絡分析的普遍過程:導入數據,訓練模型,優化模型,啟發式理解等。

本文假設大家已經了解python的基本語法,並在自己機器上運行過簡單python腳本。

二、 我們要解決的問題:手寫數字識別

手寫數字識別是機器學習領域中一個經典的問題,是一個看似對人類很簡單卻對程序十分複雜的問題。很多早期的驗證碼就是利用這個特點來區分人類和程序行為的,當然此處就不提12306近乎反人類的奇葩驗證碼了。

回到手寫數字識別,比如我們要識別出一個手寫的「9」,人類可能通過識別「上半部分一個圓圈,右下方引出一條豎線」就能進行判斷。但用程序表達就似乎很困難了,你需要考慮非常多的描述方式,考慮非常多的特殊情況,最終發現程序寫得非常複雜而且效果不好。

而用(機器學習)神經網絡的方法,則提供了另一個思路:獲取大量的手寫數字的圖像,並且已知它們表示的是哪個數字,以此為訓練樣本集合,自動生成一套模型(如神經網絡的對應程序),依靠它來識別新的手寫數字。

本文中採用的數據集就是著名的「MNIST數據集」。它的收集者之一是人工智慧領域著名的科學家——Yann LeCu。這個數據集有60000個訓練樣本數據集和10000個測試用例。運用本文展示的單隱層神經網絡,就可以達到96%的正確率。

三、 圖解:解決問題的思路

我們可以用下圖展示上面的粗略思路。

但是如何由「訓練集」來「生成模型」呢?

在這裡我們使用反覆推薦的逆推法——假設這個模型已經生成了,它應該滿足什麼樣的特性,再以此特性為條件反過來求出模型。

可以推想而知,被生成的模型應該對於訓練集的區分效果非常好,也就是相應的訓練誤差非常低。比如有一個未知其相應權重和偏移的神經網絡,而訓練神經網絡的過程就是逐步確定這些未知參數的過程,最終使得這些參數確定的模型在訓練集上的誤差達到最小值。我們將會設計一個數量指標衡量這個誤差,如果訓練誤差沒有達到最小,我們將繼續調整參數,直到這個指標達到最小。但這樣訓練出來的模型我們仍無法保證它面對新的數據仍會有這樣好的識別效果,就需要用測試集對模型進行考核,得出的測試結果作為對模型的評價。因此,上圖就可以細化成下圖:

但是,如果我們已經生成了多個模型,怎麼從中選出最好的模型?一個自然的思路就是通過比較不同模型在測試集上的誤差,挑選出誤差最小的模型。這個想法看似沒什麼問題,但是隨著你測試的模型增多,你會覺得用測試集篩選出來的模型也不那麼可信。比如我們增加一個神經網絡的隱藏層節點,就會產生新的對應權重,產生一個新的模型。但是我也不知道增加多少個節點是合適的,所以比較全面的想法就是嘗試測試不同的節點數x∈(1,2,3,4,…,100), 來觀察這些不同模型的測試誤差,並挑出誤差最小的模型。這時我們發現我們的模型其實多出來了一個參數x, 我們挑選模型的過程就是確定最優化的參數x 的過程。這個分析過程與上面訓練參數的思路如出一轍!只是這個過程是基於同一個測試集,而不訓練集。那麼,不同的神經網絡的層數是不是也是一個新的參數y∈(1,2,3,4,…,100), 也要經過這麼個過程來「訓練」?

我們會發現我們之前生成模型過程中很多不變的部分其實都是可以變換調節的,這些也是新的參數,比如訓練次數、梯度下降過程的步長、規範化參數、學習回合數、minibatch 值等等,我們把他們叫做超參數。超參數是影響所求參數最終取值的參數,是機器學習模型裡面的框架參數,可以理解成參數的參數,它們通常是手工設定,不斷試錯調整的,或者對一系列窮舉出來的參數組合一通進行枚舉(網格搜索)來確定。但無論如何,這也是基於同樣一個數據集反覆驗證優化的結果。在這個數據集上最後的結果並不一定在新的數據繼續有效。所以為了評估這個模型的識別效果,就需要用新的測試集對模型進行考核,得出的測試結果作為對模型的評價。這個新的測試集我們就直接叫「測試集」,之前那個用於篩選超參數的測試集,我們就叫做「交叉驗證集」。篩選模型的過程其實就是交叉驗證的過程。

所以,規範的方法的是將數據集拆分成三個集合:訓練集、交叉驗證集、測試集,然後依次訓練參數、超參數,最終得到最優的模型。

因此,上圖可以進一步細化成下圖:

或者下圖:

可見機器學習過程是一個反覆迭代不斷優化的過程。其中很大一部分工作是在調整參數和超參數。

四、 先跑跑再說:初步運行代碼

Michael Nielsen的代碼封裝得很好,只需以下5行命令就可以生成神經網絡並測試結果,並達到94.76%的正確率!

import mnist_loaderimport network# 將數據集拆分成三個集合:訓練集、交叉驗證集、測試集training_data, validation_data, test_data = mnist_loader.load_data_wrapper()# 生成神經網絡對象,神經網絡結構為三層,每層節點數依次為(784, 30, 10)net = network.Network([784, 30, 10])# 用(mini-batch)梯度下降法訓練神經網絡(權重與偏移),並生成測試結果。# 訓練回合數=30, 用於隨機梯度下降法的最小樣本數=10,學習率=3.0net.SGD(training_data, 30, 10, 3.0, test_data=test_data)

第一個命令的功能是:將數據集拆分成三個集合:訓練集、交叉驗證集、測試集。第二個命令的功能是:生成神經網絡對象,神經網絡結構為三層,每層節點數依次為(784, 30, 10)。第三個命令的功能是:用(mini-batch)梯度下降法訓練神經網絡(權重與偏移),並生成測試結果。該命令設定了三個超參數:訓練回合數=30, 用於隨機梯度下降法的最小樣本數(mini-batch-size)=10,步長=3.0。

本文並不打算詳細解釋隨機梯度下降法的細節,感興趣的同學請閱讀前文《深度學習與計算機視覺系列(4)_最優化與隨機梯度下降》

總共的輸出結果如下:

Epoch 0: 9045 / 10000Epoch 1: 9207 / 10000Epoch 2: 9273 / 10000Epoch 3: 9302 / 10000Epoch 4: 9320 / 10000Epoch 5: 9320 / 10000Epoch 6: 9366 / 10000Epoch 7: 9387 / 10000Epoch 8: 9427 / 10000Epoch 9: 9402 / 10000Epoch 10: 9400 / 10000Epoch 11: 9442 / 10000Epoch 12: 9448 / 10000Epoch 13: 9441 / 10000Epoch 14: 9443 / 10000Epoch 15: 9479 / 10000Epoch 16: 9459 / 10000Epoch 17: 9446 / 10000Epoch 18: 9467 / 10000Epoch 19: 9470 / 10000Epoch 20: 9459 / 10000Epoch 21: 9484 / 10000Epoch 22: 9479 / 10000Epoch 23: 9475 / 10000Epoch 24: 9482 / 10000Epoch 25: 9489 / 10000Epoch 26: 9489 / 10000Epoch 27: 9478 / 10000Epoch 28: 9480 / 10000Epoch 29: 9476 / 10000

五、 神經網絡如何識別手寫數字:啟發式理解

首先,我們解釋一下神經網絡每層的功能。

第一層是輸入層。因為mnist數據集中每一個手寫數字樣本是一個28*28像素的圖像,因此對於每一個樣本,其輸入的信息就是每一個像素對應的灰度,總共有28*28=784個像素,故這一層有784個節點。

第三層是輸出層。因為阿拉伯數字總共有10個,我們就要將樣本分成10個類別,因此輸出層我們採用10個節點。當樣本屬於某一類(某個數字)的時候,則該類(該數字)對應的節點為1,而剩下9個節點為0,如[0,0,0,1,0,0,0,0,0,0]。

因此,我們每一個樣本(手寫數字的圖像)可以用一個超長的784維的向量表示其特徵,而用一個10維向量表示該樣本所屬的類別(代表的真實數字),或者叫做標籤。

mnist的數據就是這樣表示的。所以,如果你想看訓練集中第n個樣本的784維特徵向量,直接看training_data[n][0]就可以找到,而要看其所屬的標籤,看training_data[n][1]就夠了。

那麼,第二層神經網絡所代表的意義怎麼理解?這其實是很難的。但是我們可以有一個啟發式地理解,比如用中間層的某一個節點表示圖像中的某一個小區域的特定圖像。這樣,我們可以假設中間層的頭4個節點依次用來識別圖像左上、右上、左下、右下4個區域是否存在這樣的特徵的。

如果這四個節點的值都很高,說明這四個區域同時滿足這些特徵。將以上的四個部分拼接起來,我們會發現,輸入樣本很可能就是一個手寫「0」!

因此,同一層的幾個神經元同時被激活了意味著輸入樣本很可能是某個數字。

當然,這只是對神經網絡作用機制的一個啟發式理解。真實的過程卻並不一定是這樣。但通過啟發式理解,我們可以對神經網絡作用機制有一個更加直觀的認識。

由此可見,神經網絡能夠識別手寫數字的關鍵是它有能夠對特定的圖像激發特定的節點。而神經網絡之所以能夠針對性地激發這些節點,關鍵是它具有能夠適應相關問題場景的權重和偏移。那這些權重和偏移如何訓練呢?

六、 神經網絡如何訓練:進一步閱讀代碼

上文已經圖解的方式介紹了機器學習解決問題的一般思路,但是具體到神經網絡將是如何訓練呢?

其實最快的方式是直接閱讀代碼。我們將代碼的結構用下圖展示出來,運用其內置函數名表示基本過程,發現與我們上文分析的思路一模一樣:

簡單解釋一下,在神經網絡模型中:

所需要求的關鍵參數就是:神經網絡的權重(self.weights)和偏移(self.biases)。超參數是:隱藏層的節點數=30,訓練回合數(epochs)=30, 用於隨機梯度下降法的最小樣本數(mini_batch_size)=10,步長(eta)=3.0。用隨機梯度下降法調整參數:

用反向傳播法求出隨機梯度下降法所需要的梯度(偏導數): backprop()用輸出向量減去標籤向量衡量訓練誤差:cost_derivative() = output_activations-y

全部代碼如下(去掉注釋之後,只有74行):

"""network.py~~~~~~~~~~A module to implement the stochastic gradient descent learningalgorithm for a feedforward neural network. Gradients are calculatedusing backpropagation. Note that I have focused on making the codesimple, easily readable, and easily modifiable. It is not optimized,and omits many desirable features."""#### Libraries# Standard libraryimportrandom# Third-party librariesimportnumpyasnpclass Network(object): def __init__(self, sizes): """The list ``sizes`` contains the number of neurons in therespective layers of the network. For example, if the listwas [2, 3, 1] then it would be a three-layer network, with the first layer containing 2 neurons, the second layer 3 neurons, and the third layer 1 neuron. The biases and weights for the network are initialized randomly, using a Gaussian distribution with mean 0, and variance 1. Note that the first layer is assumed to be an input layer, and by convention we won't set any biases for those neurons, since biases are only ever used in computing the outputs from later layers.""" self.num_layers = len(sizes) self.sizes = sizesself.biases = [np.random.randn(y,1)foryinsizes[1:]]self.weights = [np.random.randn(y, x) forx, yinzip(sizes[:-1], sizes[1:])] def feedforward(self, a): """Return the output of the network if ``a`` is input.""" forb, winzip(self.biases, self.weights):a = sigmoid(np.dot(w, a)+b) returna def SGD(self, training_data, epochs, mini_batch_size, eta, test_data=None): """Train the neural network using mini-batch stochastic gradient descent. The ``training_data`` is a list of tuples ``(x, y)`` representing the training inputs and the desired outputs. The other non-optional parameters are self-explanatory. If ``test_data`` is provided then the network will be evaluated against the test data after each epoch, and partial progress printed out. This is useful for tracking progress, but slows things down substantially.""" iftest_data: n_test = len(test_data) n = len(training_data) forjinxrange(epochs): random.shuffle(training_data) mini_batches = [ training_data[k:k+mini_batch_size] forkinxrange(0, n, mini_batch_size)] formini_batchinmini_batches: self.update_mini_batch(mini_batch, eta) iftest_data: print"Epoch {0}: {1} / {2}".format( j, self.evaluate(test_data), n_test) else: print"Epoch {0} complete".format(j) def update_mini_batch(self, mini_batch, eta): """Update the network's weights and biases by applying gradient descent using backpropagation to a single mini batch. The ``mini_batch`` is a list of tuples ``(x, y)``, and ``eta`` is the learning rate.""" nabla_b = [np.zeros(b.shape)forbinself.biases] nabla_w = [np.zeros(w.shape)forwinself.weights] forx, yinmini_batch: delta_nabla_b, delta_nabla_w = self.backprop(x, y) nabla_b = [nb+dnbfornb, dnbinzip(nabla_b, delta_nabla_b)] nabla_w = [nw+dnwfornw, dnwinzip(nabla_w, delta_nabla_w)] self.weights = [w-(eta/len(mini_batch))*nw forw, nwinzip(self.weights, nabla_w)] self.biases = [b-(eta/len(mini_batch))*nbforb, nbinzip(self.biases, nabla_b)] def backprop(self, x, y): """Return a tuple ``(nabla_b, nabla_w)`` representing the gradient for the cost function C_x. ``nabla_b`` and ``nabla_w`` are layer-by-layer lists of numpy arrays, similar to ``self.biases`` and ``self.weights``.""" nabla_b = [np.zeros(b.shape)forbinself.biases] nabla_w = [np.zeros(w.shape)forwinself.weights] # feedforward activation = x activations = [x] # list to store all the activations, layer by layer zs = [] # list to store all the z vectors, layer by layer forb, winzip(self.biases, self.weights): z = np.dot(w, activation)+b zs.append(z) activation = sigmoid(z) activations.append(activation) # backward pass delta = self.cost_derivative(activations[-1], y) * \ sigmoid_prime(zs[-1]) nabla_b[-1] = delta nabla_w[-1] = np.dot(delta, activations[-2].transpose()) # Note that the variable l in the loop below is used a little # differently to the notation in Chapter 2 of the book. Here, # l = 1 means the last layer of neurons, l = 2 is the # second-last layer, and so on. It's a renumbering of the # scheme in the book, used here to take advantage of the fact # that Python can use negative indices in lists. forlinxrange(2, self.num_layers): z = zs[-l] sp = sigmoid_prime(z) delta = np.dot(self.weights[-l+1].transpose(), delta) * sp nabla_b[-l] = delta nabla_w[-l] = np.dot(delta, activations[-l-1].transpose()) return(nabla_b, nabla_w) def evaluate(self, test_data): """Return the number of test inputs for which the neural network outputs the correct result. Note that the neural network's output is assumed to be the index of whichever neuron in the final layer has the highest activation.""" test_results = [(np.argmax(self.feedforward(x)), y) for(x, y)intest_data] returnsum(int(x == y)for(x, y)intest_results) def cost_derivative(self, output_activations, y): """Return the vector of partial derivatives \partial C_x \partial a for the output activations.""" return(output_activations-y)#### Miscellaneous functionsdef sigmoid(z): """The sigmoid function.""" return1.0/(1.0+np.exp(-z))def sigmoid_prime(z): """Derivative of the sigmoid function.""" returnsigmoid(z)*(1-sigmoid(z))

七、 神經網絡如何優化:訓練超參數與多種模型對比

由以上分析可知,神經網絡只需要74行代碼就可以完成編程,可見機器學習真正困難的地方並不在編程,而在你對數學過程本身,和對它與現實問題的對應關係有深入的理解。理解深入後,你才能寫出這樣的程序,並對其進行精微的調優。

我們初步的結果已經是94.76%的正確率了。但如果要將準確率提得更高怎麼辦?

這其實是一個開放的問題,有許多方法都可以嘗試。我們這裡僅僅是拋磚引玉。

首先,隱藏層只有30個節點。由我們之前對隱藏層的啟發式理解可以猜測,神經網絡的識別能力其實與隱藏層對一些細節的識別能力正相關。如果隱藏層的節點更多的話,其識別能力應該會更強的。那麼我們設定100個隱藏層節點試試?

net = network.Network([784,100,10])net.SGD(training_data,30,10,3.0, test_data=test_data)

發現結果如下:

Epoch0:6669/10000Epoch1:6755/10000Epoch2:6844/10000Epoch3:6833/10000Epoch4:6887/10000Epoch5:7744/10000Epoch6:7778/10000Epoch7:7876/10000Epoch8:8601/10000Epoch9:8643/10000Epoch10:8659/10000Epoch11:8665/10000Epoch12:8683/10000Epoch13:8700/10000Epoch14:8694/10000Epoch15:8699/10000Epoch16:8715/10000Epoch17:8770/10000Epoch18:9611/10000Epoch19:9632/10000Epoch20:9625/10000Epoch21:9632/10000Epoch22:9651/10000Epoch23:9655/10000Epoch24:9653/10000Epoch25:9658/10000Epoch26:9653/10000Epoch27:9664/10000Epoch28:9655/10000Epoch29:9672/10000

發現,我們只是改了一個超參數,準確率就從94.76%提升到96.72%!

這裡強調一下,更加規範的模型調優方法是將多個模型用交叉驗證集的結果來橫向比較,選出最優模型後再用一個新的測試集來最終評估該模型。本文為了與之前的結果比較,才採用了測試集而不是交叉驗證集。讀者千萬不要學博主這樣做哈,因為這很有可能會過擬合。這是工程實踐中數據挖掘人員經常犯的錯誤,我們之後會專門寫篇博文探討。

我們現在回來繼續調優我們的模型。那麼還有其他的隱藏節點數更合適嗎?這個我們也不知道。常見的方法是用幾何級數增長的數列(如:10,100,1000,……)去嘗試,然後不斷確定合適的區間,最終確定一個相對最優的值。

但是即便如此,我們也只嘗試了一個超參數,還有其他的超參數沒有調優呢。我們於是嘗試另一個超參數:步長。之前的步長是3.0,但是我們可能覺得學習速率太慢了。那麼嘗試一個更大的步長試試?比如100?

net = network.Network([784,30,10])net.SGD(training_data,30,10,100.0, test_data=test_data)

發現結果如下:

Epoch0:1002/10000Epoch1:1002/10000Epoch2:1002/10000Epoch3:1002/10000Epoch4:1002/10000Epoch5:1002/10000Epoch6:1002/10000Epoch7:1002/10000Epoch8:1002/10000Epoch9:1002/10000Epoch10:1002/10000Epoch11:1002/10000Epoch12:1001/10000Epoch13:1001/10000Epoch14:1001/10000Epoch15:1001/10000Epoch16:1001/10000Epoch17:1001/10000Epoch18:1001/10000Epoch19:1001/10000Epoch20:1000/10000Epoch21:1000/10000Epoch22:999/10000Epoch23:999/10000Epoch24:999/10000Epoch25:999/10000Epoch26:999/10000Epoch27:999/10000Epoch28:999/10000Epoch29:999/10000

發現準確率低得不忍直視,看來步長設得太長了。根本跑不到最低點。那麼我們設定一個小的步長試試?比如0.01。

net = network.Network([784,100,10])net.SGD(training_data,30,10,0.001, test_data=test_data)

結果如下:

Epoch0:790/10000Epoch1:846/10000Epoch2:854/10000Epoch3:904/10000Epoch4:944/10000Epoch5:975/10000Epoch6:975/10000Epoch7:975/10000Epoch8:975/10000Epoch9:974/10000Epoch10:974/10000Epoch11:974/10000Epoch12:974/10000Epoch13:974/10000Epoch14:974/10000Epoch15:974/10000Epoch16:974/10000Epoch17:974/10000Epoch18:974/10000Epoch19:976/10000Epoch20:979/10000Epoch21:981/10000Epoch22:1004/10000Epoch23:1157/10000Epoch24:1275/10000Epoch25:1323/10000Epoch26:1369/10000Epoch27:1403/10000Epoch28:1429/10000Epoch29:1451/10000

呃,發現準確率同樣低得不忍直視。但是有一個優點,準確率是穩步提升的。說明模型在大方向上應該還是對的。如果在調試模型的時候忽視了這個細節,你可能真的找不到合適的參數。

可見,我們第一次嘗試的神經網絡結構的超參數設定還是比較不錯的。但是真實的應用場景中,基本沒有這樣好的運氣,很可能剛開始測試出來的結果全是奇葩生物,長得違反常理,就像來自另一個次元似的。這是數據挖掘工程師常見的情況。此時最應該做的,就是遏制住心中數萬草泥馬的咆哮奔騰,靜靜地觀察測試結果的分布規律,嘗試找到些原因,再繼續將模型試著調優下去,與此同時,做好從一個坑跳入下一個坑的心理準備。當然,在機器學習工程師前赴後繼的填坑過程中,還是總結出了一些調優規律。我們會在接下來專門寫博文分析。

當然,以上的調優都沒有逃出神經網絡模型本身的範圍。但是可不可能其他的模型效果更好?比如傳說中的支持向量機?關於支持向量機的解讀已經超越了本文的篇幅,我們也考慮專門撰寫博文分析。但是在這裡我們只是引用一下在scikit-learn中提供好的接口,底層是用性能更好的C語言封裝的著名的LIBSVM。

相關代碼也在Michael Nielsen的文件中。直接引入,並運行一個方法即可。

importmnist_svmmnist_svm.svm_baseline()

我們看看結果:

Baseline classifier using an SVM.9435of10000values correct.

94.35%,好像比我們的神經網絡低一點啊。看來我們的神經網絡模型還是更優秀一些?

然而,實際情況並非如此。因為我們用的只是scikit-learn給支持向量機的設好的默認參數。支持向量機同樣有一大堆可調的超參數,以提升模型的效果。 跟據 Andreas Mueller的這篇博文,調整好超參數的支持向量機能夠達到98.5%的準確度!比我們剛才最好的神經網絡提高了1.8個百分點!

然而,故事並沒有結束。2013年,通過深度神經網絡,研究者可以達到99.79%的準確度!而且,他們並沒有運用很多高深的技術。很多技術在我們接下來的博文中都可以繼續介紹。

所以,從目前的準確度來看:

簡單的支持向量機<淺層神經網絡<調優的支持向量機<深度神經網絡

但還是要提醒一下,炫酷的算法固然重要,但是良好的數據集有時候比算法更重要。Michael Nielsen專門寫了一個公式來來表達他們的關係:

精緻的算法 ≤ 簡單的算法 + 良好的訓練數據 sophisticated algorithm ≤ simple learning algorithm + good training data.

所以為了調優模型,往往要溯源到數據本身,好的數據真的會有好的結果。

八、 小結與下期預告

以上我們只是粗略地展示了用神經網絡分析問題的基本過程,很多深入的內容並沒有展開。我們將會在接下來的博文中進行深入探討。

在該系列下一篇博文中,我們試圖直接探討深度神經網絡的表現能力,並提供一個啟發式理解。敬請關注。

End

相關焦點

  • 實戰|手把手入門神經網絡,74行代碼實現手寫數字識別
    二、 我們要解決的問題:手寫數字識別手寫數字識別是機器學習領域中一個經典的問題,是一個看似對人類很簡單卻對程序十分複雜的問題。回到手寫數字識別,比如我們要識別出一個手寫的「9」,人類可能通過識別「上半部分一個圓圈,右下方引出一條豎線」就能進行判斷。但用程序表達就似乎很困難了,你需要考慮非常多的描述方式,考慮非常多的特殊情況,最終發現程序寫得非常複雜而且效果不好。
  • 入門| Tensorflow實戰講解神經網絡搭建詳細過程
    【IT168 技術】之前我們講了神經網絡的起源、單層神經網絡、多層神經網絡的搭建過程、搭建時要注意到的具體問題、以及解決這些問題的具體方法。本文將通過一個經典的案例:MNIST手寫數字識別,以代碼的形式來為大家梳理一遍神經網絡的整個過程。
  • 不用寫代碼就能實現深度學習?手把手教你用英偉達 DIGITS 解決圖像...
    引言2006年,機器學習界泰鬥Hinton,在Science上發表了一篇使用深度神經網絡進行維數約簡的論文 ,自此,神經網絡再次走進人們的視野,進而引發了一場深度學習革命。英偉達想必大家都有所耳聞,但對英偉達開發的深度學習訓練系統(NVIDIA Deep Learning GPU Training System, DIGITS) 知之甚少,今天我們介紹如何使用DIGITS,實現基於深度神經網絡的圖像分類,包括數據集創建、模型創建、模型訓練、模型測試等等。
  • 逆勢而上的技術:圖神經網絡學習來了!
    圖神經網絡技術已被應用在百度內數十個實際項目中,大幅度提升公司效益。為了幫助廣大同學入門圖學習,百度飛槳 PGL 團隊開發了「圖神經網絡7日打卡營」。一起對抗疫情,讓同學們在實戰中解決問題!11月23日起,圖神經網絡世界冠軍團隊親自講解,結合多年經驗,7日全直播手把手教學,5大實戰,帶你實踐圖神經網絡,助力新冠疫情防控,攻克難題!
  • NVIDIA實戰營:手把手教你使用開源軟體DIGITS實現目標檢測|第二期...
    目標檢測,也叫目標提取,指的是基於目標幾何和統計特徵的圖像分割,將目標的分割和識別合二為一。尤其是在複雜場景中,需要對多個目標進行實時處理時,目標自動提取和識別就顯得特別重要。隨著人工智慧技術及計算力的提升,使得大規模數據並行運算成為了可能,而目標檢測在自動駕駛,智能安防,智能化交通等領域具有廣泛的應用價值。
  • 小白必看:神經網絡入門指南
    如果你在過去幾年裡打開過瀏覽器,你一共見過「神經網絡」這個詞(幾百次)了。在這篇短文中,我將給你一些關於神經網絡和其領域的一些知識。在接下來的5分鐘裡,你可能不會成為這個領域的世界專家,但你會經歷一個不平凡的入門階段。你也會學到一些時髦的詞彙來給餐桌上的家人留下深刻印象,尤其是當你真的照著文末的閱讀清單去讀書。
  • AI從入門到放棄:BP神經網絡算法推導及代碼實現筆記
    神經網絡的結構經過上面的介紹,單個神經元不足以讓人心動,唯有組成網絡。神經網絡是一種分層結構,一般由輸入曾,隱藏層,輸出層組成。所以神經網絡至少有3層,隱藏層多於1,總層數大於3的就是我們所說的深度學習了。輸入層:就是接收原始數據,然後往隱層送輸出層:神經網絡的決策輸出隱藏層:該層可以說是神經網絡的關鍵,相當於對數據做一次特徵提取。
  • 教程 | Tensorflow keras 極簡神經網絡構建與使用
    Tensorflow雖然是非常流行的深度學習框架,但是tensorflow開發需要了解計算圖與自動微分相關技術,對於完全沒有任何深度學習基礎的人不是一個很好的選擇,而keras完全是為零基礎的人準備,它簡化了tensorflow中計算圖、會話等基本概念,通過Sequential與功能API兩個組件實現網絡搭建,通過簡單的添加一些層就可以快速搭建神經網絡模型。
  • 基於tensorflow框架對手寫字體MNIST數據集的識別
    本文我們利用python語言,通過tensorflow框架對手寫字體MNIST資料庫進行識別。學習每一門語言都有一個「Hello World」程序,而對數字手寫體資料庫MNIST的識別就是深度學習的「Hello World」代碼。下面我們給出詳細的步驟。tensorflow概述tensorflow是用C++語言實現的一個深度學習模塊。
  • 1分鐘告訴你逆天的拍照識物、指紋識別、人臉識別的工作原理
    隨意手寫不同形態的2當你看到這張圖的時候,你都可以一眼認出。每一個數字都是大相逕庭的。來判斷一個圖片裡的數字,到底寫的是哪一個數字?這個原本輕鬆的工作一下子就 變了 難如登天。機器學習和神經網絡對當下和未來有多麼息息相關。我想大家都能體會。假設大家對神經網絡沒有任何的背景知識。我想給大家介紹一下神經網絡是什麼?
  • 【全代碼攻略】用百度大腦手寫文字識別助力企業降本增效
    以此類推,像請假條、辦公採購單,員工日工資明細等一些表格都可以通過百度手寫文字識別的方法來進行智能識別,極大降低文員的工作量,提高文員的工作效率。此外,在個人應用方面,可以將個人的會議紀要,演講稿等使用【手寫文字識別】功能,數位化內容存儲起來,可以結合【百度網盤】實現永久保存。
  • 基於FPGA的脫機手寫體漢字識別系統
    1.2系統的設計目標  本次設計要實現的目標就是建立一個圖像處理識別的平臺,使手寫的漢字以圖像文件格式(BMP)的形式輸入FPGA,提取出其特徵向量,通過分類識別,轉換為漢字文本。我們需要設計和實現脫機手寫漢字識別系統,主要實現樣本採集,預處理,特徵提取,分類與識別五個方面。
  • 神經網絡中的損失函數正則化和 Dropout 並手寫代碼實現
    在深度神經網絡中最常用的方法是Regularization和dropout。 在本文中,我們將一起理解這兩種方法並在python中實現它們Regularization 正則化正則化通過在損失函數的末尾添加額外的懲罰項來幫助防止模型過度擬合。
  • 哪一個才更適合編程實現深度神經網絡?
    編程實現神經網絡的最佳框架是什麼?TensorFlow還是PyTorch?我的回答是:別擔心,你從哪一個入門,你選擇哪一個並不重要,重要的是自己動手實踐!下面我們開始吧!為此,在本文中,我們將構建一個神經網絡模型,分別在PyTorch API與TensorFlow Keras API下進行手寫數字分類任務的實現。你可以在我的GitHub上找到對應的代碼實現,並且用colab google notebook來運行。1.
  • 驚為天人,NumPy手寫全部主流機器學習模型,代碼超3萬行
    機器之心報導參與:思源、一鳴、張倩用 NumPy 手寫所有主流 ML 模型,普林斯頓博士後 David Bourgin 最近開源了一個非常剽悍的項目。超過 3 萬行代碼、30 多個模型,這也許能打造「最強」的機器學習基石?
  • 幾行代碼就寫一個神經網絡的TensorFlow框架到底是啥?
    很多年前有一個模型叫「神經網絡」,是通過模擬人腦的學習過程構建的,科學家希望用它進行一些計算和識別,總的來說是一種看起來比較完美的算法,但卻由於當時計算資源很匱乏被打入「冷宮」。雖然很多科學家紛紛轉入了新的領域進行研究,但還是有幾個科學家堅守這個陣地。
  • Tensorflow 全網最全學習資料匯總之Tensorflow 的入門與安裝【2】
    最終以一個手寫數字識別的實例將這些點串起來進行了具體說明。2.《TensorFlow學習筆記1:入門》連結:http://www.jeyzhang.com/tensorflow-learning-notes.html本文與上一篇的行文思路基本一致,首先概括了TensorFlow的特性,然後介紹了graph、session、variable 等基本概念的含義,以具體代碼的形式針對每個概念給出了進一步的解釋。
  • 基於數字特徵的識別算法設計實現
    目前實現數字識別的方法大致分為以下4種: 1)使用軟體編程在傳統個人PC 上進行實現; 2)使用通用的 MCU 微型處理器(例如 51 單片機、 ARM 等)上進行實現; 3)使用通用 DSP 作為系統處理器進行實現; 4)使用專用 DSP 作為運算核心; 除以上四種方法以外, FPGA 以其獨有的硬體可並行運行的優勢
  • 最聰明玻璃誕生:以光散射為核心算法,無需耗電,可識別數字
    它能夠實時區分手寫數字,也就是說,一塊小小的玻璃實現了傳統 AI 的相機、傳感器和深度神經網絡的功能整合。當數字變換時,系統能及時作出反饋。該研究來自威斯康星大學麥迪遜分校電子及計算機工程系副教授喻宗夫(ZongFu YU)團隊,研究以封面形式發表在 7 月 8 日的光學期刊 Photonics Research 上。
  • 驚為天人,NumPy手寫全部主流機器學習模型,代碼超3萬行
    機器之心報導參與:思源、一鳴、張倩用 NumPy 手寫所有主流 ML 模型,普林斯頓博士後 David Bourgin 最近開源了一個非常剽悍的項目。超過 3 萬行代碼、30 多個模型,這也許能打造「最強」的機器學習基石?