機器學習 梯度到底是什麼

2021-01-09 布穀AI

梯度,到底是什麼?很容易混淆。

站在山底,哪個方向爬坡最快,這個容易想像,但問題是,如果所在的高度是我們優化的目標的話,這個爬坡的方向並不是梯度的方向,這個是我們的目標值(函數值)的變化趨勢。

我們先看一下定義:

即:梯度是一個向量,而向量就有方向,該方向是方向導數取得最大值的方向,那方向導數是什麼?

可見:

方向導數是一個數方向指的是函數定義域的內點變化的方向 綜上,自變量沿著該方向變化,使函數值變化最大,機器學習中,函數值就是我們的優化目標。當函數值是損失函數值的時候,我們期望的是最小值,這個時候取梯度的反方向,即梯度下降即可。這就是為什麼我們經常看到,理解梯度,先畫等高線示意圖的原因,投影到地面的等高線,其實就是自變量的定義域,也就是機器學習中的參數空間,我們需要知道,怎麼更新參數,才能讓損失函數值最快地減小。

好,那現在的問題是梯度到底是哪個方向?也就是,自變量到底沿哪個方向變化,函數值變化最快。注意看右邊的等高線,假設有一個點A,無限放大等高線:

如上圖,也就是說,垂直於切線即法向量的方向,就是變化最快的方向,也就是梯度的方向。法向量的定義如下:

總結一下,梯度是個向量,自變量沿著該向量的方向變化,函數值變化最快。在機器學習中,為使損失函數下降最快,我們需要讓模型參數沿著梯度的負方向更新,即梯度下降。

相關焦點

  • VGGNet vs ResNet:機器學習中的梯度消失問題
    這是人工智慧和機器學習領域的一個常見面試問題。雖然答案可以在網上找到,但一直還沒能找到一個簡明扼要的答案。我們將從什麼是VGGNet開始,然後看看VGGNet遇到了什麼問題,以及ResNet如何解決它。VGGNetVGG代表Visual Geometry Group(牛津大學的一組研究人員開發了這個架構)。VGG架構由塊組成,每個塊由2D卷積和最大池化層組成。
  • 機器學習 101:一文帶你讀懂梯度下降
    而想要建立一個機器學習模型,我們通常需要至少3個要素——問題T、性能度量P和經驗E,我們的模型將從這其中學習到一些模式知識。  為了解決問題T,我們將使用一個簡單的線性回歸模型。該模型將從經驗E中學習,經過訓練,模型就能將其知識推廣到未知數據中。  線性模型是一個很好的學習模型。
  • 文科生都能看懂的機器學習教程:梯度下降、線性回歸、邏輯回歸
    現在,機器學習這麼火,想入行的人越來越多,然而被搞糊塗的人也越來越多。因為大眾很難理解機器學習是幹嗎的?那些神秘拗口的概念,比如邏輯回歸、梯度下降到底是什麼?j  一個23歲的藥物學專業的學生說,當他去參加機器學習培訓課程的時候,感覺自己就家裡那位不懂現代科技的奶奶。
  • 機器學習:隨機梯度下降和批量梯度下降算法介紹
    機器學習:隨機梯度下降和批量梯度下降算法介紹 佚名 發表於 2017-11-28 04:00:28 隨機梯度下降(Stochastic gradient descent)
  • 【乾貨】機器學習最常用優化之一——梯度下降優化算法綜述
    原標題:【乾貨】機器學習最常用優化之一——梯度下降優化算法綜述 1新智元獲授權轉載 【新智元導讀】梯度下降算法是機器學習中使用非常廣泛的優化算法,也是眾多機器學習算法中最常用的優化方法。幾乎當前每一個先進的(state-of-the-art)機器學習庫或者深度學習庫都會包括梯度下降算法的不同變種實現。
  • 梯度向量的意義與運用
    梯度向量是數學或自然科學中常用的一個數學工具,它的推導和講解前面的文章已經提到過很多次了,本篇主要介紹下梯度向量的運用和主要意義向量微積分在向量演算中,一個主要的課題是引入向量和三維空間,這通常作為在笛卡爾坐標系中研究的二維空間的擴展。
  • 梯度下降背後的數學原理幾何?
    雷鋒網 AI 科技評論按:對於諸位「機器學習兒」而言,梯度下降這個概念一定不陌生,然而從直觀上來看,梯度下降的複雜性無疑也會讓人「敬而遠之」。本文作者 Suraj Bansal 通過對梯度下降背後的數學原理進行拆解,並配之以簡單的現實案例,以輕鬆而有趣的口吻帶大家深入了解梯度下降這一在機器學習領域至關重要的方法。
  • 觀點| 我們該如何學習機器學習中的數學
    在我們的代碼中,其將所有滿足條件 [x < 0] 的元素梯度 grad 都設置為零,也就是說上遊梯度只有在 x>0 的情況下才能繼續向前傳播。在數學上,這等價於 ReLU 激活函數梯度的分段線性表徵,它將所有小於 0 的值壓縮為 0,並乘上上遊梯度。如上所示,若對於微積分有一定的理解,那麼我們可以清晰地理解這兩行基本代碼。
  • 陳天奇做的XGBoost為什麼能橫掃機器學習競賽平臺?
    ,堪稱機器學習算法中的新女王!項目主頁:https://XGBoost.ai/XGBoost是什麼XGBoost全稱:eXtreme Gradient Boosting,是一種基於決策樹的集成機器學習算法,使用梯度上升框架,適用於分類和回歸問題。
  • 劉鐵巖談機器學習:隨波逐流的太多,我們需要反思
    最近一段時間,學者們在這個方向做了很多有益的嘗試,比如討論隨機梯度下降法在什麼條件下可以找到全局最優解,或者它所得到的局部最優解跟全局最優解之間存在何種關係。再比如,最近很多學者開始用自動化的方式幫助機器學習尤其是深度學習來調節超參數、搜尋神經網絡的結構,相關領域稱為元學習。其基本思想是用一個機器學習算法去自動地指導另一個機器學習算法的訓練過程。
  • 機器學習之多元線性回歸模型梯度下降公式與代碼實現(篇二)
    機器學習之線性回歸模型詳細手推公式與代碼實現(篇一)今天這一篇來介紹多元線性回歸模型多元線性回歸模型介紹在回歸分析中,如果有兩個或兩個以上的自變量,就稱為多元回歸那麼上述方法存在什麼問題呢?考慮對於任何採樣點,都有可能存在觀測誤差 = + + 6.一旦引入觀測誤差後,即使簡單如線性模型,如果僅採樣兩個數據點,可能會帶來較大估值偏差。如果基於藍色矩形塊的兩個數據點進行估計,則計算出的藍色虛線與真實橙色直線存在較大偏差。
  • 數學中的梯度、散度與旋度到底是幹嘛用的?
    首先,我們看看那些常見的方程都有什麼特點?流體力學的連續性方程和Navier-Stokes方程仔細觀察後可以發現,符號「▽」的出鏡率簡直出奇得高!那麼,這個符號「▽」到底代表什麼意思呢?準確來說,符號「▽」的意義有三種,這完全取決於它後面跟著的東西是什麼。不過別緊張,我們耐心看一下 ,這三種情況分別是什麼。梯度的本意是一個矢量,表示某一函數在該點處的方向導數沿著該方向取得最大值,即函數在該點處沿著梯度的方向變化最快,變化率最大(為該梯度的模)。
  • 蒙特卡洛梯度估計方法(MCGE)簡述
    動機機器學習中最常見的優化算法是基於梯度的優化方法,當目標函數是一個類似如下結構的隨機函數 F(θ) 時:優化該類目標函數,最核心的計算問題是對隨機函數 F(θ) 的梯度進行估計,即:不同於確定性優化,隨機優化算法包含兩個部分的隨機性:應用基於蒙特卡洛採樣的梯度估計方法(MCGE)在很多研究領域都起到了核心作用,本節總結一下其在機器學習領域中的典型應用。
  • 拒絕Bug的機器學習:史丹福大學開源隨機計算圖 Certigrad
    同時期望對參數損失函數梯度進行採樣。    調試  首先,新方法提供了一種系統性的調試機器學習系統的方法。  執行錯誤(Implementationerrors)在機器學習系統中非常難於探測——更不用說本地化和問題解決——而且還有其他潛在的不良影響。
  • 詳解梯度下降算法 正確訓練模型利刃!
    【IT168 資訊】梯度下降是目前最流行的優化策略,目前用於機器學習和深度學習。它在訓練模型時使用,可以與每種算法結合使用,易於理解和實施。因此,每個使用機器學習的人都應該理解它的概念。閱讀完這篇文章後,你將了解梯度下降是如何工作的,它今天使用了哪些類型,以及它們的優點和權衡。
  • 一分鐘看完梯度下降法
    今天,我想講一下梯度下降法(Gradient Descent),基於線性回歸損失函數的梯度下降法。
  • 資料| 機器學習中的數學
    以下書籍介紹來自豆瓣內容簡介 · · · · · ·《機器學習中的數學》是一本系統介紹機器學習中涉及的數學知識的入門圖書,本書從機器學習中的數學入門開始,以展示數學的友好性為原則,講述了機器學習中的一些常見的數學知識
  • 機器學習是鍊金術?
    在技術上,取得了很大的進步,街上跑著自動駕駛汽車,人工智慧可以幹很多事情……基於機器學習技術,能產生出幾十億美元的公司。後來,火藥味逐漸濃烈起來,阿里朝著整個深度學習界開了一槍,他說:但某些方面更糟糕了。
  • Batch、Mini-batch和隨機梯度下降的區別和Python示例
    在研究機器學習和深度學習時出現的主要問題之一是梯度下降的幾種類型。在梯度下降的三種類型(Batch梯度下降、Mini-batch梯度下降和隨機梯度下降)中,我應該使用哪一種呢?在這篇文章中,我們將了解這些概念之間的區別,並從梯度下降的代碼實現來闡明這些方法。
  • 盤點| 機器學習入門算法:從線性模型到神經網絡
    幾十年來,機器學習實際上已經變成了一門獨立的領域。由於現代計算能力的進步,我們最近才能夠真正大規模地利用機器學習。而實際上機器學習是如何工作的呢?答案很簡單:算法(algorithm)。 機器學習是人工智慧(artificial intelligence)的一種,其本質上講,就是計算機可以在無需編程的情況下自己學習概念(concept)。