神經網絡中容易被忽視的基礎知識

2020-11-24 雷鋒網

雷鋒網(公眾號:雷鋒網)按:本文原作者Evan,本文原載於作者的知乎專欄記學習--機器學習。雷鋒網已獲得轉載授權。

以下大多筆記主要來自 cs231n 和其他深度學習資料和一些我自己的補充,首先 CS231n 一個非常不錯的 deep learning 課,值得一看,奉上連結,然後,cs231n 本身是有筆記的-連結,最後,知乎上的一些大神對這個筆記進行了翻譯-連結。在這裡,我主要是將一些重要的筆記,我認為是比較容易被我們忽視的,加上查閱其他博文,做一個筆記和心得總結!

這次主要講解的內容有:

神經元

下面圖表的左邊展示了一個生物學的神經元,右邊展示了一個常用的數學模型。乍一看還是有點相似的,事實上也是,人工神經網絡中的神經元也有受到生物神經元的啟發。總結要點:

在生物的神經元(也就是左圖)中,樹突將信號傳遞到細胞體,信號在細胞體中相加。如果最終之和高於某個閾值,那麼神經元將會激活,向其軸突輸出一個峰值信號,注意這裡輸出是一個脈衝信號!

在數學計算模型(也就是右圖)中,首先將輸入進行加權求和加上偏執,得到待激勵值,然後將該值作為輸入,輸入到激活函數中,最後輸出的是一個激勵後的值,這裡的激活函數可以看成對生物中神經元的激活率建模。由於歷史原因,激活函數常常選擇使用 sigmoid 函數 σ當然還有很多其他激活函數,下面再仔細聊!

需要注意:1. 一個神經元可以看成包含兩個部分,一個是對輸入的加權求和加上偏置,一個是激活函數對求和後的激活或者抑制。2. 注意生物中的神經元要複雜的多,其中一個是生物中的輸出是一個脈衝,而現在大多數的數學模型神經輸出的就是一個值,當然現在也有一些脈衝人工神經網絡,可以自行了解!

作為線性分類器的單個神經元

  • 比如基礎的邏輯回歸,結合上面的神經元知識,可以發現,邏輯回歸就是激活函數是sigmoid 的單層簡單神經網絡。也就是說,只要在神經元的輸出端有一個合適的損失函數,就能讓單個神經元變成一個線性分類器。因此說,那些線性的分類器本身就是一個單層神經網絡。

  • 但注意,對於非線性的模型:SVM 和神經網絡走了兩條不同的道路:神經網絡通過多個隱層的方法來實現非線性的函數,有一些理論支持(比如說帶隱層的神經網絡可以模擬任何函數),但是目前而言還不是非常完備;SVM 則採用了 kernel trick 的方法,這個在理論上面比較完備(RKHS,簡單地說就是一個泛函的線性空間)。兩者各有好壞,神經網絡最近的好處是網絡設計可以很靈活,有很多的 trick&tip,很多理論都不清不楚的;SVM 的理論的確漂亮,但是 kernel 設計不是那麼容易,所以最近也就沒有那麼熱了。

為什麼要是深度神經網而不是」 肥胖 「(寬度)神經網絡?

「肥胖」 網絡的隱藏層數較少,如上左圖。雖然有研究表明,淺而肥的網絡也可以擬合任何的函數,但它需要非常的 「肥胖」,可能一層就要成千上萬個神經元。而這直接導致的後果是參數的數量增加到很多很多。

也有實驗表明,也就是上圖的實驗,我們可以清楚的看出,當準確率差不多的時候,參數的數量卻相差數倍。這也說明我們一般用深層的神經網絡而不是淺層 「肥胖」 的網絡。

注意:說神經網絡多少層數的時候一般不包括輸入層。 在神經網絡中的激活主要講的是梯度的更新的激活。

為什麼在人工神經網絡中的神經元需要激活函數?


上圖可看做普通的線性分類器,也就是線性回歸方程。這個比較基礎,效果如右圖。當然有時候我們發現這樣的線性分類器不符合我們要求時,我們很自然的想到那我們就加多一層,這樣可以擬合更加複雜的函數,如下圖 a:

圖a

圖b

但同時當我們動筆算下, 就會發現, 這樣一個神經網絡組合起來, 輸出的時候無論如何都還是一個線性方程。如上圖 b 右邊,就只能這樣分類。(那也太蠢了吧)。下圖表示一層加如激活函數的情況!


一層很多時候是遠遠不夠的,前面講過,簡單的線性分類器就可以看成是一層的神經網絡,比如上圖,激活函數是 signmoid,那就可以看成是二分類的邏輯回歸!

下面擴展到多層,如下圖 1,2:

圖 1

圖 2

圖 1 是一個簡單的 MLP(全連結神經網絡),圖 2 的右邊課簡單表示左圖的可視化,那麼對比之前的無激活函數的圖,很明顯是更加的非線性,擬合能力也會更強,同時可以想到,當層數更多,其能力也會越來越強!

簡單來說:就是使得神經網絡具有的擬合非線性函數的能力,使得其具有強大的表達能力!

簡單擴展,神經網絡的萬能近似定理: 一個前饋神經網絡如果具有線性層和至少一層具有 "擠壓" 性質的激活函數(如 signmoid 等),給定網絡足夠數量的隱藏單元,它可以以任意精度來近似任何從一個有限維空間到另一個有限維空間的 borel 可測函數。

要相符上面的定理,也就是想擬合任意函數,一個必須點是 「要有帶有 「擠壓」 性質的激活函數」。這裡的 「擠壓」 性質是因為早期對神經網絡的研究用的是 sigmoid 類函數,所以對其數學性質的研究也主要基於這一類性質:將輸入數值範圍擠壓到一定的輸出數值範圍。(後來發現,其他性質的激活函數也可以使得網絡具有普適近似器的性質,如 ReLU 。

一些主要的激活函數

sigmoid

優點:有較好的解釋性

缺點:1.Sigmoid 函數飽和使梯度消失。sigmoid 神經元有一個不好的特性,就是當神經元的激活在接近 0 或 1 處時會飽和:在這些區域,梯度幾乎為 0。2. 輸出不是零中心的,這一情況將影響梯度下降的運作,因為如果輸入神經元的數據總是正數,那麼關於 w 的梯度在反向傳播的過程中,將會要麼全部是正數,要麼全部是負數,這樣梯度下降權重更新時出現 z 字型的下降。這樣收斂會變得異常的慢。(這也是為什麼要一直保持為數據的 0 中心化)—–但這個問題比較小。3.exp()在深度神經網絡時候相比其他運算就比較慢。

Tanh 非線性函數

優點:它的輸出是零中心的。因此,在實際操作中,tanh 非線性函數比 sigmoid 非線性函數更受歡迎。

缺點: 和 Sigmoid 函數一樣,飽和使梯度消失。計算慢。

ReLU

優點:1.ReLU 對於隨機梯度下降的收斂有巨大的加速作用( Krizhevsky 等的論文 alexnet 指出有 6 倍之多)。據稱這是由它的線性,非飽和的公式導致的;2. 注意:現在大部分的 DNN 用的激活函數就是 ReLu

缺點:當 x 是小於 0 的時候,那麼從此所以流過這個神經元的梯度將都變成 0;這個時候這個 ReLU 單元在訓練中將死亡(也就是參數無法更新),這也導致了數據多樣化的丟失(因為數據一旦使得梯度為 0,也就說明這些數據已不起作用)。

Leaky ReLU

優點:1. 非飽和的公式; 2.Leaky ReLU 是為解決 「ReLU 死亡」 問題的嘗試

缺點:1. 有些研究者的論文指出這個激活函數表現很不錯,但是其效果並不是很穩定

Kaiming He 等人在 2015 年發布的論文 Delving Deep into Rectifiers 中介紹了一種新方法 PReLU,把負區間上的斜率當做每個神經元中的一個參數。然而該激活函數在在不同任務中均有益處的一致性並沒有特別清晰。

ELU

指數線性單元(Exponential Linear Units, ELU) ELU 的公式為:


ELU.png 函數曲線如下:

Maxout

優點: 擁有 ReLU 單元的所有優點(線性操作和不飽和),而沒有它的缺點(死亡的 ReLU 單元)。

缺點 :每個神經元的參數數量增加了一倍,這就導致整體參數的數量激增。難訓練, 容易過擬合。

怎麼用激活函數

「那麼該用那種呢?」 用 ReLU 非線性函數。注意設置好學習率,(如果學習率設置得太高,可能會發現網絡中 40% 的神經元都會死掉(在整個訓練集中這些神經元都不會被激活)。通過合理設置學習率,這種情況的發生概率會降低。),解決方案:或許可以監控你的網絡中死亡的神經元佔的比例。如果單元死亡問題困擾你,就試試 Leaky ReLU 或者 Maxout,不要再用 sigmoid 了。也可以試試 tanh,但是其效果應該不如 ReLU 或者 Maxout。

神經網絡中的偏置有什麼意義?

最基礎的神經元感知器如下:

這個例子中輸入為三個變量, 輸出為 0 或 1. 當三個變量的加權和大於某個閾值的時候, 輸出為 1, 反之為 0。

注意這裡的閾值, 它度量了神經元產生正 (負) 激勵的難易程度。也就是說,在上文的模型中,閾值越大, 產生正激勵的難度越大。

而為了更好的計算和表達,我們可以把其中的 b 和 移到同一邊,同時給他取了一個不錯的名字,叫做偏置 Bias,而 w 叫做權重 weight!

也就是說: 偏置的大小度量了神經元產生正 (負) 激勵的難易程度

這是最簡單的感知器神經元. 而現代神經網絡中常用的 Sigmoid, tanh 或是 ReLU 都是在的基礎上加上一個激活函數, Bias 也就是 b 的意義是一樣的。

同時對於偏置需要注意的點是:偏置是不需要正則化的,並且正則化偏置的話會導致欠擬合。我們從意義上去理解話,若對偏置正則化(懲罰),會導致激活變得更加簡單,偏差就會上升,學習的能力就會下降!

初始化神經網絡的參數可以全為 0 嗎,其他普通線性分類器呢?

在講初始化前,先簡單複習下反向傳播算法可表示為以下幾個步驟:

1. 進行前饋傳導計算,利用前向傳導公式,得到,直到輸出層的激活值。

對輸出層(第 nl 層),計算:

3. 對於的各層,計算:

4. 計算最終需要的偏導數值:

5. 對 f 舉個例子,若表示 sigmoid 函數,就可以計算得到

從上往下,其中y 代表正確 label,代表最後一層的輸出,  表達的是最後一層的加權求和值, f 代表的是激活函數,δ代表的是要反向傳播回去的誤差,代表第 l 層,w,b 表示權重和偏置。

我們前面說過:線性分類器邏輯回歸模型可以算作為一個簡單的單層神經網絡。為了更好的說明問題,假設一個場景,在十類分類的數字手寫識別中,我們將本來二分類的邏輯回歸推到多分類的softmax,也就是說,神經元的激活函數是 softmax。也就是下圖,然後分析:

  • 輸入層(不算是一層):28×28=784 個輸入單元。也就是 n=784

  • 輸出層:10 個輸出單元, 激活函數為softmax,也就是 m=10

  • 它由兩組參數組成: W和 b, 前者是一個 10×784 維的權值矩陣, 後者是長度為 10 的 bias 列向量. 現在我們假設把它們全部初始化為 0:

  • 第一次正向計算過程中, 簡單算出,輸出層的所有輸出為 0.5。

  • 反向時, 根據前面複習的反向傳播算法,首先計算δ,假如 , 即輸入x對應的數字為i, 那麼除了第i個神經元的δ是不同的,其他的值都是一樣, 又於計算權重 w 梯度的公式得知,注意此時的  就是輸入值 x,又由於輸入向量x的元素之間的不同, 所以即使δ是一樣的,但最終得到的 10 個梯度值有很大概率是不同且非 0 的, 所以第一次 BP 過程可以取得成效並將一些w和所有的b變成非 0 值。

  • 由於 w 值已經變得不相同了,這個時候前向傳播和後向傳播也就會正常的進行, 後面的訓練顯然也可以順利進行。

得出結論,沒有隱層時, 可以將所有的參數初始化為 0。

如果有隱層呢? 假如還是用 sigmoid 激活函數呢。來個更簡單 MLP,

  • 第一次正向計算過程中, 簡單算出,輸出層的所有輸出為神經元 4,5,6 輸出的值(初始化 w,b 為 0, 激活函數是 sigmoid)都是一樣的,都是 0.5

  • 第一個反向傳播過程,由權重的更新公式,算出即 (神經元 6 和 4,5 之間的權重) 是一樣的,同樣算出都一樣,但非 0, 由 sgd 算法賦值。

  • 然後第二次正向時,算出神經元 4,5 的輸出一樣(因為 4,5 都是接受 1,2,3 神經元的輸入,且權重相同),但和神經元 6 的輸出不一樣。

  • 然後第二次反向時,根據公式,得出神經元 4,5 永遠一樣。原因在於計算用的是一樣的輸出,這個也可以從公式得出!

  • 最後結論,一直循環,發現學習得到的模型中, 所有的隱單元都是相同的(在這裡就是神經元 4,5 永遠一樣). 學習失敗。

對於隱層使用了其他函數比如 ReLU: f(net)=max(0,net)其結果也是一樣的: 除了輸入層的輸出值為x本身, 不為 0, 其餘的所有層的輸出都為 0. BP 時所有梯度也都為 0, 包括輸出層. 這意味著所有的非輸入神經元都是無意義的. 學習失敗. 對於卷積神經網絡,循環神經網絡也是一樣的,故一般會用其他初始化方式。

最後最後的結論是, 一般只在訓練 SLP / 邏輯回歸模型時才使用 0 初始化所有參數., 更實用的結論是, 深度模型都不會使用 0 初始化所有參數.

交叉熵存在的意義和與平方差相比有什麼好處?

一個非常常見的,非常漂亮的成本函數是 「交叉熵」(cross-entropy)。交叉熵產生於資訊理論裡面的信息壓縮編碼技術,但是它後來演變成為從博弈論到機器學習等其他領域裡的重要技術手段。它的定義如下:

其中,y 是我們預測的概率分布, y』 是實際的分布

1. 交叉熵是正的,2. 當所有輸入 x 的輸出都能接近期望輸出 y 的話,交叉熵的值將會接近 0。這兩個特徵在直覺上我們都會覺得它適合做代價函數。事實上,我們的均方代價函數也同時滿足這兩個特徵。然而....

為什麼在神經網絡中用交叉熵代替二次代價函數?

還是從反向傳播,參數更新的角度理解更新參數的公式如下:


a 是 神經元的輸出,其中 a = σ(z), z = wx + b,可知,偏導數受激活函數的導數影響,假設這裡是傳統的 sigmoid 激活函數(在之前很多時候都是)。那麼 sigmoid 的導數在輸出接近 0 和 1 的時候 是非常小的,這會導致一些實例在剛開始訓練時學習得非常慢!

但是如果換成是交叉熵 loss,其更新權重公式最後推導得出如下:

由以上公式可知,權重學習的速度受到 σ(z) − y 影響,更大的誤差,就有更快的學習速度,還避免了二次代價函數方程中因 σ′(z) 導致的學習緩慢。

但是現在也有很多其他的激活函數並不會產生飽和狀態,那麼均方差也有其存在價值。

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 簡單圖神經網絡(GNN)的基礎知識
    在社交網絡分析等一些應用中,圖神經網絡已經得到了廣泛的應用。新加坡科技研究局(A*STAR)的研究者 Rishabh Anand 近日通過圖解的方式介紹了圖與圖神經網絡的基本概念,或許能幫助初學者更直觀地理解圖神經網絡的內涵和價值。
  • 理清神經網絡中的數學知識
    導讀:首先我想在這裡聲明的是,本篇文章針對的是一些已經具備一定神經網絡知識的人。意在幫助大家梳理神經網絡中涉及的數學知識,以及理解其物理含義。希望大家讀過之後,可以使大家對於神經網絡有更多角度的理解,幫助大家推導以及理解其中的數學公式。
  • 福建醫學基礎知識材料:神經調節
    福建醫學基礎知識材料:神經調節 【導讀】福建衛生人才網:提供2021福建醫療衛生閱讀資料,2021福建醫療衛生招聘醫學基礎知識複習資料,包括福建醫學類公共基礎知識考什麼,醫學基礎知識重點、答題技巧等。神經調節是人體生理功能調節中最主要的形式,它的基本方式是反射。
  • 醫學基礎知識:人體中主要的神經遞質和受體系統
    醫療衛生招聘考試資料:北京衛生人才網提供北京醫療衛生人才招聘考試複習資料,包括2018北京醫療衛生招聘考試資料、醫學基礎知識考點、解題技巧及醫生 護士招聘筆試面試輔導。醫學基礎知識:人體中主要的神經遞質和受體系統,更多醫療衛生招聘考試信息請點擊北京醫療衛生人才網。 神經遞質受體是在化學突觸傳遞中擔當信使的特定化學物質,簡稱遞質。神經遞質受體都是一些跨越細胞膜的蛋白質複合體。人體中主要的神經遞質和受體系統是生理學神經系統這一章的重點,考試的一級考點。
  • 深度學習背後的基礎-神經網絡揭秘
    因為正確的分類, 是認知的基礎, 也是決策的基礎。 因為認識任何概念, 往往都是離散的分類問題, 比如色彩, 物體的形狀等等。因此, 神經細胞做的事情, 就像是模數轉化, 把連續的信號轉化成離散的樣子。
  • 人工神經網絡的定義
    人工神經網絡以對大腦的生理研究成果為基礎的,其目的在於模擬大腦的某些機理與機制,實現某個方面的功能。國際著名的神經網絡研究專家,第一家神經計算機公司的創立者與領導人Hecht Nielsen給人工神經網絡下的定義就是:「人工神經網絡是由人工建立的以有向圖為拓撲結構的動態系統,它通過對連續或斷續的輸入作狀態相應而進行信息處理」 這一定義是恰當的。
  • 研究不同神經元在人工神經網絡中的作用
    德國數字轉型技術與管理研究所和機械工程信息管理研究所的研究人員最近進行了一項研究,旨在更好地了解神經網絡決策過程的機制。他們在arXiv上發表的一篇論文中概述了他們的發現,闡明了單個神經元和不同神經元群在這些網絡中的作用。
  • 容易被忽視的骨癌——脊索瘤
    脊索瘤屬於較為罕見的腫瘤,每100萬人中大約有1人患病,佔所有骨腫瘤的3%,約佔原發性脊柱腫瘤的20%。在任何年齡段都有患病可能,但大多數人被診斷出的年齡在40到70歲之間,男性發病多於女性。# 脊索瘤的症狀 脊索瘤會壓迫脊椎或大腦神經,可能導致疼痛、麻木或無力。具體症狀取決於腫瘤的位置和大小。
  • 人工神經網絡及其應用
    半個世紀後,生理學家 W.s.McCulloch和數學家W.A.Pitts於1943年發表了一篇神經網絡方面的著名文章。在這篇文章中,他們在已知的神經細胞生物學基礎上從信息處理的角度出發,提出形式神經元的數學模型,稱為M-P模型。該模型為開創神經學科理論研究的新時代。在1949年,心理學家Donala O.Hebb出版一本為《行為構成》的書,在書中他建立了現在被人們稱為Hebb算法的連接訓練算法。
  • 一文了解卷積神經網絡基礎,建議收藏
    LeNet網絡架構那麼到底什麼是神經網絡呢?應該說只要帶有卷積層的就可以被叫做卷積神經網絡。神經網絡的發展歷史1986年:Rumelhart和Hinton等人提出了反向傳播(Back Propagation)算法。1998年:LeCun基於BP神經網絡訓練了LeNet網絡,標誌著CNN的真正面世。2006年:Hinton在他們的Science Paper中首次提出了Deep Learning的概念。
  • 神經網絡理論基礎及Python實現
    一、多層前向神經網絡 多層前向神經網絡由三部分組成:輸出層、隱藏層、輸出層,每層由單元組成; 輸入層由訓練集的實例特徵向量傳入,經過連接結點的權重傳入下一層,前一層的輸出是下一層的輸入;隱藏層的個數是任意的,輸入層只有一層,輸出層也只有一層; 除去輸入層之外,隱藏層和輸出層的層數和為n,則該神經網絡稱為n層神經網絡
  • 知識普及:卷積神經網絡模型是怎樣工作的?可以做些什麼?
    知識普及:卷積神經網絡模型是怎樣工作的?可以做些什麼? 眾所周知,在過去的幾年裡,卷積神經網絡(CNN或ConvNet)在深度學習領域取得了許多重大突破,但對於大多數人而言,這個描述是相當不直觀的。因此,要了解模型取得了怎樣大的突破,我們應該先了解卷積神經網絡是怎樣工作的。 卷積神經網絡可以做些什麼? 卷積神經網絡用於在圖像中尋找特徵。在CNN的前幾層中,神經網絡可以進行簡單的「線條」和「角」的識別。
  • 神經網絡算法在我國核領域中的應用綜述
    從 1956 年在達特蒙斯學院(Dartmouth)暑期論壇上首次提出[1],已經經過了 60 多年的發展和積澱,近十幾年來,隨著網際網路、雲計算、大數據、超級計算等新技術的發展,推動了 以基於深度學習的神經網絡(簡稱深度學習)為代表的人工智慧技術飛速發展,廣泛應用於圖像分類、語音 識別、知識問答、人機對弈、無人駕駛等領域,迎來爆發式增長的新高潮,正引發可產生鏈式反應的科 學突破,加速新一輪的科技革命和產業變革
  • 2020甘肅醫療衛生招聘考試醫學基礎知識:神經膠質細胞相關解析
    2020甘肅醫療衛生招聘考試醫學基礎知識:神經膠質細胞相關解析 2020甘肅事業單位醫療衛生崗招聘考試正在緊張備考中,甘肅事業單位E類考試主要考察醫學基礎知識和招聘崗位專業知識應用能力組成,部分事業單位還會考到
  • 人工智慧系列(六) 深度學習中的神經網絡
    從另一個角度看,不管是哪種網絡結構,其根本還是從傳統的神經網絡、多層感知機發展而來的。本篇聊聊神經網絡和多層感知機。我們在上一篇中提到高中學過的線性擬合,線性回歸。神經網絡在深度學習中的作用,就類似於線性回歸方程y=ax+b的作用。從另一個角度看,線性回歸方程y=ax+b就是一個最簡單的神經網絡。在實際工程中,我們的研究對象可能比較複雜,很難用一個線性方程來表示其模型。
  • 2020山東醫療衛生考試醫學基礎知識資料:神經反射檢查
    2020山東醫療衛生考試醫學基礎知識資料:神經反射檢查 神經反射檢查是臨床上實踐技能操作的重要考試項目,同時也是我們醫學基礎知識筆試的重要內容,所以掌握神經反射的概念以及檢查項目對我們來說尤為重要。快和山東中公教育一起來學習一下吧。
  • 什麼是計算機網絡 計算機網絡入門的基礎知識
    本篇將介紹關於計算機網絡入門基礎知識的分享,有興趣的朋友可以了解一下!首先我們要對計算機網絡有個定義:計算機網絡就是將分布在不同地理位置並具有獨立功能的多臺計算機,通過通信設備和線路連接起來,在功能完善的網絡軟體(網絡協議及網絡作業系統等)支持下,以實現網絡資源共享和數據傳輸為目的的系統。
  • 什麼是人工神經網絡(ANN)?
    神經網絡由多層組成訓練人工神經網絡人工神經網絡首先為神經元之間的連接權重分配隨機值。ANN正確而準確地執行其任務的關鍵是將這些權重調整為正確的數字。但是找到合適的權重並不是一件容易的事,特別是當您處理多層和成千上萬的神經元時。
  • 大腦中的神經網絡是如何傳遞信息的?
    人類大腦中的神經元有140億左右,神經元有著怎樣的構造,神經元與神經元之間是如何相互聯繫,傳遞信息,最終組成複雜的大腦神經網絡的呢?我們大腦中的神經元網絡就這樣開始傳遞起信息。並且神經興奮傳導方向只可以從軸突到樹突,而不可以反向。為什麼不可以反向,因為軸突末端有突觸小體,樹突沒有。樹突上有識別神經遞質的受體,但不含突觸小泡,即無法分泌神經遞質,即只能接受、傳導衝動。軸突在結構上比樹突長得多,其末端膨大為突觸小體,含大量突觸小泡,可以釋放神經遞質,但無法識別神經遞質(無受體)。
  • 神經網絡算法原理_神經網絡算法的應用_神經網絡算法實例說明
    神經網絡的用途非常廣泛,在系統辨識、模式識別、智能控制等領域都能一展身手。而現在最吸引IT巨頭們關注的就是神經網絡在智能控制領域中的自動學習功能,特別適合在需要代入一定條件,並且信息本身是不確定和模糊的情況下,進行相關問題的處理,例如語音識別。