深度| 機器學習對抗性攻擊報告,如何欺騙人工智慧?

2021-01-11 雷鋒網

雷鋒網按:本文作者曹躍、仲震宇、韋韜,首發於百度安全實驗室公眾號,雷鋒網(公眾號:雷鋒網)授權轉載。

科技的發展使人工智慧離人類的生活越來越近,其中隱含的安全問題也漸漸引起頂級安全專家們的關注。

本文由百度安全實驗室專家撰寫,詳細介紹了在GeekPwn2016矽谷分會場上,頂尖安全專家們針對當前流行的人工智慧圖形對象識別、語音識別的場景所採用的構造攻擊數據方式和攻擊演示。
百度安全實驗室的專家對這些攻擊方式提出了獨到見解,並對未來趨勢進行了預測。

從12月29日起,神秘的帳號Master在弈城、野狐等圍棋對戰平臺上輪番挑戰各大圍棋高手,並取得了不可思議的多連勝。1月4日,聶衛平、常昊、周睿羊等高手接連輸給Master,截止到目前它已獲得60連勝。Master在與古力的對決之前終於揭曉了自己的身份,果然就是去年大出風頭的AlphaGo(升級版),而對陣古力,也提前聲明了會是最後一戰。

我們不妨將Master的60連勝視為人工智慧與人類交鋒的信號和警報,在人工智慧時代人類如何完成自身的「刷新升級」值得每個人思考。同時其帶來的安全問題也急需安全專家去突破。

隨著人工智慧和機器學習技術在網際網路的各個領域的廣泛應用,其受攻擊的可能性,以及其是否具備強抗打擊能力一直是安全界一直關注的。之前關於機器學習模型攻擊的探討常常局限於對訓練數據的汙染。由於其模型經常趨向於封閉式的部署,該手段在真實的情況中並不實際可行。在GeekPwn2016矽谷分會場上, 來自北美工業界和學術界的頂尖安全專家們針對當前流行的圖形對象識別、語音識別的場景,為大家揭示了如何通過構造對抗性攻擊數據,要麼讓其與源數據的差別細微到人類無法通過感官辨識到,要麼該差別對人類感知沒有本質變化,而機器學習模型可以接受並做出錯誤的分類決定,並且同時做了攻擊演示。以下將詳細介紹專家們的攻擊手段。

1. 攻擊圖像語音識別系統

目前人工智慧和機器學習技術被廣泛應用在人機互動,推薦系統,安全防護等各個領域。具體場景包括語音,圖像識別,信用評估,防止欺詐,過濾惡意郵件,抵抗惡意代碼攻擊,網絡攻擊等等。攻擊者也試圖通過各種手段繞過,或直接對機器學習模型進行攻擊達到對抗目的。特別是在人機互動這一環節,隨著語音、圖像作為新興的人機輸入手段,其便捷和實用性被大眾所歡迎。同時隨著行動裝置的普及,以及行動裝置對這些新興的輸入手段的集成,使得這項技術被大多數人所親身體驗。而語音、圖像的識別的準確性對機器理解並執行用戶指令的有效性至關重要。與此同時,這一環節也是最容易被攻擊者利用,通過對數據源的細微修改,達到用戶感知不到,而機器接受了該數據後做出錯誤的後續操作的目的。並會導致計算設備被入侵,錯誤命令被執行,以及執行後的連鎖反應造成的嚴重後果。本文基於這個特定的場景,首先簡單介紹下白盒黑盒攻擊模型,然後結合專家們的研究成果,進一步介紹攻擊場景,對抗數據構造攻擊手段,以及攻擊效果。

1.1 攻擊模型

和其他攻擊不同,對抗性攻擊主要發生在構造對抗性數據的時候,之後該對抗性數據就如正常數據一樣輸入機器學習模型並得到欺騙的識別結果。在構造對抗性數據的過程中,無論是圖像識別系統還是語音識別系統,根據攻擊者掌握機器學習模型信息的多少,可以分為如下兩種情況:

攻擊者能夠獲知機器學習所使用的算法,以及算法所使用的參數。攻擊者在產生對抗性攻擊數據的過程中能夠與機器學習的系統有所交互。

攻擊者並不知道機器學習所使用的算法和參數,但攻擊者仍能與機器學習的系統有所交互,比如可以通過傳入任意輸入觀察輸出,判斷輸出。

2. GeekPwn現場機器學習對抗性攻擊

2.1   Physical Adversarial Examples

在GeekPwn2016矽谷分會場上,來自OpenAI的Ian Goodfellow和谷歌大腦的Alexey Kurakin分享了「對抗性圖像」在現實物理世界欺騙機器學習的效果。值得一提的是,Ian Goodfellow正是生成式對抗神經網絡模型的發明者。

首先先簡單介紹一下對抗性圖像攻擊。對抗性圖像攻擊是攻擊者構造一張對抗性圖像,使人眼和圖像識別機器識別的類型不同。比如攻擊者可以針對使用圖像識別的無人車,構造出一個圖片,在人眼看來是一個stop sign,但是在汽車看來是一個限速60的標誌。

圖1 攻擊圖像識別場景

在會上,Ian和Alexey指出過去的對抗性圖像工作都基於如下的攻擊模型,即攻擊者可以直接向機器學習模型輸入數據,從而保證攻擊者可以隨心所欲地對任意粒度的圖片進行修改,而不需要考慮燈光,圖片角度,以及設備在讀取圖片時對對抗性圖像攻擊效果產生變化。因此,他們嘗試了對抗性圖片在真實物理世界的表現效果,即對抗性圖片在傳入機器學習模型之前,還經過了列印、外部環境、攝像頭處理等一系列不可控轉變。相對於直接給計算機傳送一張無損的圖片文件,該攻擊更具有現實意義。

在如何構造對抗性攻擊圖片上,他們使用了非定向類攻擊中的FGS和FGS迭代方法,和定向類的FGS迭代方法 [1]。其中,非定向類攻擊是指攻擊者只追求對抗圖像和原圖像不同,而不在意識別的結果是什麼。定向類攻擊則是指攻擊者在構造圖像時已經預定目標機器學習模型識別的結果。

在定向類攻擊中,作者首先根據條件概率找出給定源圖像,最不可能(least-likely)被識別的類型y值,表示為(該種類通常和原種類完全不同)。然後採用定向類攻擊方法中的FGS迭代方法,產生對抗性圖片。其中非定向類攻擊方法在類型種類比較少並且類型種類差距較大的資料庫裡,比較有效。但是一旦類型之間比較相關,該攻擊圖像有極大的可能只會在同一個大類中偏移。這時候定向類攻擊方法就會有效很多。

圖2 對抗性圖像在現實物理世界欺騙機器學習過程

為了驗證結果,作者採用白盒攻擊模型。其中,作者使用谷歌Inception v3作為目標圖像識別模型,並選取ImageNet中的50,000個驗證圖像針對Inception v3構造出相對應的對抗性圖像。在實驗中,他們將所有的對抗性圖片和原始圖片都列印出來,並手動用一個Nexus 5智慧型手機進行拍照,然後將手機裡的圖像輸入Inception v3模型進行識別。現場結果表明,87%的對抗性圖像在經過外界環境轉化後仍能成功欺騙機器,從而證明了物理對抗性例子在真實世界的可能性。

在他們的論文中,作者還測試了物理世界造成的圖像轉化對使用不同方法構造的對抗性圖片的毀壞程度。有意思的結論是迭代方法受圖像轉化的影響更大。這是因為迭代方法對原圖像使用了更微妙的調整,而這些調整在外界圖像轉化過程中更容易被毀壞。作者還分別測試了亮度、對比度、高斯模糊轉化、高斯噪音轉化和JPEG編碼轉化量度,對各個對抗性圖像方法的毀壞程度。具體實驗結果請參見他們的論文 [1]。

2.2 Exploring New Attack Space on Adversarial Deep Learning

來自UC Berkeley大學的Dawn Song教授和劉暢博士介紹了對抗式深度學習在除了其他領域的攻擊和防禦。其中Dawn Song教授是Taint Analysis理論的主要貢獻者之一,還是美國「麥克阿瑟天才獎」獲得者。在現場,專家們首先拓展了對抗性深度學習在圖像識別檢測上的應用,然後還提出構造對抗性圖片的優化方法-ensemble黑盒攻擊算法[6]。

在圖像識別物體檢測中,如圖3左圖所示,深度學習可以用來檢測圖像中不同的物體以及他們之間的關係並自動生成說明(Caption) [2]。在這種場景下,對抗性圖像攻擊同樣可以欺騙機器學習模型,並給出異常的說明,如圖3右圖所示。對抗性圖像構建的基本思路是給定Caption的前綴後,儘量誤導之後的判斷。

圖3  對抗性圖片在圖像識別檢測中的應用

同時,專家們還研究了對抗性圖像攻擊在黑盒分類模型中的表現,並且提出了優化算法-ensemble黑盒攻擊算法。在通常情況下,攻擊者並不知道目標模型使用了什麼算法已經相關的參數。這時候攻擊者只能使用黑盒模型攻擊。過程如下所示:

攻擊者在目標機器學習模型未知的情況下,通過詢問黑盒子系統所得結果,得到一系列訓練樣本。

攻擊者任意選取了某機器學習算法並使用訓練樣本訓練得到已知機器學習模型。

攻擊者針對訓練出來的已知機器學習模型構建對抗數據。

圖4 對抗性圖像黑盒攻擊流程

這一攻擊基於對抗性圖像的欺騙傳遞性,即針對機器學習模型A構造的對抗性圖像,也會有很大的比例能欺騙機器學習模型B。表1展示了使用單網絡優化方法時,針對不同元模型構造的非定向對抗性圖像,被不同目標模型識別的成功率。每一個格子(i,j)代表針對算法模型i產生的對抗圖片,在其他算法模型j上驗證的結果,百分比表示所有對抗性圖片中被識別成原圖片類型的比例。可以看出,當同一個圖像識別系統被用來構造和驗證對抗性圖像時(白盒攻擊模型),百分比為0。這說明在白盒攻擊模型中,構建對抗性圖像的效果非常好,全部不能正確識別。當驗證模型和構造模型並不一致時,大部分對抗性圖像的百分比也在10%-40%之間浮動,該結果有效證明了對抗數據在不同算法之間有一定的傳遞性。 

表1 針對不同源機器學習模型構造的非定向對抗性攻擊方法(單網絡優化方法)在目標模型的攻擊效果。其中,ResNet-50, ResNet-101, ResNet-152,GoogLeNet,Incept-v3和VGG-16是當下流行的深度神經網絡圖像識別系統。

然而,作者還使用了同樣的實驗方法測試了定向性對抗性攻擊在目標模型的效果。結果表明定向類標記的傳遞性差了很多,只有小於等於4%的對抗性圖像在源、目標機器學習模型中都識別出相同的定向標記。

基於此,作者提出了ensemble方法。它是以多個深度神經網絡模型為基礎構造對抗圖片,即將圖4中單個已知機器學習模型替換成多個不同的已知機器學習模型,並共同產生一個對抗性圖像。

在實驗設計中,作者對5個不同的深度神經網絡模型一一實施了黑盒子攻擊。在對每一個模型攻擊的時候,作者假設已知其餘的4個模型,並用集合的方式作白盒子對抗圖形的構造。同樣的,作者分別使用基於優化的攻擊手段,和基於Fast Gradient的手段構造對抗性圖片。構造圖片依然使用的是Adam優化器。在算法經過100次的迭代對權重向量的更新,loss function得以匯聚。作者發現有許多攻擊者預先設定的標記也得到了傳遞。詳細結果參見表2。格子(i,j)代表用除了模型i之外的4個其他算法生成的對抗圖片,用模型j來驗證得到的定向標記的準確值。可以看出,當目標模型包含在已知模型集合中,定向類標記的傳遞性都在60%以上。即使目標模型不在已知模型集合中,定向標記的準確值也在30%以上。

  

表2 針對不同源機器學習模型構造的定向對抗性攻擊方法(ensemble方法)在目標模型的攻擊效果。

作者同樣使用了ensemble算法進行非定向攻擊。攻擊結果如表3所示。可以看出和表1相比,ensemble算法的欺騙性大幅度提升。

表3 針對不同源機器學習模型構造的非定向對抗性攻擊方法(ensemble方法)在目標模型的攻擊效果。

2.3  Hidden Voice Commands

圖5 攻擊語音識別場景

來自美國Georgetown University的Tavish Vaidya博士分享了隱匿的語音命令這一工作。

對抗性語音攻擊則是攻擊者構造一段語音,使人耳和語音識別機器識別的類型不同。語音攻擊和圖像攻擊最大的不同在於,它希望保證對抗性語音和原語音差距越遠越好,而不是保持對抗性語音和原語音的相似性。該團隊依據現實情況,分別提出了黑盒攻擊和白盒攻擊兩種類型。在他們的實驗中,揚聲器發出一段人類無法辨認的噪音,卻能夠在三星Galaxy S4以及iPhone 6上面被正確識別為相對應的語音命令,達到讓手機切換飛行模式、撥打911等行為 [3]。

黑盒攻擊(語音識別):

在黑盒攻擊模型中,攻擊者並不知道機器學習的算法,攻擊者唯一的知識是該機器使用了MFC算法。MFC算法是將音頻從高維度轉化到低緯度的一個變換,從而過濾掉一些噪聲,同時保證機器學習能夠操作這些輸入。但是從高維到低維的轉化過程中,不可避免地會丟失一些信息。相對應的,從低維到高維的轉化,也會多添加一些噪聲。黑盒攻擊的原理正是攻擊者通過迭代,不斷調整MFCC的參數並對聲音進行MFCC變換和逆變換,過濾掉那些機器不需要,而人類所必須的信息,從而構造出一段混淆的語音。因為MFC算法被大量用於語音識別這個場景,所以該攻擊模型仍保證了很強的通用性。該具體步驟如圖4所示,感興趣的讀者可以參見他們的論文 [3].

圖6 對抗性語音黑盒攻擊模型[3]

在實驗中,作者發現使用的語音識別系統只能識別3.5米之內的語音命令。在揚聲器和手機的距離控制在3米的情況下,表4統計了人類和機器對不同命令的識別的比例。平均情況下,85%正常語音命令能被語音識別。在他們的混淆版本中,仍有60%的語音命令能被正常識別。在人類識別類別中,作者使用Amazon Mechanical Turk服務,通過crowd sourcing的形式讓檢查員猜測語音的內容。在這種情況下不同的命令混淆的效果也不盡相同。對於」OK Google」和」Turn on airplane mode」命令,低於25%的混淆命令能夠被人類正確識別。其中,94%的」Call 911」混淆版本被人類正常識別比較異常。作者分析了兩個主要原因。1是該命令太過熟悉。2是測試員可多次重複播放語音,從而增加了猜測成功的概率。

表4 對抗性語音黑盒攻擊結果。[3]

白盒攻擊(語音識別):

在白盒子攻擊中,該團隊對抗的目標機器學習算法是開源的CMU Sphinx speech recognition system [4]。在整個系統中,CMU Sphinx首先將整段語音切分成一系列重疊的幀(frame), 然後對各幀使用Mel-Frequency Cepstrum (MFC)轉換,將音頻輸入減少到更小的一個維度空間,即圖7中的特徵提取。然後,CMU Sphinx使用了Gaussian Mixture Model(GMM)來計算特定音頻到特定音素(phoneme)的一個概率。最後通過Hidden Markov Model(HMM),Sphinx可以使用這些音素(phoneme)的概率轉化為最有可能的文字。這裡GMM和HMM都屬於圖7中的機器學習算法。

圖7  CMU Sphinx speech recognition system模型[4]

在Tavish的白盒攻擊模型中,他分別提出了兩個方法:1.simple approach 2. Improved attack. 第一個方法和黑盒方法的不同點在於,它已知了MFCC的各參數,從而可以使用梯度下降更有針對性地只保留對機器識別關鍵的一些關鍵值。在整個梯度下降的過程中,input frame不斷地逼近機器識別的目標y,同時人類識別所需的一些多餘信息就被不可避免地被剔除了。

第二類白盒攻擊的基本原理是依據機器和人對音高低起伏變化(音素)的敏感性不同,通過減少每個音素對應的幀(frame)的個數,讓這段聲音只能被機器識別,而人類只能聽到一段扁平混亂的噪音。這些特徵值再經過MFCC逆變換,最終成為一段音頻,傳到人們耳中。具體的方法和語音相關的知識更密切一下,有興趣的讀者可以看他們的論文了解具體的方法。表5展示了他們的攻擊效果。

表5 對抗性語音白盒攻擊效果。[3]

 2.4  對抗性數據的防護

雖然對抗性數據攻擊的發現很巧妙,但是在當前圖像語音識別應用的場合上,有效的防禦並不困難。主要有以下幾類:

增加人類交互認證,例如機器可以簡單地發出一聲警報、或請求輸入音頻驗證碼等方式。

增強對抗性數據作為機器學習模型的輸入的難度。例如語音識別系統可以使用聲紋識別、音頻濾波器等方式過濾掉大部分惡意語音。

從機器學習模型本身訓練其辨別良性、惡意數據的能力。這時候,這些已知的對抗性數據就提供了珍貴的訓練數據。

賓州州立大學還提出Distillation的方法 [5],從深度神經網絡提取一些指紋來保護自己。

隨著人工智慧深入人們的生活,人類將越發依賴人工智慧帶來的高效與便捷。同時,它也成為攻擊者的目標,導致應用機器學習的產品和網絡服務不可依賴。GeekPwn2016矽谷分會場所揭示的是頂級安全專家對機器學習安全方面的擔憂。隨著一個個應用場景被輕易的攻破,儘管目前只是在語音,圖像識別等場景下,我們可以清醒的認識到,當這些場景與其他服務相結合的時候,攻擊成功的嚴重後果。人工智慧作為未來智能自動化服務不可缺少的一個重要部分,已然是安全行業與黑產攻擊者抗爭的新戰場。

Bibliography

[1] A. Kurakin, I. J. Goodfellowand S. Bengio, "Adversarial examples in the physical world," corr,2016. 

[2] J. Justin, K. Andrej and F.Li, "Densecap: Fully convolutional localization networks for densecaptioning.," arXiv preprint arXiv:1511.07571 , 2015.

[3] N. Carlini, P. Mishra, T.Vaidya, Y. Zhang, M. Sherr, C. Shields, D. Wagner and W. Zhou, "HiddenVoice Commands," in USENIX Security 16, Austin, 2016.

[4] P. Lamere, P. Kwork, W.Walker, E. Gouvea, R. Singh, B. Raj and P. Wolf, "Design of the CMUSphinx-4 Decoder," in Eighth European Conference on Speech Communicationand Technology, 2003.

[5] N. Papernot, P. McDaniel, X.Wu, S. Jha and A. Swami, " Distillation as a Defense to AdversarialPerturbations against Deep Neural Networks Authors:".

[6]Y. Liu, X. Chen, C. Liu andD. Song, "Delving into transferable adversarial examples and black-boxattacks," in ARXIV.

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • NIPS 2017 | 清華大學人工智慧創新團隊在AI對抗性攻防競賽中獲得冠軍
    清華大學張鈸院士帶領的人工智慧創新團隊在 NIPS 2017 AI 對抗性攻防競賽中獲得冠軍(指導教師:朱軍、胡曉林、李建民、蘇航
  • 模仿人腦視覺處理,助力神經網絡應對對抗性樣本
    這些情況,通常被稱為對抗性樣本,以令人困惑的方式改變了人工智慧模型的行為。對抗性的機器學習是當前人工智慧系統的最大挑戰之一。它們可能導致機器學習模型以不可預知的方式失敗,或者變得容易受到網絡攻擊。對抗性樣本的例子: 在這張熊貓照片中加入一層難以察覺的噪音,會讓卷積神經網絡誤以為它是長臂猿。
  • 如何區分人工智慧、機器學習和深度學習?
    深度學習(Deep Learning)是一種機器學習的方法,它試圖使用包含複雜結構或由多重非線性變換構成的多個處理層(神經網絡)對數據進行高層抽象的算法。神經網絡是一組大致模仿人類大腦構造設計的算法,用於識別模式。神經網絡通過機器感知系統解釋傳感器數據,能夠對原始輸入進行標記或聚類等操作。
  • 大咖| GAN之父Ian Goodfellow在Quora:機器學習十問十答
    作為一個大二學生,我該如何進入人工智慧領域?服務於網絡安全的機器學習,以及機器學習自身的網絡安全:越來越多的網絡攻擊使用機器學習來生成惡意軟體,這些軟體能有效率地躲過漏洞模糊測試。同時,更多的網絡防守軟體也會用到機器學習,從而給出比人類更快的反應,檢測更多細微的入侵。不同陣營的機器學習算法會互相欺騙對方,進行攻防大戰。
  • 用100元的支票騙到100萬:看看對抗性攻擊是怎麼為非作歹的
    關於人工智慧的安全問題,近期的關注點主要圍繞道德層面,今天我們將討論一些更緊迫更現實的問題。什麼是對抗性攻擊(Adversarial Attacks)機器學習算法的輸入形式為數值型向量(numeric vectors)。通過設計一種特別的輸入以使模型輸出錯誤的結果,這便被稱為對抗性攻擊。這怎麼可能呢?
  • 【深度】「人工智慧」在美國軍事中的現狀與發展
    ,因此,如何利用現代信息技術和人工智慧技術,提高情報分析處理的自動化程度和效率,成為當前情報工作面臨的重點問題。現實需求是推動技術發展的強力 「催化劑」,相較於人工分析處理數據信息,人工智慧技術在海量數據分析中具有絕對優勢,如通過圖像理解、生物識別技術和深度機器學習能力對收集圖像進行處理分析,高質量地實現圖像自動識別和目標提取,從而減輕人類的工作量。
  • AI也會犯錯:如何欺騙神經網絡看見一些不存在的東西?
    林林總總的安全漏洞成為了黑客的攻擊對象,而且他們在攻擊時毫不手軟。 但即使是讓人工智慧取代那些軟體工程師,風險仍然存在。Kurakin說:「沒有完美的機器學習系統」。事實上,在某些情況下,你可以欺騙這些系統,讓它們以為自己看到或聽到了實際上不存在的東西。
  • 清華2020人工智慧報告第一期!五大維度揭秘機器學習技術「附下載...
    並在 1956 年正式提出了「機器學習」這一概念。本期的智能內參,我們推薦清華人工智慧研究院的研究報告《人工智慧之機器學習》,從機器學習的發展史、技術特點、人才概況、行業應用和未來趨勢五大維度剖析機器學習技術。本期內參來源:清華人工智慧研究院原標題:《人工智慧之機器學習 》作者:未註明一、什麼是機器學習?
  • 保羅·斯查瑞:人工智慧「軍備競賽」的真正危險是什麼
    機器學習是指程式設計師無須編寫規則,機器通過分析給定的數據來拾取它們。給算法提供數千張帶有對象標籤的照片,它將學習識別圖像中的圖案並與對象名稱建立關聯。人工智慧的繁榮始於2012年,研究人員依靠人工深度神經網絡,在機器學習技術的「深度學習」方面取得了重要突破。人工神經網絡是受生物神經元啟發的一種智能技術,模擬生物神經元通過發送和接收電脈衝與其他細胞進行交流。
  • 醫療大數據應用越來越廣,如何應對數據「欺騙性」?
    Goodfellow等認為,對於機器學習模型,數據集中一些小的幹擾可能導致模型輸出錯誤的結果。如何發現醫療大數據挖掘分析中的陷阱,並採取相應的策略來減少醫療大數據的欺騙性至關重要。本文對醫療大數據的欺騙性原因進行梳理和總結,並從統計學角度闡述如何避免大數據陷阱,從模型角度分析模型被攻擊的應對策略以及模型可解釋性在醫療領域的重要性和方法。
  • 學界 | 綜述論文:對抗攻擊的12種攻擊方法和15種防禦方法
    例如,除了在特定圖像的對抗性擾動之外,Moosavi-Dezfooli et al. [16] 展示了「通用擾動(universal perturbations)」的存在(如圖 1 所示),這種通用擾動可以讓一個分類器對所有圖片錯誤分類。同樣的,Athalye et al. [65] 展示了即使用 3D 列印的真實世界中存在的物體也可以欺騙深度網絡分類器(如圖 2 所示)。
  • 深度解讀《中國教育智能化發展報告》:人工智慧如何重塑教育行業?| 造就Talk·鍾昀泰
    2012年,隨著移動端的蓬勃發展和深度學習算法在語音和視覺識別上實現突破,國內智能自適應教育逐漸興起,眾多教育機構開始涉足自適應教育。從行業發展階段來看,目前人工智慧教育行業仍處在發展階段。RealizeIt技術採用的技術有資訊理論、貝葉斯算法、機器學習等技術。ALEKS技術採用的技術主要是知識空間理論。目前國內領先的人工智慧教育企業,如乂學教育打造的松鼠AI 1對1,松鼠AI採用的技術包括貝葉斯網絡、深度神經網絡、進化算法、遷移學習、以及其他機器學習算法等。
  • 人工智慧、機器學習、神經網絡和深度學習之間是什麼樣的關係?
    但是大家在關注或研究人工智慧領域的時候,總是會遇到這樣的幾個關鍵詞:深度學習、機器學習、神經網絡。那他們之間到底是什麼樣的關係呢?本文引用地址:http://www.eepw.com.cn/article/201806/381185.htm  先說人工智慧,人工智慧是在1956年一個叫達特茅斯會議上提出的。
  • 安全指南:如何防止欺騙攻擊?
    欺騙攻擊是指將詐騙者偽裝成可獲取重要數據或信息的可信任來源時發生的網絡攻擊。欺騙攻擊可能通過網站、電子郵件、電話、簡訊、IP位址和伺服器發生。通常,欺騙的主要目標是獲取個人信息、竊取金錢、繞過網絡訪問控制或通過受感染的附件或連結傳播惡意軟體。欺詐者會通過各種形式的在線通信來嘗試使用欺騙手段竊取受害者的身份和資產。欺騙攻擊是如何發生的?
  • 人工智慧、機器學習、深度學習和神經網絡傻傻分不清?看這兒!
    人工智慧、機器學習、深度學習和神經網絡這些詞傻傻分不清?這四個都是非常熱門的詞彙,很多人甚至將四者看成是一種等價的關係,在很多報導中,會混雜使用。事實上,這四者之間既有一定的聯繫,但也有明顯的區別。可以簡單理解為:機器學習是人工智慧領域中的一個重要分支;深度學習是實現機器學習的一種重要方法;而深度學習通常都是基於多層神經網絡的。筆者之前畫了一張圖,比較形象一些。
  • 機器學習與深度學習有什麼區別?
    近年來,隨著科技的快速發展,人工智慧不斷進入我們的視野中。作為人工智慧的核心技術,機器學習和深度學習也變得越來越火。一時間,它們幾乎成為了每個人都在談論的話題。那麼,機器學習和深度學習到底是什麼,它們之間究竟有什麼不同呢? 什麼是機器學習?
  • 人工智慧的意義,機器學習的三種類型
    其實在今天,人工智慧已經在創造收益了,但主要集中在軟體領域。然而當到了2030年,在軟體行業之外,人工智慧也將創造巨大收益,尤其是在零售、旅遊、交通、汽車、材料、製造等行業。   人工智慧、機器學習、深度學習這些熱詞近來被頻繁使用。讓人工智慧融於世界的現實期望固然很贊,但了解和揭秘人工智慧同樣意義重大。
  • 人工智慧和機器學習如何從物聯網數據中提取關鍵見解
    過去幾年,圍繞物聯網的大部分討論都集中在連網設備本身——它們是什麼、有多少以及如何保護它們當談到為這些關鍵見解制定路線時,人工智慧(AI)和機器學習(ML)是照亮道路的技術。  幾十年來,數據分析主要涉及計算機編譯和存儲信息,並將其呈現給人類進行分析,這一過程比較緩慢、容易出錯,並且無法解讀隱藏在數據深處的趨勢。這些缺點在物聯網環境中更加嚴重,在物聯網環境中,大量傳感器和行動裝置產生的數據量呈指數級增長。
  • 黑客如何用一副紙眼鏡,就「弄瞎」人臉識別算法?
    《法案》定義,「深度偽造技術」正式歸為「數字內容偽造」,是「使用新興技術(包括人工智慧和機器學習技術)來製造或操縱音頻、視覺或文本內容,以達到誤導他人的目的」。《法案》規定,美國國土安全部負責對「數字內容偽造技術」詳盡調查,此後得定期匯報。法案頒布之日起5年內,國土安全部部長每年向科學技術部長提交報告。