Women Who Code帶你探秘深度卷積神經網絡(DCNN)

2021-02-18 WWCodeBJ

    2016年是人工智慧技術大爆發的一年,那邊AlphaGo打敗人類頂尖棋手的餘威未消,這邊的自動駕駛技術又宣布未來已來,AI科技究竟會怎樣改變我們的明天?WWC將帶領你走進Deep Learning的世界,揭開深度卷積神經網絡(DCNN)的神秘面紗。

    深度機器學習作為AI領域的一個重要分支,已經成為了AI的代名詞。DCNN是深度學習的關鍵技術,它通過模擬人腦進行分析學習,算法訓練時不用人工幹預。這十年中,網際網路巨頭和全球各個科研機構都投入了巨大的人力物力用於理論和工業級探索,AlphaGo圍棋之戰更是引燃了全球的熱情。

    AI的迅速發展還得益於眾多開源框架的貢獻,TensorFlow作為其中的佼佼者功不可沒。作為一個初學者,如果想零基礎理解DCNN的工作原理,想親密接觸Tensorflow框架上的AI應用,想知道更多AlphaGo打敗李世石的內幕,請參加WWC在四月舉辦的「帶你探秘深度卷積神經網絡(DCNN)」的技術講座吧!

    主講人王宇生博士目前就職於VMware,任資深主管技術專家,讓我們在大咖的帶領下領略AI世界的風光。

時間:2017年4月24(周一)18:30– 20:30(提供晚餐!)

地點:融科資訊中心B座12層Pivotal公司

主講人:王宇生博士

具體日程:

Session 1: 深度卷積神經網絡及相關AI技術介紹

Session 2: DCNN實例解析- AlphaGo

Session 3: 基於Tensorflow的AI程序解析和演示

感謝Pivotal公司的熱情支持!

點擊下方「閱讀原文」,立即報名吧(報名後會有郵件確認)!

如何關注和加入我們

Women Who Code Beijing微信號

相關焦點

  • 深度學習元老Yann Lecun詳解卷積神經網絡
    註:卷積神經網絡(Convolutional Neural Network)是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋範圍內的周圍單元,對於大型圖像處理有出色表現。早在20世紀80年代末,Yann LeCun就作為貝爾實驗室的研究員提出了卷積網絡技術,並展示如何使用它來大幅度提高手寫識別能力。上世紀末本世紀初,當神經網絡失寵時Yann LeCun是少數幾名一直堅持的科學家之一。他於2003年成為紐約大學教授,並從此引領了深度學習的發展,目前任職於Facebook FAIR實驗室。
  • 深度學習基礎:一步一步講解卷積神經網絡
    這對於一些信號處理應用來說很好,但對於深度神經網絡來說它真的不重要,因此省略了這個雙重鏡像操作,就簡化了代碼,並使神經網絡也能正常工作。根據慣例,我們大多數人都叫它卷積,儘管數學家們更喜歡稱之為互相關,但這不會影響到你在編程練習中要實現的任何東西,也不會影響你閱讀和理解深度學習文獻。
  • 深度學習之卷積神經網絡經典模型
    如今在計算機視覺領域,卷積神經網絡的良好效果深得廣大開發者的喜歡,並且上文提到的AlexNet模型擁有更好的效果,所以廣大從業者學習者試圖將其改進以獲得更好地效果。而後來很多人經過驗證認為,AlexNet模型中所謂的局部歸一化響應浪費了計算資源,但是對性能卻沒有很大的提升。VGG的實質是AlexNet結構的增強版,它側重強調卷積神經網絡設計中的深度。
  • 詳解卷積神經網絡
    本系列文章涉及到很多深度學習流行的模型,如CNN,RNN/LSTM,Attention等。本文為第6篇。文中所有標藍部分均可閱讀原文獲取詳情連結。接下來介紹一種非常重要的神經網絡——卷積神經網絡。這種神經網絡在計算機視覺領域取得了重大的成功,而且在自然語言處理等其它領域也有很好的應用。
  • AI入門:卷積神經網絡
    講到AI不得不講深度學習,而講到深度學習,又不能不講卷積神經網絡。如果把深度學習比作中國的網際網路界,那捲積神經網絡和循環神經網絡就是騰訊和阿里級別的地位。今天我們主要討論的卷積神經網絡,到底卷積神經網絡能解決什麼問題,它的結構是怎樣的?是怎麼學習的?應用在哪些具體的產品上?本文將為大家一一解答。
  • 典型的深度學習算法(一):卷積神經網絡(CNN)
    通過上一篇文章,相信大家對深度學習的概念、原理已經有了大致了解,近期企通查將會對深度學習中的幾種典型算法進行介紹。在深度學習領域中,已經驗證的典型成熟算法有卷積神經網絡(CNN)、循環神經網絡(RNN)、生成對抗網絡(GAN)、深度強化學習(DRL)等,下面企通查將帶領大家對典型的深度學習算法之一——卷積神經網絡(CNN)一探究竟。
  • 深度 | 從AlexNet到殘差網絡,理解卷積神經網絡的不同架構
    優秀的卷積神經網絡具有數百萬個參數和大量隱藏層。事實上,一個錯誤的經驗法則是:「隱藏層的數量越多,卷積神經網絡越好」。流行的卷積神經網絡有 AlexNet、VGG、Inception、ResNet。這些網絡為什麼性能如此好?它們是如何設計的呢?為什麼它們的結構是現在這樣?本文給出了一個簡單而全面的概述。這些問題的答案並不簡單,無法全部涵蓋在一篇博客中。
  • 一文讓你了解卷積神經網絡
    卷積神經網絡(Convolutional Neural Network,CNN)是一種前饋神經網絡,它的人工神經元可以響應一部分覆蓋範圍內的周圍單元,對於大型圖像處理有出色表現。 它包括卷積層(convolutional layer)和池化層(pooling layer)。對比:卷積神經網絡、全連接神經網絡
  • ImageNet冠軍帶你入門計算機視覺:卷積神經網絡
    編輯|Vincent,EmilyAI 前線導語: 在第一篇文章《ImageNet 冠軍帶你入門計算機視覺:監督學習與神經網絡的簡單實現》中,我們介紹了神經網絡的基本概念以及 Tensorflow 的基本用法。 本文為系列的第二篇文章,將會介紹卷積神經網絡。
  • 李理:詳解卷積神經網絡
    本系列文章面向深度學習研發者,希望通過Image Caption Generation,一個有意思的具體任務,深入淺出地介紹深度學習的知識。
  • 從圖嵌入到圖卷積:深度圖神經網絡的技術發展史
    而另一類數據,非歐空間中的圖數據,其數據的複雜性對現有的機器學習算法提出了很大的挑戰。圖神經網絡是處理前述非歐空間數據的利器,目前在社交網絡分析、電商推薦、文本檢索等場景發揮著重要的作用。本文將圍繞圖神經網絡的兩個典型方向:圖嵌入神經網絡及圖卷積神經網絡,通過對比不同時間點提出的圖神經網絡技術,簡要介紹圖神經網絡的發展歷程及其基本原理。
  • 深度學習 | 第四門課:卷積神經網絡(Convolutional Neural Networks)
    隨著深度學習的發展,學習的其中一個目標就是去檢測出複雜圖像的邊緣。對於一個3×3的過濾器,可以把過濾器矩陣中的數字當成9個參數,使得反向傳播算法能夠讓神經網絡學習任何它所需要的3×3過濾器。將過濾器當成參數的思想,已經成為計算機視覺中最為有效的思想之一。過濾器f通常為奇數維,如:1×1/3×3/5×5等。
  • 深度卷積神經網絡CNNs的多GPU並行框架 及其在圖像識別的應用
    Deep CNNs的單機多GPU模型並行和數據並行框架是騰訊深度學習平臺的一部分,騰訊深度學習平臺技術團隊實現了模型並行和數據並行技術加速Deep CNNs訓練,證實模型拆分對減少單GPU上顯存佔用有效,並且在加速比指標上得到顯著收益,同時可以以較快速度訓練更大的深度卷積神經網絡,提升模型準確率。
  • 圖解:卷積神經網絡的數學原理分析
    卷積神經網絡可能是取得巨大成功的最關鍵的基礎。這次,我們將加深對神經網絡如何在CNN上工作的理解。出於建議,本文將包含非常複雜的數學方程式。如果您不習慣線性代數和微分,請不要氣our。我的目標不是讓您記住這些公式,而是讓您直觀地了解下面發生的事情。 在過去,我們知道了稱為緊密連接的神經網絡。這些網絡的神經元被分為幾組以形成連續的層。每個這樣的神經元連接到相鄰層中的每個神經元。
  • 如何入手卷積神經網絡
    選自medium作者:Tirmidzi Faizal Aflahi參與:韓放、王淑婷卷積神經網絡可以算是深度神經網絡中很流行的網絡了本文從基礎入手,介紹了卷積網絡的基本原理以及相關的其它技術,並利用卷積網絡做了一個簡單項目作為示例參考。想入手 CNN 的朋友不可錯過~首先,我們先看看下面這張照片:
  • 乾貨| Excel圖解卷積神經網絡結構
    現在,我不僅對深度學習有了全面的理解,還在此基礎上有了好想法,因為我的基礎很紮實。隨意地應用神經網絡是一回事,理解它是什麼以及背後的發生機制是另外一回事。今天,我將與你共享我的心得,展示我如何上手卷積神經網絡並最終弄明白了它。我將做一個通盤的展示,從而使你對 CNN 的工作機制有一個深入的了解。
  • Clarifai:卷積神經網絡是什麼,如何工作
    然而,在2012年,第一個深度卷積神經網絡(CNN)被引入競爭,擊敗了它的競爭對手,錯誤率下降到16%。從那以後,每一個獲獎的算法都是CNN,包括2013年,Clarifai獲得了所有前五名獎項,那麼CNN到底是什麼?CNNs是一種特殊類型的神經網絡,通常是深度神經網絡,用於計算機視覺任務。CNN的目的是將原始像素轉換成人類(或算法)能夠理解的有意義的概念。
  • 圖解:卷積神經網絡數學原理解析
    卷積神經網絡可能是這一巨大成功背後最關鍵的構建模塊。這一次,我們將加深理解神經網絡如何工作於CNNs。出於建議,這篇文章將包括相當複雜的數學方程,如果你不習慣線性代數和微分,請不要氣餒。我的目標不是讓你們記住這些公式,而是讓你們對下面發生的事情有一個直觀的認識。附註:在這篇文章中,我主要關注CNNs的一些典型問題。
  • 萬字長文帶你看盡深度學習中的各種卷積網絡
    如果你曾聽過深度學習的各種卷積網絡(例如 2D/3D/ 1x1 / 轉置 /空洞(擴張)/ 空間可分離 / 深度可分離 /扁平化 / 分組 / 混洗分組卷積)並疑惑它們到底都是什麼的話,你可以通過這篇文章了解它們實際的工作原理。在文中,我概括性地介紹了在深度學習中常見的幾種卷積,並採用了大家都能夠明白的方式來解釋它們。
  • 薦書丨周志華力薦新書《解析深度學習:卷積神經網絡原理與視覺實踐》
    魏秀參博士在LAMDA 求學數年,對卷積神經網絡及其視覺應用頗有所長,博士未畢業即被曠視科技聘為南京研究院負責人,畢業之際將心得材料轉撰成書請愚致序。師生之誼,盛情難卻。在國內計算機領域,寫書乃吃力不討好之事。