-
谷歌DeepMind 的可微分神經計算機 DNC 怎麼樣?看 Facebook AI...
,前谷歌無人車項目組成員,現任 Facebook 人工智慧組研究員,主要負責 Facebook 的智能圍棋項目 Dark Forest。近日,谷歌的 AI 部門 DeepMind 開發了一種叫做可微分神經計算機(DNC)的神經網絡模型,相關論文發表於 10 月 12 日在線出版的《自然》雜誌上,題為《 利用神經網絡與外部動態存儲器進行混合計算》。這種新模型將神經網絡與可讀寫的外部存儲器結合,既能像神經網絡那樣通過試錯和樣本訓練進行深度學習,又能像傳統計算機一樣處理數據。
-
DeepMind可微分神經計算機DNC開源 內部架構原理首次曝光
一旦獲得突破,在加強神經網絡推理能力等方面將會產生較大影響。 神經網絡在模式識別、快速決策方面有著優異的表現,然而現在的神經網絡還遠遠談不上能夠「思考」——思考需要在過去的知識經驗基礎上進行推理,而過去的知識和經驗也就是所謂的「記憶」。
-
谷歌AlphaGO挑戰賽:人工智慧的邊界在人類
谷歌AlphaGO的技術架構採用的是模仿人類大腦神經模式,而這種模式的行為可以理解為谷歌依託其強大的科學家團隊,在當前人類對於大腦相關探索的知識範圍內,以計算機的方式將這種知識探索表現到了一個新的高度。人工智慧的邊界在人類不論人工智慧如何發展,其在本質上還是物理程序層面的問題,哪怕其具備「自思考」能力,其思考的邊界也是開發者所賦予、設定的。
-
神經圖靈機深度講解:從圖靈機基本概念到可微分神經計算機
這裡的關鍵思想是神經圖靈機基本上就是可微分的圖靈機,這是很重要的,因為我們每天在計算機上做的算法和事情對計算機來說是非常困難的,原因是計算機的計算是絕對的。要麼是 0 要麼是 1。計算機在「非此即彼」的邏輯或者整數中運作。然而大多數的神經網絡和機器學習實際上不是這樣的。它們使用實數。
-
強人工智慧是一種獨立思考的生命體,人類不該創造和玩弄「生命」
此後,人們不得不直面和思考這個迫在眉睫的問題,會不會有一種自主思考和行動的機器呢?1956年的夏季,麥卡塞、明斯基、羅切斯特等人首次提出了「人工智慧」這一概念,隨著一些科幻題材作品的推波助瀾、以及計算機相關領域的突飛猛進,「人工智慧」(以及「智慧機器人」)成了萬眾矚目的科技前沿和炙手可熱的研發領域。
-
北大楊超:以偏微分方程求解為例,AI如何助力科學計算?
另外,楊老師還以求解偏微分方程舉例說明了神經網絡這一工具為科學計算帶來的幫助,並闡述了超級計算、科學計算、人工智慧從模型、算法、軟體、硬體多方位融合發展的觀點。註:本文經過楊超老師的審核和校對。而圍繞計算和數據有三個非常獨立但又相互關聯很大的方向,超級計算、科學計算和人工智慧。從計算科學誕生之初,超級計算和科學計算的關係已經建立起來。它們之間的關係可以概括為:超級計算就是為了支撐科學計算的發展,科學計算作為需求牽引、拉動超級計算機性能不斷提升。
-
百度大腦這樣思考:模仿人類大腦神經網絡
原標題:百度大腦這樣思考:模仿人類大腦神經網絡 巴西世界盃足球賽激戰正酣,有爆冷出局的,也有意外晉級的。本屆比賽雖然沒有了「預言帝」章魚保羅,但是預測比賽結果已經有了新工具——能夠分析數據、學習思考的人工智慧。
-
谷歌大腦重磅研究:快速可微分排序算法,速度快出一個數量級
現在,谷歌大腦針對這一問題,提出了一種快速可微分排序算法,並且,時間複雜度達到了O(nlogn),空間複雜度達為O(n)。速度比現有方法快出一個數量級!代碼的PyTorch、TensorFlow和JAX版本即將開源。
-
從「神經網絡之父」到「人工智慧教父」|Geoffrey Hinton的傳奇...
2013年,Hinton 加入谷歌並帶領一個AI團隊,他將神經網絡帶入到研究與應用的熱潮,將「深度學習」從邊緣課題變成了谷歌等網際網路巨頭仰賴的核心技術,並將HintonBack Propagation(反向傳播)算法應用到神經網絡與深度學習。
-
計算機圖形也能自動可微:MIT學神的微分太極框架開源
基本架構圖 1:(左)微分太極可以和神經網絡控制器及物理模擬模塊無縫結合,並向控制器或初始化轉臺參數更新梯度。模擬過程通常有 512 到 2048 個時間步,每個時間步達到 1000 次並行運算。(右)10 個基於微分太極構建的微分模擬器。
-
Yann LeCun:深度學習已死,可微分編程萬歲!
之後我會詳細介紹……可微分編程:深度學習的延伸,人工智慧成功的關鍵那麼,在等LeCun大神更詳細介紹他的歸化學習前,我們更需要關注的是可微分編程,這是深度學習的又一個新名字,還是確實有不同和新的內涵?圖的各個組成部分也必須是可微的,但是Grefenstette等人最近發布了幾個簡單的數據結構(棧,隊列和雙向)的可微分構造,表明進一步的可微分實現,可能只是數學上巧妙設計的問題。這方面的進一步工作可能會打開一個新的編程範式——可微分編程。
-
NumPy、AI基礎設施可微分編程、技術實踐,這是一場開發者的盛會
加州大學伯克利分校計算機科學博士學位、清華大學碩士學位和學士學位。Alex Smola:深度 NumPy API 和深度學習工具NumPy 差不多是所有機器學習開發者必須了解的庫,它為 Python 附上了數值計算的「靈魂」。很多主流 DL 框架都保留了 NumPy 的習慣,如果你會用 NumPy 搭建某個計算流程,那麼你就能快速學會用 DL 框架搭建機器學習模型。
-
計算機圖形自動可微:MIT學神微分太極框架開源,論文被ICLR接收
機器之心報導參與:一鳴、杜偉去年5月,機器之心報導了 MIT 華人學神胡淵鳴等開源的計算機圖形庫——太極。近日,這位作者聯合其他研究者推出了自動微分版本的太極——微分太極。這一框架可以基於太極實現自動微分,在物理模擬優化方面有很高的性能和靈活性。這意味著太極從計算機圖形學進入了機器學習的領域。
-
未來的人工智慧,最熱門的技術趨勢是什麼?
NIPS始於1987年,是人工智慧領域兩大重要學習會議之一,由於AI的爆炸式發展,近年來逐漸成為許多矽谷公司必須參加的年度會議。在蒙特婁召開的NIPS 2015吸引了眾多AI學界與業界的頂級專家,與會人數接近4000。大會總共收錄了403篇論文,其中深度學習課題約佔11%。
-
谷歌推出神經網絡翻譯 中譯英水平匹敵真人?
繼阿爾法狗戰勝韓國職業棋手李世石沒多久,人工智慧再下一城。據澎湃新聞9月29日報導,27日,谷歌推出了新的翻譯系統,聲稱該套翻譯系統基於對人類神經思考的模仿,能夠與真人翻譯競相匹敵。滿分為6分,橘色為真人翻譯、綠色為谷歌神經網絡翻譯、藍色為短語式翻譯。 從前的譯介模式是短語式的,翻譯系統將一句話拆分成單詞或者詞組進行翻譯,往往得到一些狗屁不通的結果。而新的翻譯系統稱之為谷歌神經機器翻譯(GNMT),這項新的技術運用更少的機器設計選擇,它將一句話視為整體進行解碼,雖然仍是將一句話分割成若干獨立單元,但每個單元都放在句子的前後進行考量。
-
谷歌人工智慧助科學家發現「迷你太陽系」
千百年來,人類從未停止過對星辰宇宙的思考和探索,受限於技術,我們對外太空的認識還極為有限。人工智慧技術的迅猛發展或許將加速這一進程。北京時間15日凌晨2:00,美國宇航局對外舉行新聞發布會,正式宣布在一個恆星周圍發現了由8顆恆星組成的行星系統。
-
谷歌為何要養蘋果的親兒子Swift?原來意在可微分編程
近日,Tryolabs 的研究工程師 Joaquín Alori 發布了一篇長文,從 Python 的缺點一路談到了谷歌在 Swift 機器學習方面的大計劃,並且文中還給出了相當多一些具體的代碼實例。可微分編程真如 Yann LeCun 所言的那樣會成為新一代的程序開發範式嗎?Swift 又將在其中扮演怎樣的角色?也許你能在這篇文章中找到答案。
-
人工智慧利用神經網絡來控制機器
人工智慧利用神經網絡來控制機器,或者是人工智慧根據預定的規則來控制機器.人工智慧可以用於搜索,診斷,預測,監控和機器人等諸多方面.人工智慧為人類提供了創造性解決方案,這個解決方案不僅能創造出改變,同時還能控制它們.世界對於人工智慧抱有非常樂觀的態度,因為它們讓人類工作變得更加高效.然而,智能的出現時間還很短暫,遠沒有到大眾普遍接受的階段.那麼,人工智慧未來的發展方向到底是什麼
-
可微分的「OpenCV」:這是基於PyTorch的可微計算機視覺庫
機器之心整理參與:思如何打造一個可微分的 OpenCV?如何將圖像處理嵌入到訓練流程中?你需要 Kornia 這個開源可微的計算機視覺庫。在這個項目中,開發者提出了一種新型開源可微分計算機視覺庫 Kornia,並且它建立在 PyTorch 之上。Kornia 包含了一組例程和可微分模塊,並致力於解決通用計算機視覺問題。在 Kornia 的核心代碼中,它使用 PyTorch 作為主要後端,並高效地利用反向模式自動微分機制來定義並計算複雜函數的梯度。
-
谷歌和OpenAI新研究:如何使用達爾文進化論輔助設計人工智慧算法?
30 年的發展取得了一些優秀成果,大多數腦啟發人工智慧技術的進展都圍繞著「神經網絡」,這一術語借用自神經生物學,其把機器思考描述為被稱作「神經元」的互相連接的數學函數中的數據流動。但是自然界也有其他好想法:現在計算機科學家正再次踏入生物進化這一研究領域,希望通過在人工智慧中植入生物進化元素的方式開發出更智能更有效的算法,恰如數十億年來生物進化塑造了人類大腦一樣。