「萬能生成器」GPT-3斬獲NeurIPS最佳論文

2020-12-26 矽星人

解釋最新科技進展,報導矽谷大事小情

GPT-3取得的成績非常令人驚訝,將會在相關領域內造成深遠的影響,並且有可能經受住時間的考驗。

——

文|杜晨 編輯|Vicky Xiao

近日,人工智慧頂級學術會議 NeurIPS 2020,因為疫情的影響,在網絡上正式召開。

大會組委會公布了參會者和全球AI研究者、實踐者最為期待的獎項名單,結果也在意料之中:科研勁旅 OpenAI 提交的超強生成模型 GPT-3 論文(和另外兩篇論文一起)斬獲本屆 NeurIPS 最佳論文獎!

這篇論文標題為 Language Models are Few-Shot Learners, 意即語言模型也可以成為小樣本學習的利器。(arXiv:2005.14165)

OpenAI 研發多年的 GPT 語言生成模型迭代到第三代後,不僅能夠生成各種格式(如新聞、小說、對話等)以假亂真的文本內容,還獲得了十分強大並且多樣的新能力,包括並不限於翻譯、問答、算數等。

不僅如此,OpenAI 還前所未有地將 GPT-3 開發成了一個服務,提供了可以調用的 OpenAI API,並少量提供給包括學術機構、商業公司和個人開發者在內的公眾進行測試。

在今年早些時候的一篇文章中,我們著重介紹這些拿到 OpenAI API 體驗資格的人士,在 GPT-3 強大能力的加持下做出的很多有趣的 demo.

比如,有人利用 GPT-3 的翻譯能力,開發出了英語→LaTeX 數學公式的翻譯器:

還可以用自然語言進行描述,十秒鐘生成一個 Google 首頁:

如果把 GPT-3 放到谷歌表格裡,做成一個可以調用的函數,它將無所不能,可以自動查找美國各州的人口,還能查詢知名人物的社交網絡帳號:

個人開發者 Kevin Lacker 對 GPT-3 做了一次圖靈測試,發現它在絕大部分知識類、常識類、邏輯類的問題,甚至很多角度十分刁鑽的問題上,表現非常令人驚訝。「如果十年前用同樣的問題做測試,我會認為答題者一定是人。現在,我們不能再以為 AI 回答不了常識性的問題了。」 Lacker 在他的博客文章裡寫道。

GPT-3 取得這樣的能力也有著巨大的代價,也恐怕只有財力雄厚的 OpenAI 能夠支持:它的訓練過程使用了超過1750億參數,是其它已知的非稀疏語言模型的十倍。

NeurIPS 2020 組委會在評語中寫道:當語言模型的參數提升到如此前所未有的規模時,它能夠成為小樣本學習模型,而且竟然還可以在無需額外訓練的基礎上,在很多任務上取得非常有競爭力的成績。

對於這篇論文在人工智慧研究之於社會影響方面的探討,組委會也是讚不絕口。評語寫道:這篇論文對於其研究更廣泛的影響也進行了非常深入和有深思熟慮的闡述,對於整個 NeurIPS 社區在思考科研對於真實世界的影響提供了一份範例。

NeurIPS 2020 組委會甚至有點預告 GPT-3 在十年後很有可能獲得時間檢驗獎(Test of Time Award, 地位等於其它學術會議的經典論文獎)的意思。它的評語是這樣寫的:(GPT-3取得的)結果非常令人驚訝,將會在相關領域內造成深遠的影響,並且有可能經受住時間的考驗。

另外兩篇最佳論文獎得主:

No-Regret Learning Dynamics for Extensive-Form Corellated Equilibrium. (arXiv:2004.00603)這篇米蘭理工大學和卡內基梅隆大學研究者的機器學習論文,解決的是一個對於現實世界特別有意義的問題:如何在社會活動中更好地找到均衡。更準確來說,這種均衡叫做「相關均衡」(correlated equilibrium),比人們更經常聽說的「納什均衡」對於社會更有幫助,而且用機器學習的方式更容易計算出來。

而這篇論文提出的結果,解決了博弈論、計算機科學和經濟學交界的一個長期存在的問題,對於諸如導航軟體路線規劃等涉及到博弈論的應用場景,都會有很大的幫助。

Improved Guarantees and a Multiple-Descent Curve for Column Subset Selection and the Nystrm Method. (arXiv:2002.09073)在機器學習的過程中,數據總結是一項重要的工作,但在過去很長時間以來,人們往往認為從越來越大的數據集中提取小且又代表性的子集作為數據總結,是一件很難的事情。而這篇來自UC伯克利的論文指出更優秀的數據總結方法是存在的,對於機器學習研究者可以說是期待已久的福音。

NeurIPS 2020 時間檢驗獎:

HOGWILD!: A Lock-Free Approach to Parallelizing Stochastic Gradient Descent (arXiv:1106.5730)梯度下降是機器學習範疇內的和新方法,而隨機梯度下降 (stochastic gradient descent) 是機器學習的關鍵算法之一。為了優化機器學習模型,以前的研究者需要並行運行隨機梯度下降算法,但當時同行提出的一些方法都對於性能有明顯影響。

由華人第一作者 Feng Niu 等人在 NIPS 2011 上發表這篇論文,提出了一種全新的並行運行隨機梯度下降的 HOGWILD!: 方法,在同行方法上有較大的創新,對於機器學習訓練的優化帶來了很大的幫助,顯著影響了後來的機器學習研究。

通過比較歷史引用、近期引用數量,以及召集本屆組委會的高級專家投票,Feng Niu 等人的這篇論文,從2009-2011年的12篇 NIPS 論文中脫穎而出,獲得了今年 NeurIPS 的時間檢驗獎。

喜歡這篇文章?

相關焦點

  • NeurIPS 2020最佳論文;全卷積網絡實現E2E目標檢測
    機器之心 & ArXiv Weekly Radiostation參與:杜偉、楚航、羅若天本周的重要研究包括 NeurIPS 2020最佳論文以及拋棄 Transformer 使用全卷積網絡來實現端到端目標檢測的探索。
  • 這款「狗屁不通」文章生成器火了,效果確實比GPT 2差太遠
    /BullshitGenerator/index.html 但是關於生成器的工作原理,相信很多人是比較感興趣的。 據貢獻者介紹,本項目最初的目的是用於中文文字 GUI 開發時測試文本渲染,用 Python 3 版本寫成,目前共有 7 位貢獻者。 鑑於目前 AI 用於文字生成非常流行,這個項目是否也用到了 AI 相關算法呢?
  • NeurIPS 2018最佳論文出爐:UT陳天琦、華為上榜
    經歷了改名、搶票和論文評審等等風波的「預熱」,第 32 屆 NeurIPS 於當地時間 12 月 3 日在加拿大蒙特婁正式開幕。
  • 類似傻瓜文案生成器的有哪些?微博超火生成器網頁地址大全[視頻...
    傻瓜文案生成器的玩法很多,微博上也出現了很多熱門的生成器玩法,這次小編會分享一些超級火爆的生成器,下面就是這次小編要給大家分享的內容,想要知道傻瓜文案生成器的玩法和其他生成器的入口,都可以參考下面的攻略哦!
  • 目前最佳的幾個人工智慧開發框架以及(GPT-3)模型簡介
    而目前號稱全球最大的語言模型最大語言模型(GPT-3),它可以生成評測人員難以與人類撰寫的文章區分開的文章。 (GPT-3) 的歷史 Generative Pre-trained Transformer 3 (GPT-3) 其實是一種自動回歸的語言生成模型,它利用深度學習來生成類人文本。
  • 萬能生成器:支付寶、微信截圖都可生成!
    說到裝逼神器,就不得不說到各式各類的微信、支付寶、簡訊截圖生成器了,畢竟這些可以說是微商的入門手冊啊,不過這些截圖軟體往往是單獨的,那有沒有這些截圖生成器集合的軟體呢?不過是不是每個做微商的都賺了錢了呢?那可未必,那為什麼那些朋友圈裡的微商都呈現一種生意火爆的場景呢?
  • 論文摘要的萬能模板
    論文摘要怎麼寫?送你一個萬能模板。
  • gpt分區無法安裝win10的原因是什麼
    我們需要知道gpt 分區是是一種更加靈活的分區機制,源自EFI標準,現在的新電腦基本上都是gpt分區形式。但是使用時也會遇到問題,比如gpt分區無法安裝win10系統,但是如果你使用小白一鍵重裝系統,是可以自動調整的。下面我就給大家介紹一下gpt分區無法安裝win10系統的根本原因。
  • 53年來國內唯三,華為MindSpore論文獲國際頂會最佳論文提名
    最近,來自鄭州數學工程與先進計算國家重點實驗室的趙捷老師與華為MindSpore團隊合作,憑藉著在基礎數學上的能力,解決了一個AI晶片優化的重要問題,獲得了頂級學術會議MICRO 2020的最佳論文提名,MICRO是計算機體系結構領域的國際頂級會議,這也是中國團隊53年第3次入圍該大會的最佳論文提名。
  • 一天star量破千,300行代碼,特斯拉AI總監Karpathy寫了個GPT的Py...
    2018 誕生的 GPT,1.17 億參數;2019 年 GPT-2,15 億參數;2020 年 GPT-3,1750 億參數。短短一年時間,GPT 模型的參數量就呈指數級增長。GPT-3 發布後不久,OpenAI 即向社區開放了商業 API,鼓勵大家使用 GPT-3 嘗試更多的實驗。然而,API 的使用需要申請,而且你的申請很有可能石沉大海。
  • 我用GPT-2創造了3000個寵物小精靈,完美復刻《神奇寶貝》!
    提到NLP模型,我們印象最深的可能是GPT-3。今年該模型因1750億超大參數量和超強應用,在各大媒體平臺頻頻刷屏。GPT-2,與GPT-3師出同門,都是OpenAI研發的自然語言處理模型,兩個模型最大的不同是它的參數量,GPT-2僅為15億。但這並不影響它的應用範圍。與GPT-3類似,GPT-2也可以用來寫故事、畫圖表,或者玩西洋棋。
  • 未轉變者Unturned物品生成器V1.3下載 UCM生成器
    名稱:未轉變者Unturned物品生成器V1.3   運行環境:Windows7/8/8.1     工具說明
  • OpenAI創造出目前最智能的文本生成器
    由埃隆·馬斯克(Elon Musk)創立的人工智慧實驗室OpenAI,最近獲得了微軟10億美元的資助,現在實驗室創造出一款文本生成器,它生成的段落與人類創造的文字,幾乎無法被甄別。
  • GPT-3親自撰文回應「為什麼人類不必懼怕AI?」,答案令人毛骨悚然!
    其原因,一是文中一系列令人毛骨悚然的觀點;二是這篇文章是出自人工智慧—GPT-3之手。GPT-3是有史以來最強大的自然語言處理模型,自從OpenAI開放其API以後,其以令人驚嘆的功能頻頻刷屏。此前,雷鋒網曾多次報導相關文章《GPT-3撰寫「雞湯文」登頂Hacker News榜首》。
  • 馬庫斯開噴GPT-3:演員而已,它根本不知道自己在說什麼
    因為,GPT-3其實根本不知道自己在說什麼。就像是扮演醫生的即興演員,難道還能真的給出靠譜的醫療建議嗎?一起來看看,到底是怎麼回事。馬庫斯:GPT-3令人印象深刻,但不可靠GPT-3的火爆,自然引來了紐約大學教授、「著名AI批評家」馬庫斯的注意。
  • 傻瓜文案生成器 降智商的「黑科技」你試過嗎
    近期又有一款應用上熱搜,叫「傻瓜文案生成器」。什麼是「傻瓜文案生成器」?簡單來說,就是在一個萬能文字模板裡,輸入幾個關鍵要素,就能形成一篇垃圾話文章。不少網友都玩得開心,什麼「狗子太難了,因為狗糧吃多了」、「1+1相信大家都很熟悉,但是1+1等於2是怎麼回事」,於是,一篇廢話,被當成了笑話看。
  • 生成對抗網絡GAN論文TOP 10
    DCGAN 模型:具有上採樣卷積層的生成器架構論文:Unsupervised Representation Learning with Deep Convolutional Generative這篇論文將幫助你了解 GAN 不穩定性的最佳假設。此外,本文還提供了許多用於穩定 DCGAN 訓練的其他機器,包括特徵匹配、 minibatch 識別、歷史平均、單邊標籤平滑和虛擬批標準化。使用這些技巧來構建一個簡單的 DCGAN 實現是一個很好的練習,有助於更深入地了解 GAN。
  • 論文摘要必備五要素!論文通過基礎,趕緊收藏(附摘要萬能模板)
    論文摘要作為一篇論文的門面,目的是用精簡的文字描述文獻內容梗概,這500字寫的好不好將直接影響導師對你論文的第一印象,其次大家在搜索論文的時候,一般就是論文題目與摘要一起出來,即使讀者不閱讀全文也能獲得必要的基本信息,且便於文獻檢索機構對論文學術水平的評析,有利於論文的收錄,增加論文被國際著名資料庫檢索的概率
  • API開放之後,我們才真正領略GPT-3的強大……
    毫無疑問,近期矽谷最火的話題就是 GPT-3 了。甚至有人圍繞 GPT-3 寫了各種笑話,其中比較搞笑的一條:約會第一句話:「我拿到 GPT-3 體驗資格了」GPT-3 是著名人工智慧科研公司 OpenAI 開發的文字生成 (text generation) 人工智慧,相關論文5月份已經發表,當時就以天文數字級別的1,750億參數量引發轟動。
  • Vue.js最佳靜態站點生成器對比
    https://vuepress.vuejs.org/VuePress 是另一個基於 Vue.js 的靜態站點生成器,它最初是作為文檔生成系統開發的。但在 1.x 版發布之後,VuePress 演變成了靜態文件生成器。