GPT-3成精了,萬物皆文本時代來臨!10年內通過圖靈測試?

2020-12-18 新智元

【新智元導讀】自從API開放以後,GPT-3真的要成精了!可以陪你從詩詞歌賦談到人生哲學,還可以畫圖表搞運維做PPT,真的無所不能。GPT-3到底有沒有說的那麼神,又是否過譽呢?

疫情期間你和TA怎麼樣了?

上半年的疫情,讓很多朋友,戀人都不得不相隔兩地,我在海澱頭,君在朝陽尾,日日思君不見君,只能...

這個時候有個GPT-3陪你,看星星看月亮,從詩詞歌賦談到人生哲學。豈不美哉。

還玩什麼戀與製作人啊,直接申請一個API接口,和GPT-3聊天就好了。未來,紙片人+GPT-3的電子男女朋友,市場潛力巨大。

他有時候很直男,總是講一些蹩腳的玩笑哄你開心,尬聊的樣子真可愛。

來源:計算機科學家Kevin Lacker博客

有時候又化身文藝青年,浪子詩人,時不時吟誦一些脫離俗套和低級趣味、另闢蹊徑的隨想,警示金句如下,

「世界上任何你看不慣的東西,都可以用「這不好玩」來應對」

「如果我知道人生的意義是什麼,我還會上這兒來浪費時間嗎?」

如果說最近computer science圈子裡什麼最火,那非GPT-3莫屬。

簡單來說,GPT-2 和 GPT-3 都是一種續寫文本的 AI 模型,開頭給幾句提示,後面的故事全靠他的語言模型一點一點續寫。思路順暢,很少遇到「寫作瓶頸」。

GPT-3 是著名人工智慧科研公司 OpenAI 開發的文本生成 (text generation) 人工智慧,相關論文在5月份發表,當時就以天文數字級別的1750億參數量引發了巨大轟動。

對於語言模型來講,大小真的很重要。要知道,人的大腦也才只有860億個神經元。

API開放了以後,各路網友腦洞大開,讓GPT-3寫代碼,做簡歷,簡直是比男朋友還管用。

一切皆文本的時代要來了!

寫SQL畫圖表搞運維做PPT,GPT-3 要成精!

GPT-3不是被玩壞了,而是玩出了新高度。

你可能還停留在GPT-3驚人的文本生成能力,但看了下面這些應用,你一定會被震撼到,「找老黃買顯卡來不及了,趕快申請API,我要開發自己的GPT應用」!

給GPT-3一個提示,融入各種融入流行文化的表情包就到手了。

什麼,Excel中也能用GPT-3了,還能進行自動推理?演示表格裡列了幾個大公司的CEO,把含有數據的單元格框住,Loading 一秒鐘,自動推斷出了Ben Horowitz所屬的公司,need no operation!

為什麼你的圖表這麼low,別人做的可視化卻賊漂亮,只能強行解釋一波,「不會寫代碼,好看的圖表都是代碼寫的」。現在有了GPT-3,就不用解釋了,只需把你的數據餵給GPT-3,不用Excel表格,嘴說就行!

「3個蘋果,5個梨,2個橙子」,bang!精美的Dash 圖表就生成了。

找工作寫簡歷是個頭疼的事,現在你只要告訴GPT-3你在哪個公司工作了幾年,後面的事就不用管了,條理清楚,格式精美的簡歷就幫你「編好了」,工作年限、主要職責、項目經歷一應俱全。

向老闆匯報工作要做PPT,只需要把文本一複製,就能生成合適的演示文稿。

想找個運維的工作,不會操作AWS?

「你好,我需要創建一個AWS實例,謝謝」。

等一秒鐘,GPT-3:「我好了,你複製下代碼就行」!

簡直要成精啊!

不會寫SQL你好意思說自己是運維?不好意思,有了GPT-3真的可以為所欲為!

運維:「GPT-3,我想查詢下年齡在25到35之間的工人的薪資信息」,

GPT-3:好的,SQL拿去「select salary from worker where age between 25 and 35」。

「增刪改查」工程師已哭暈在廁所。

吃了3000億token的GPT-3,內部如何工作的?

將包含3000億個token的文本餵給GPT-3進行無監督訓練,目前OpenAI已經完成了這一壯舉。你現在看到的所有實驗都來自於這個龐大且昂貴的模型。據估計,它花費的成本高達460萬美元。

我們再來看看它的訓練細節,GPT-3在所有文本中進行滑動,每滑動一個窗口就會生成大量示例。

GPT-3如何處理「robotics」這個單詞並產生「A」 呢?

「robotics」經歷了下面三個過程,首先被轉換為詞向量,中間經過96個Transformer的洗禮,最後再將向量重構為單詞 「A」,如果不是「A」,就開始計算並反向傳遞誤差,直到得出正確的單詞,這一過程要重複數百萬次。

訓練好的模型如何食用呢?只需要簡單的微調即可。比如想應用在英法機器翻譯上,只需要提供給GPT-3少量的平行語料對。

這樣說可能不夠直觀,我們使用Python來演示下如何教會GPT-3幹活。

寫LaTeX公式對非學術研究人員來說是個頭疼的事,但有了GPT-3,LaTeX語法轉換竟是如此簡單。

前面我們說了,如果你想應用在特定任務上,需要給GPT-3一點小小的「提示」,它才能領會到你具體想幹啥。

跟OpenAI申請一個GPT-3的API Key,你就能一鍵調用這個1750億參數的模型了。

想寫一個從a到b的積分,如果不給提示,GPT-3直接返回原文了,但是,如果你輸入個例子,告訴它你想把自然語言翻譯為LaTeX,那GPT-3就心領神會了,完美輸出了f(x)從a到b的積分公式。

OpenAI CEO:GPT-3 只是驚鴻一瞥,是否過譽?

GPT-3對於小白來講,也是一個直觀地感受到人工智慧如此強大的入口。

OpenAI 的CEO Sam Altman講,他把GPT-3展示給一個10歲的小男孩兒,他當即說自己想進入人工智慧領域。

一名開發者認為,GPT-3 確實讓我預感到,在未來10年內,AI有望通過圖靈測試。圖靈測試目的就是測試機器是否具備人類智能。

關於人類智能的討論,又涉及到一個問題,如何定義「人類智能」。到底是只談到它具備人類的「智力」(包括思維能力學習能力等),還是說它應該完整地具有一個「人格」,甚至擁有靈魂等等超越性的東西。讓人想起網上那段著名有關上帝的靈魂拷問。

但業界也紛紛傳出聲音,認為GPT-3有過譽之嫌。Altman在一條推特中謙遜地表示,「GPT-3的宣傳最近太過火了,確實讓人印象深刻,但它仍然有嚴重的弱點,有時會犯非常愚蠢的錯誤。人工智慧將改變世界,但 GPT-3隻是一個非常早期的驚鴻一瞥。我們還有太多問題需要解決。」

業界專家:GPT-3表現出了推理能力,但還不是真正的智能

更有人預測,按照這種進化速度,GPT-3五年內可以部分替代,甚至在某些地方超越心理醫生了。「以後大家最上癮的娛樂就是和GPT-3交流互動了。」

也有網友提出GPT-3並非是全知全能,對長篇大論理解能力差,邏輯推理也繞不過幾個彎,還是沒法給美國執業醫師考試USMLE寫解析,暫時沒法取代內科大夫.....

還想取代內科大夫,要啥自行車?

新智元也就GPT-3是否具有認知智能等問題,採訪了一位NLP領域的資深技術專家,他認為GPT-3跟認知智能還是有點距離,但GPT-3做到了few-shot learning,GPT-3 模型本身就已經學習到了大量的經驗,給一些小樣本做個微調,這種做法和BERT 很像,而成績主要歸功於Transformer,分布式學習+ 長距離依賴,單就原理上來說,沒有本質的突破。

而網友展示的例子背後,也說不定有多少bad case。

認知智能的定義很寬泛,目前也沒有形成統一。理解,自主決策,可思考我認為是其中的幾個核心點,GPT-3展現出來的推理能力只是認知智能的一種表現形式。

反而是近兩年逐漸興起的知識圖譜,在推理智能上表現出了一定潛力,知識圖譜增強了認知智能的可解釋性(路徑可知),但目前在算力、模型、數據上還存在很大的缺陷,還有很長的路要走,要時刻保持清醒。

從長期來看,構建大規模的知識圖譜數據,將知識圖譜學習和深度學習結合起來是一個重要趨勢。

不論是否過譽,GPT-3都預示著一種可以想見的未來。就算GPT-3的理解能力不能和人類劃等號,但在人類永恆的交流欲望面前,GPT-3,一個溫柔,情緒穩定,老實肯幹,懂得分析和思考的AI也許終有一天會勝過人類的陪伴。

參考連結:

https://www.technologyreview.com/2020/07/20/1005454/openai-machine-learning-language-generator-gpt-3-nlp/

相關焦點

  • GPT-3的50種玩法告訴你,它很酷,但是沒有通過圖靈測試
    AI科技評論發現了一個GitHub項目,上面展示了GPT-3的多種玩法,整整50種,包括用GPT-3生成網頁、圖表、代碼、文本以及推理。其中令人吃驚的是,GPT-3能生成Keras編寫的卷積神經網絡的代碼,還能應對程式設計師面試、回覆郵件、寫積分表達式、回答物理問題。特別是,網友還對它進行了一場圖靈測試,而GPT-3表現得還不錯。但是,GPT-3真的通過圖靈測試了嗎?
  • GPT3是暴力美學巔峰?智源研究院欲開發通用智能圖靈測試
    清華大學心理學系教授劉嘉出任該重大研究方向的首席科學家,他在當天的演講中分析人工智慧研究機構Open AI近期發布的生成式語言模型GPT-3。劉嘉提到,GPT-3通過對大量書面材料集與長篇連載文本的預訓練,獲取關於世界的知識,將「暴力美學」發揮到極致,然而卻無法做到理解、共情、推理等對於人類極為容易的事情。
  • 人們提出非常奇怪的問題,還是沒難住它——通過圖靈測試的計算機
    在眾多人機參賽的情況下,尤金一舉奪魁,它以超過30%的圖靈標準通過了圖靈測試,成為被判斷具有「人工智慧」的首臺計算機,由此人工智慧研究邁出了決定性的第一步。先來看一個故事,2014年6月7日,為紀念阿蘭·圖靈,圖靈測試在英國皇家學會隆重開幕。大會由雷丁大學系統工程學院組織,30位評委都是提問題的高手。結果,尤金的聰明與狡黠和它的多知、多慧矇騙了評委。
  • 已通過圖靈測試,人工智慧緣何越來越聰明,它們會「覺醒」嗎?
    人工智慧機器人是否具有主觀意識,能不能自主思考,這個看似十分難以準確定義的問題,早在上世紀50年代就由數學家、邏輯學家、「人工智慧之父」艾倫·麥席森·圖靈給出了解決辦法。 這便是大名鼎鼎的圖靈測試,只要機器通過這項測試,便可認為它擁有智能。
  • 性能堪比GPT-3,但參數量僅為0.1%,LMU團隊推出NLP最強文本生成模型
    與今年微軟推出的Turing NLG(170 億參數),英偉達的 Megatron-BERT(80 億參數)相比,也要高出10多倍。不過,超大模型帶來的性能表現也是顯而易見的。最近《衛報》剛剛發布了一篇由GPT-3撰寫的文章,因文本內容堪比人類而再次引起熱議。但現在,同樣的文本生成效果,其參數量可能只需要GPT-3的0.1%。
  • 關於圖靈和圖靈測試
    圖靈測試:為了避免對「思維」「思想」「自由意志」應該是什麼的哲學式討論,他提出只需要比較機器的表現和人類的表現,就可以判斷一個機器人的思維能力。我們對人類網絡意識的定義,收緊了圖靈測試:圖靈測試需要軟體說服一小組專家,而非單一個體;不只涉及偶然的對話,也關乎自律和移情。比如,一個人可能會批評圖靈測試說,如果木頭鴨子叫的像真鴨子,那麼它就是真鴨子,顯然這是不對的。但是這個批評太過片面,因為圖靈測試的觀點是在測試功能,而非形式。如果木頭鴨子能像鴨子一樣遊泳,那麼它就是真正的鴨子。
  • 帶你去感受智能汽車「圖靈測試」
    日前,在剛剛結束的「2019智能網聯汽車駕駛大賽(廣州)暨2019智能網聯汽車技術大會」活動上,推出了「圖靈測試」智能網際網路連接汽車,記者帶你親身體驗。在遊戲中,裁判與電腦和人進行文本對話,然後裁判需要猜出誰是人,哪個是電腦。他叫他「模仿遊戲」。本文提出了一個假設:一個人在交往情況下,通過一種特殊的方式,以及一系列的問答,如果在很長一段時間內,他不能根據這些問題來判斷對方是人還是計算機,那麼就可以認為這臺電腦和一個人具有同樣的智能,也就是說,電腦可以思考。
  • GPT-3:一個令人失望的語言模型
    GPT-2 論文認為,語言模型(文本預測器)在用作 NLP 基準測試的一些特定任務上可以做得很好,或者在某些場景下「至少不是很糟糕」——即使模型事先並不了解這些任務的細節。這主要是為了證明語言模型的能力有多強。
  • 用GPT-2做個「姥爺」!57行代碼給《瑞克和莫蒂》寫新劇集
    其中佔據外鏈內容前10的主要數據3來自Google,Archive,Blogspot,Github,NYTimes,WordPress,Washington Post,Wikia,BBC以及The Guardian。受過訓練的GPT2模型能根據具體數據集再被進一步調校,比如說最終能夠抓取某個數據集的風格或者能夠做文檔分類。
  • 【八卦】萬物皆可萌 萬物皆可擼
    日本島國是一個非常神奇的國家,他們奉行的原則是萬物皆可萌萬一人家長得就是不萌呢,那就把他萌化——畫成萌萌的妹子或者漢子。這就是萬物皆可萌的終極奧義——擬人,比如網頁遊戲《艦娘Collection》,就是把日本的軍艦擬人萌化,變成萌萌噠妹子!從此之後,日本的阿宅們又奉行了另一條原則:萬物皆可擼!
  • 網際網路原子彈,算力吞噬者:1750 億參數的 AI 模型 GPT-3 引爆矽谷
    算力殺手GPT-3 的論文長達 72 頁,作者多達 31 人。來自 OpenAI、約翰霍普金斯大學的 Dario Amodei 等研究人員證明了在 GPT-3 中,對於所有任務,模型無需進行任何梯度更新或微調,而僅通過與模型的文本交互指定任務和少量示例即可獲得很好的效果。
  • 萬物向內皆可卷
    2020年,「內卷「演化出了各種新的涵義,覆蓋了」大學生『不折手段』刷高GPA」,「普通人的加班消耗戰」,「相親對象條件要求節節拔高」,「雞娃如同軍備競賽」,「茴香豆的『茴』字有幾種寫法」,等等,方方面面,密密麻麻,領域涉及之廣,從與「內卷「捆綁的高頻詞來看,作為社會人,避無可避。
  • 科技史上最大規模圖靈測試?最近火起來的CaaP到底是什麼…
    IT 軟體巨頭獨霸全球科技領域多年;2000年後,伴隨著網際網路時代的興起,有如 Google 等依靠線上服務的網際網路公司迅速崛起,人們開始通過搜尋引擎和瀏覽器與世界連接;2010年後,Facebook、Twitter乃至騰訊旗下的微信為主導社交網絡又成為主流應用,用戶在不知不覺間把社交網絡與日常生活融合了一起。
  • OpenAI發布GPT3 api調用接口!可處理幾乎所有英文問題
    因此這也導致它訓練起來非常昂貴,大概要花1200萬美金,按現在匯率折合成人民幣相當於8500多萬元!!!今天還有博客稱,GPT-3可以看作是研究神經網絡縮放律的一次嘗試。就是說,從一個好的神經網絡開始,把它增大十倍,它能變更聰明嗎?聰明多少?會聰明十倍嗎?能一直這樣做下去,直到它變得無限智慧、或是把所有電腦都用上?」
  • 周伯文對話斯坦福教授曼寧:人機對話智能新進展需要新「圖靈測試」
    「人類不是通過這種方法學習知識的。人類存儲的知識很少,但可以理解大量知識。」曼寧說道。GPT-3 通過高達 1750 億參數實現了其他模型無法匹敵的文本生成效果。作為一個在該領域中務實的研究人員,周伯文非常關注最近預訓練的大規模語言模型以及對語言任務進行微調的功能。
  • 圖靈的人工智慧世界
    1、圖靈設想的工具機 圖靈對智能機器的定義基於一個隱藏的假設,即人的思想具有可以量化的結構。圖靈在自己的論文中沒有直接回答什麼是「思考」的問題,轉而採取了以實驗的方式來應對,這就繞開了哲學家們無窮無盡的追問。簡言之,他認為能通過圖靈測試的機器就是能「思考」的機器。
  • 新超級人工智慧GPT-3,和技術奇點之間,可能只有三個差距
    最複雜的人工智慧超級人工智慧GPT-3註定是2020年人工智慧領域最重要的突破之一,它是目前全球最複雜的人工智慧語言模型,由著名人工智慧開放平臺Open AI開發。GPT-3到底有多複雜?技術上,衡量深度神經網絡複雜程度最重要的標準,是深度神經網絡的參數數量,而GPT-3的參數數量達到了1750億個,是微軟的超級人工智慧「圖靈NLG」的10倍。GPT-3是一個純語言模型,輸入輸出是文字,訓練GPT-3使用的也都是純文字。
  • 龔學明:世間萬物皆親人
    《世間萬物皆親人》,是江蘇詩人龔學明的新作。在疫情肆虐的今年,詩集字裡行間哲學意義般的審視,仿佛與現今我們所提倡的「人與自然和諧共生」理念不謀而合。「我覺得,無論人和物都統一在生命的概念之下,世間萬物和人一樣,皆有悲喜情緒。」
  • OpenAI 發布兩個 GPT-3 模型,圖像匹配文本 CLIP 和 文本生成圖像...
    此前,GPT-3 的輸出可能會看上去與實際脫節,讓人感覺莫名其妙,這是因為它確實不知道自己在說什麼。因此,OpenAI 和其它地方的研究者試圖將圖像與文本結合起來,讓 AI 更好地理解人類日常事物的概念。
  • 安培、圖靈、RNDA比一比:三大架構顯卡能耗比對比測試
    8nm製程工藝,在官方的宣傳中,英偉達測試表明,在《控制》這款遊戲中,在60 FPS時基於圖靈架構的GPU所消耗的功耗是安培架構GPU的1.9倍,即安培架構顯卡在這裡表現出相對於圖靈顯卡1.9倍的能耗比提升。