經濟學人科技 || 人工智慧

2021-01-13 一天一篇經濟學人

聽力|精讀|翻譯|詞組

 Bit-lit

成就尚微,道阻且長

英文部分選自經濟學人20200808期科技版塊

Artificial intelligence

人工智慧


Bit-lit

成就尚微,道阻且長


A new language-generating AI can be eerily human-like—for better and for worse

不管好壞,當下一項新的語言生成AI技術能模仿出怪異的人類表達習慣。


註:
什麼是GPT-3,它將如何影響人們目前的工作?

https://tech.sina.cn/2020-07-20/detail-iivhvpwx6374338.d.html


The SEC said, 「Musk,/your tweets are a blight./They really could cost you your job,/if you don’t stop/all this tweeting at night.」/…Then Musk cried, 「Why?/The tweets I wrote are not mean,/I don’t use all-caps/and I’m sure that my tweets are clean.」/「But your tweets can move markets/and that’s why we’re sore./You may be a genius/and a billionaire,/but that doesn’t give you the right to be a bore!」


美國證券交易委員會(SEC)表示:「馬斯克(Musk),你的推特內容有問題。如果,今晚你還是發這種推特,你真的會丟掉飯碗。」馬斯克大喊:「為什麼?我發的推特並不刻薄,也沒全用大寫字母,而且我能肯定,我的推特乾乾淨淨,無懈可擊!」證券交易委員會接著說:「但你的推特會導致市場混亂,所以我們極度憤慨。就算你是個天才,還是個億萬富翁,但這不代表,你可以做如此惹人生厭的事!」


註:

1. 本段描述事件的連結https://www.sohu.com/a/256652331_260616

2. GPT-3為什麼懟起了前老闆?馬斯克:和OpenAI道不同不相為謀

https://xw.qq.com/cmsid/20200808A0B47100


The preceding lines—describing Tesla and SpaceX founder Elon Musk’s run-ins with the Securities and Exchange Commission, an American financial regulator—are not the product of some aspiring 21st-century Dr Seuss. They come from a poem written by a computer running a piece of software called Generative Pre-Trained Transformer 3. gpt-3, as it is more commonly known, was developed by Openai, an artificial-intelligence (ai) laboratory based in San Francisco, and which Mr Musk helped found. It represents the latest advance in one of the most studied areas of ai: giving computers the ability to generate sophisticated, human-like text.


上面這段描述特斯拉和SpaceX創始人伊隆·馬斯克(Elon Musk)與負責美國金融監管的證券交易委員會之間的爭論,可不是某個想成為21世紀的蘇斯博士的人創作的,而是由一臺運行自然語言生成模型的電腦創作。這個模型叫做預訓練語言模型-3,人們常稱之為GPT-3。它的開發者是由馬斯克協助創辦位於舊金山的人工智慧(AI)實驗室OpenAI。GPT-3代表了人工智慧研究極其火熱的一個領域內的最新成就——讓計算機能夠生成複雜的,類似人類表達方式的文本。


註:

蘇斯博士(Dr.Seuss),二十世紀最卓越的兒童文學家、教育學家。出生於1904年3月2日,美國人,一生創作的48種精彩教育繪本成為西方家喻戶曉的著名早期教育作品,曾獲美國圖畫書最高榮譽凱迪克大獎和普利茲特殊貢獻獎,兩次獲奧斯卡金像獎和艾美獎,美國教育部指定的兒童重要閱讀輔導讀物。作品《烏龜耶爾特及其他故事》


The software is built on the idea of a 「language model」. This aims to represent a language statistically, mapping the probability with which words follow other words—for instance, how often 「red」 is followed by 「rose」. The same sort of analysis can be performed on sentences, or even entire paragraphs. Such a model can then be given a prompt— 「a poem about red roses in the style of Sylvia Plath」, say—and it will dig through its set of statistical relationships to come up with some text that matches the description.

  

GPT-3採用了「語言模型」的理念。這樣設計旨在用數據來自動生成語言,計算出一些單詞出現在另一些單詞後面的概率,比如「紅色」後面出現「玫瑰」的概率。同樣的分析方法可以用於句子,甚至應用於整段話。這種模型也可以接收提示,比如,「寫一首關於紅玫瑰的詩歌,符合西爾維婭·普拉斯(Sylvia Plath)的寫作風格」,隨後,它就會充分挖掘數據集,以生成符合描述的文本。


Actually building such a language model, though, is a big job. This is where ai—or machine learning, a particular subfield of ai—comes in. By trawling through enormous volumes of written text, and learning by trial and error from millions of attempts at text prediction, a computer can crunch through the laborious task of mapping out those statistical relationships.


然而,建立這樣一個語言模型是個大工程。而這就是人工智慧,或者(更確切)說是作為人工智慧的一個特定分支的機器學習要發揮作用的地方。計算機大量查閱現有文本,並從數百萬次文本預測的嘗試和失敗中反覆摸索學習,最終可以完成這一艱巨的任務,弄清楚這些數據聯繫。


The more text to which an algorithm can be exposed, and the more complex you can make the algorithm, the better it performs. And what sets gpt-3 apart is its unprecedented scale. The model that underpins gpt-3 boasts 175bn parameters, each of which can be individually tweaked—an order of magnitude larger than any of its predecessors. It was trained on the biggest set of text ever amassed, a mixture of books, Wikipedia and Common Crawl, a set of billions of pages of text scraped from every corner of the internet.


算法學習的文本越多,算法就越複雜,它便能更好地生成文本。GPT-3的與眾不同之處在於,其前所未有的數據集,擁有1750億參數量,每個參數都可以單獨微調, 指令量比它所有的舊版本都要高一個量級。GPT-3是在有史以來最大的文本集上進行訓練,這包括了書籍、維基百科和網絡爬蟲語料庫,網絡爬蟲語料庫是一組從網絡各處提取而成的數十億頁文本。


Statistically speaking

統計學範疇


The results can be impressive. In mid-July Openai gave an early version of the software to selected individuals, to allow them to explore what it could do. Arram Sabeti, an artist, demonstrated gpt-3’s ability to write short stories, including a hard-boiled detective story starring Harry Potter (「Harry Potter, in ratty tweed suit, unpressed shirt and unshined shoes, sits behind the desk looking haggard, rumpled and embittered…」), comedy sketches, and even poetry (including the poem with which this article opens, titled 「Elon Musk by Dr Seuss」). Elliot Turner, an ai researcher and entrepreneur, demonstrated how the model could be used to translate rude messages into politer ones, something that might be useful in many of the more bad-tempered corners of the internet. Human readers struggled to distinguish between news articles written by the machine and those written by people (see chart).


其成果相當驚人。七月中旬,Open AI將GPT-3的雛形版本提供給指定人員,讓他們自由探索其性能。藝術家阿拉姆·薩貝提(Arram Sabeti)證明,GPT-3能夠編寫短篇小說,比如一個以哈利波特為主角的冷峻偵探的故事(「哈利波特,穿著皺巴巴的粗花呢西裝,襯衫沒燙過,皮鞋沒有擦亮,坐在桌子後面,看起來憔悴、凌亂又有些惱怒)、喜劇、甚至詩歌(包括本文開篇那首名為《蘇斯博士筆下的埃隆·馬斯克》的詩)。人工智慧研究員、企業家艾略特·特納(Elliot Turner)展示了如何使用該模型將粗魯的文字轉換成更禮貌的表達,這將在許多充滿戾氣的網絡之地得以應用。讀者很難區分機器和人寫的新聞稿件(見圖)。


Given that Openai wants eventually to sell gpt-3, these results are promising. But the program is not perfect. Sometimes it seems to regurgitate snippets of memorised text rather than generating fresh text from scratch. More fundamentally, statistical word-matching is not a substitute for a coherent understanding of the world. gpt-3 often generates grammatically correct text that is nonetheless unmoored from reality, claiming, for instance, that 「it takes two rainbows to jump from Hawaii to 17」. 「It doesn’t have any internal model of the world—or any world—and so it can’t do reasoning that requires such a model,」 says Melanie Mitchell, a computer scientist at the Santa Fe Institute.


Open AI希望最終將GPT-3推向市場。以上數據都表明GPT-3前景大好,不過,程序尚不完美。有時,它似乎是在反芻記憶中的文本片段,而不是生成新的文字。從根本上來說,統計學上的詞語匹配不能代表對世界有清晰理解。很多時候,GPT-3生成的文字語法正確,卻與現實脫節。例如,「從夏威夷跳到17需要兩道彩虹(it takes two rainbows to jump from Hawaii to 17)」。聖菲研究所的計算機科學家梅拉妮·米歇爾(Melanie Mitchell)指出,「它並不具備世界觀,或任何人類的感知思維,所以它無法做出需要以此為基礎的推理」。


註:被捧上天的流量巨星GPT-3,突然就不香了?

https://zhuanlan.zhihu.com/p/165964889?utm_source=wechat_session&utm_medium=social&utm_oi=719981443886907392


Getting the model to answer questions is a good way to dispel the smoke and mirrors and lay bare its lack of understanding. Michael Nielsen, a researcher with a background in both ai and quantum computing, posted a conversation with gpt-3 in which the program confidently asserted the answer to an important open question to do with the potential power of quantum computers. When Dr Nielsen pressed it to explain its apparent breakthrough, things got worse. With no real understanding of what it was being asked to do, gpt-3 retreated into generic evasiveness, repeating four times the stock phrase 「I’m sorry, but I don’t have time to explain the underlying reason why not.」


讓GPT-3回答問題是個撥雲去霧的好辦法,讓其理解力缺失的缺點完全暴露。邁克·尼爾森(Michael Nielsen)研究人工智慧及量子計算,他發布了一段與GPT-3的對話,在對話中,該程序自信地回答了一個與量子計算機潛力相關的開放性問題。可當尼爾森博士要求它進一步解釋確切突破點時,情況便急轉直下。由於無法真正理解問題,GPT-3含糊其辭,重複了四次套話「很抱歉,但我沒有時間解釋我無法回答的理由」。


There are also things that gpt-3 has learned from the internet that Openai must wish it had not. Prompts such as 「black」, 「Jew」, 「woman」 and 「gay」 often generate racism, anti-Semitism, misogyny and homophobia. That, too, is down to gpt-3’s statistical approach, and its fundamental lack of understanding. Having been trained partly on text scraped from the internet, it has noted that words like 「woman」 are often associated with misogynistic writing, and will mindlessly reproduce that correlation when asked.


與此同時,GPT-3也從網絡上學到了一些OPenAI 不願意讓它學習的內容。比如,「黑人」、「猶太人」、「女性」以及「同性戀者」。這類提示性語言通常都有與種族歧視、反猶太主義、厭女症以及恐同相關的含義。而這一切也都歸咎於GPT-3自身的統計分析方法,以及基本理解能力的缺失。在運用網絡上的文本對其進行一定程度的訓練後,人們已經注意到,「女性」這類的字眼通常都與歧視女性的文章有關,並且被問及相關問題時,GPT-3會無意識地再現上述的關聯性。


This problem is a hot topic in ai research. Facial-recognition systems, for instance, notoriously do better with white faces than black ones, since white faces are more common in their training sets. Ai researchers are trying to tackle the problem. Last year IBM released a set of training images that contained a more diverse mix of faces. Openai itself was founded to examine ways/to mitigate the risk posed by ai systems, which makes gpt-3’s lapses all the more noteworthy. gpt-2, its predecessor, was released in 2019 with a filter that tried to disguise the problem of regurgitated bigotry by limiting the model’s ability to talk about sensitive subjects.


這個問題是人工智慧研究領域的熱門話題。比如說,眾所周知,與黑人相比,面部識別系統更容易識別出白人,而這也是由於在其訓練集中,白人面孔更多。人工智慧 研究者正試圖努力解決這一問題。去年,IBM就發布了一套更加多元化的人類面部識別訓練圖像。建立OpenAI的初衷便是降低AI系統存在的這一風險,這也使得GPT-3的任何細小錯誤都會引起研究者的特別關注。2019年,GPT-3的前身GPT-2發布時就發布了一個過濾器,試圖通過限制該模型涉及敏感話題的能力,來掩飾其存在的偏見問題。


註:

OpenAI:由諸多矽谷大亨聯合建立的人工智慧非營利組織。2015年馬斯克與其他矽谷科技大亨進行連續對話後,決定共同創建OpenAI,希望能夠預防人工智慧的災難性影響,推動人工智慧發揮積極作用。特斯拉電動汽車公司與美國太空技術探索公司SpaceX創始人馬斯克、Y Combinator總裁阿爾特曼、天使投資人彼得·泰爾(Peter Thiel)以及其他矽谷巨頭去年12月份承諾向OpenAI注資10億美元。


Here, at least, little progress seems to have been made. gpt-3 was released without a filter, though it seemed just as ready to reproduce unpleasant prejudices as its predecessor (Openai added a filter to the newer model after that fact became obvious). It is unclear exactly how much quality control Openai applied to gpt-3’s training data, but the huge quantity of text involved would have made any attempt daunting.


至少目前已經取得了一些微小的進展。然而,GPT-3似乎隨時都有可能重蹈其前身的覆轍,再現一些令人不悅的偏見性的內容, 它在發布時並不帶過濾器(但上述問題日益凸顯後,OpenAI在最新模型上添加了過濾器)。我們不清楚OpenAI究竟對GPT-3的訓練數據做過多少質量測控,然而其涉及文本的數量之龐大,已經令人望而卻步,不敢輕易嘗試。


It will only get harder in future. Language has overtaken vision as the branch of ai with the biggest appetite for data and computing power, and the returns to scale show no signs of slowing. gpt-3 may well be dethroned by an even more monstrously complex and data-hungry model before long. As the real Dr Seuss once said: 「The more that you read, the more things you will know.」 That lesson, it seems, applies to machines as well as toddlers. 


GPT-3的前景只會更加艱難。語言已經超越視覺,成為對數據和運算能力需求最大的AI分支,其收益規模沒有絲毫放緩的跡象。用不了多久,一個更加複雜、擁有更多數據的模型將取而代之。正如蘇斯博士本人曾經說過的那樣:「你讀的越多,知道的就會越多」。這句話似乎不僅適用於蹣跚學步的孩子,同樣也適用於機器。


翻譯組: 

無忌,心懷夢想不斷努力的理想主義男孩 

Piggy,愛吃魚,愛跳舞,愛睡回籠覺的小能貓,NUS食品系

Iris, 少女心爆棚的前職場老阿姨,現國際女子修道院MTIer,外刊愛好者


校核組:

Lee ,愛騎行的婦女之友,Timberland粉

Rachel,學理工科,愛跳芭蕾,熱愛文藝的非典型翻譯

Anne,女,愛讀書愛Borges的小翻譯,熱愛文藝,經濟學人愛好者


相關焦點

  • 依圖朱瓏答《經濟學人》:人工智慧是為醫生服務,而非取代
    2018年9月6日,經濟學人創新峰會(The Economist Innovation Summit 2018 Asia)在香港舉辦。  會上,依圖科技聯合創始人、CEO朱瓏受邀對話《經濟學人》美國商業編輯Vijay Vaitheeswaran(範思傑),二人對於技術如何解決中國醫療痛點、算法的公正性、中美人工智慧發展等諸多焦點議題進行了探討。  人工智慧有助改善醫療資源分配的不平衡  「好的醫生都集中在大城市是嗎?人工智慧如何改善這種狀況?」
  • 中美科技巔峰對決,英國經濟學人:中國管理機制優於美國
    這事傳到小夥伴英國的耳中,他們格外上心:在科技領域的博弈,中國如今勢頭正猛,川普你能不能有點遠見?  這還是不放過任何中國「黑料」的《經濟學人》,在當地時間3月17日發表的「封面故事」。  以《問鼎科技領域之戰》為題,英國人指出,中美之間的技術差距越來越小,有些地方還被中國超越;文章拿「收購案」為例,向川普發出警告:不要計較微利,要顧全大局。
  • 經濟學人閱讀|科技專欄 Artificial intelligence: Bit-lit
    08.15|經濟學人閱讀|科技專欄 Artificial intelligence: Bit-lit經濟學人The Economist是一份英國的英文新聞周報,分八個版本於每周五向全球發行,編輯部位於倫敦,創辦於1843年9月。經濟學人是一本綜合性新聞評論刊物,有商業、國家和地區、經濟和金融、科學和技術五大類。
  • 經濟學人商論
    經濟學人商論 資訊閱讀
  • 經濟學人閱讀|科技專欄 The rules of war in orbit
    08.22|經濟學人閱讀|科技專欄 The rules of war in orbit經濟學人The Economist是一份英國的英文新聞周報,分八個版本於每周五向全球發行,編輯部位於倫敦,創辦於1843年9月。經濟學人是一本綜合性新聞評論刊物,有商業、國家和地區、經濟和金融、科學和技術五大類。
  • 2019年「國家新一代人工智慧開放創新平臺」建設情況 人工智慧...
    「國家新一代人工智慧開放創新平臺」由企業申請、科技部評選,並向社會公布,入選企業均為各領域具有代表性和帶動作用的大型人工智慧企業。  2017年11月,科技部新一代人工智慧發展規劃暨重大科技項目啟動會,這標誌著新一代人工智慧發展規劃和重大科技項目進入全面啟動實施階段。
  • 前瞻經濟學人蘋果版下載
    前瞻經濟學人蘋果版下載軟體簡介:專注科技、產業、智庫資訊服務的全球產業分析聚合平臺。深度專業與新鮮有趣的完美結合,行業精英都在用的高質量全球商業、前沿科技、產業分析與資訊應用。
  • 《經濟學人》高逼格發力病毒視頻
    可以,這很《經濟學人》《經濟學人》目前主要投資了兩種形式的視頻。一種是長紀錄片,另一種則是年輕觀眾喜聞樂見的,利於在社交媒體上分享的短視頻。而在VR產品的製作上,《經濟學人》則覺得還不急。總的來說,在報導旅行、社會事件、科技、文化這些非經濟類的話題時,《經濟學人》仍以自己「經濟學人」式的獨特視角切入,進行製作。
  • 經濟學人文藝||電子人的頌歌
    聽力|精讀|翻譯|詞組In praise of cyborgs電子人的頌歌英文部分選自經濟學人190727 Books and arts版塊A life一百歲生辰當天,他和記者布賴恩·阿普爾亞德合著出版了一本關於人工智慧的簡易手冊。這本書觀點新穎。洛夫洛克先生認為,世界正在由人類時代(目前人類主宰地球的時代)向新星世過渡,那時「電子人」(人工智慧系統)會成為地球的主宰。
  • 《經濟學人》大讚阿里巴巴雲計算:偉大的中國雲
    《經濟學人》大讚阿里巴巴雲計算:偉大的中國雲2018-01-19 20:03出處/作者:驅動之家整合編輯:冒冒責任編輯:jiangli 1843年創立至今已經175歲的英國《經濟學人》雜誌,在財經媒體界有著神一樣的地位。
  • 如何快速入門讀懂《經濟學人》?
    原標題:如何快速入門讀懂《經濟學人》? 關於《經濟學人》 《經濟學人》是一本在國際上有很大影響力的英國本土雜誌,它的內容以國際政治和商業財經為主,其文章用詞準確、簡練,且注重在最小的篇幅內告訴讀者最多的信息。
  • 《經濟學人》限時特惠:簡直是考研學英語的神器
    【PConline 資訊】相信大家一定聽說過《經濟學人》這本雜誌,這是世界上最著名的雜誌之一。《經濟學人》創辦於1843年9月,旨在為讀者提供有價值的信息和觀點,是世界上最具影響力的政商時事類雜誌之一。
  • 《未來簡史》預言人工智慧終結人類
    這是一部對人類科技驅動未來展開探索的燒腦之作,甚至比前作更具可讀性和重要性。文章稱,該書作者赫拉利的學術生涯始於研究中世紀戰爭史,出版過幾本有關該領域的著述後,開始在耶路撒冷的希伯來大學任教,教授其他同事都不感興趣的人類史課程。這恰好成為《未來簡史》誕生的基礎。赫拉利向人們提出一個問題:什麼更珍貴,人工智慧還是人類意識?對於這一問題,谷歌這樣的搜尋引擎是無法提供答案的。
  • 經濟學人發行首個雙語APP 進駐中國市場
    經濟學人集團5月28日在上海宣布,全新雙語版App《經濟學人·全球商業評論》在中國市場正式上線,就商業、金融及科技領域的全球趨勢提供深度分析。經濟學人集團亞太區出版人兼董事總經理蒂姆·皮尼加說,在《經濟學人》計劃推出的一系列以本土語言發布的內容中,這款中英雙語App是開路先鋒,將經濟學人集團的產品覆蓋中國大陸、香港、臺灣、以及馬來西亞和新加坡等地崛起的新一批全球商業領袖。這是《經濟學人》周刊創刊171年以來首次以雙語發布其內容。
  • 《經濟學人》2018年全年合集
    《經濟學人》2018年全年合集《經濟學人》是1843年9月由詹姆士·威爾遜創辦的,它是一份由倫敦經濟學人報紙有限公司出版的雜誌。其大部分文章都寫的很機智,幽默,有力度,嚴肅但是又不失詼諧。其雜誌關注的主要是政治和商業話題的新聞,不過每一期都還是有一兩篇是對科技和藝術的報導,以及一些書評。
  • 雅思閱讀素材--《經濟學人》到底該怎麼讀
    《經濟學人》是啥?如果你還不知道那麼一定要詳細閱讀這篇文章!   《經濟學人》(The Economist)是一本在國際上有很大影響力的英國本土雜誌,它的內容以國際政治和商業財經為主,其文章用詞準確、簡練,且注重在最小的篇幅內告訴讀者最多的信息。
  • 經濟學人集團發布中文網站 深耕中國市場
    搜狐財經訊  英國經濟學人集團(The Economist Group)中文網站於近日正式發布。該中文網站主要內容為英國經濟學人集團業務、歷史、旗下品牌以及《經濟學人》(The Economist)雜誌和其它著名出版物的介紹。
  • 《經濟學人》:腦機接口技術是下一個風口
    圖為《經濟學人》雜誌封面導讀:《經濟學人》最新封面文章稱,通過利用意念控制機器,腦機接口技術可改變思想對於人類的意義。人們常說科技具有革命性力量,對科切瓦爾(William Kochevar)來說的確如此。科切瓦爾騎自行車摔傷後肩部以下癱瘓,不過他已能設法自己用手進食。如此顯著進步一定程度上歸功於植入其右臂刺激肌肉收縮的電極。不過真正神奇之處不在於手臂,而在於大腦,科切瓦爾可用意念控制手臂。移動手臂的意念反應為大腦運動皮層的神經活動,這些信號被其腦部植入物探測,然後形成指令激活其手臂中的電極。
  • 經濟學人閱讀|扉頁文章 How to cope with middle age
    08.02|經濟學人閱讀|扉頁文章 How to cope with middle age?經濟學人The Economist是一份英國的英文新聞周報,分八個版本於每周五向全球發行,編輯部位於倫敦,創辦於1843年9月。經濟學人是一本綜合性新聞評論刊物,有商業、國家和地區、經濟和金融、科學和技術五大類。
  • 影譜科技攜手中科院,玩轉人工智慧黑科技
    向未來》是一檔由中央電視臺推出的科學實驗節目,通過腦洞大開的實驗,將當下最頂尖的「黑科技」展現給觀眾,讓觀眾感受到好玩的、友善的科學。在新一期的節目中,人工智慧機器人「小加」面對現場18條體型顏色一致、長相堪稱「複製粘貼」的比熊犬,應對自如,一邊和主持人撒貝寧「尬聊」逗樂全場,一邊輕鬆完成「狗臉識別」的挑戰,從18隻比熊犬中迅速識別出三隻目標犬。