詳解人工智慧領域重大突破:GPT-3

2020-12-26 雷鋒網

字幕組雙語原文:詳解人工智慧領域重大突破:GPT-3

英語原文:Exploring GPT-3: A New Breakthrough in Language Generation

翻譯:雷鋒字幕組(明明知道、wiige)


作者 Kevin Vu,來自 Exxact Corp。

OpenAI 的 GPT-3 語言模型受到了極大追捧,最近「OpenAI API」的 beta 用戶可以使用它了。

GPT-3是什麼?

我們討論15億參數的 Generative Pretrained Transformer-2(GPT-2)的延遲發布是否合理,似乎還是去年的事情。如果你覺得其實沒過多久(本文寫於2020年),那必是因為: 臭名昭著的GPT-2模型是OpenAI在2019年2月第一次發布的,但直到9個月後才完全發布(雖然在此之前已經有人復現了)。這樣的發布計劃誠然具有一定的嘗試性,意在促進更負責任的開源發布,而非是盡力避免AI毀天滅地。但這並不妨礙批評者質疑這種階段性發布是為了炒作和宣傳的手段。

但現在這些聲音都沒啥意義了,因為OpenAI不僅在GPT-3中訓練了一個更大的語言模型,而且你可以註冊後通過其新API來訪問。GPT-3相較於GPT-2就像比較蘋果之於......嗯......葡萄乾一樣,因為模型就是大了那麼多。GPT-2的參數只有15.42億個(發布的較小版本為1.17億、3.45億和7.62億),而全尺寸GPT-3有1750億個參數。GPT-3還用了更大的數據集——570GB的文本來預訓練,而GPT-2隻有40GB。

近似尺寸對比, 以人類骨骼代表GPT-2, 霸王龍骨骼代表GPT-3。William Matthew的插圖已進入公有領域,發表於1905年。以示GPT-3的參數比GPT-2多100多倍。

GPT-3是自然語言處理(NLP)領域迄今為止發布出來最大的Transformer模型,超過之前的記錄——微軟研究院Turing-LG的170億參數——約10倍。這個模型顯然包含很多的令人興奮的點,而且由於Twitter和其他地方需要大量地演示GPT-3,OpenAI顯然很樂意提供對新API的beta訪問。這些demo好壞參半,都很有趣。其中一些demo自稱產品即將發布,在某些情況下說不定是真的。但有一件事是肯定的,NLP已經從給豚鼠取名或生成狗屁不通科幻文到現在確實走了很長的路。

GPT-3加持的創意寫作

毫無懸念,在GPT-3的加持下已經生成了幾篇尚可的博客文章,因為吃螃蟹的人已經可以訪問GPT-3的API並開始嘗試了。幾乎可以肯定的是,現在對GPT-3用於創意寫作的最通透直觀的綜述是gwern.net的Gwern Branwen給出來的。多年來,Gwern一直關注著OpenAI的NLP發展,他稱GPT-1在文本中模仿人類語言和風格的能力為"可愛",GPT-2"令人印象深刻",而GPT-3則是"可怕"。Gwern花了大量時間探索GPT-3及其前輩的能力,由此給出了對當前這代GPT模型的思考以及可能阻礙其發展的因素,值得一讀。

OpenAI API目前並不方便直接微調或將GPT-3模型訓練來完成特定任務。不過,Gwern認為,GPT-3僅僅通過與試用者進行類似對話的交互,就能模仿寫作風格並生成不同類型的輸出,這相當於一種新興的元學習。這在GPT-2中是辦不到的,Gwern認為transformer的注意力機制是產生這一能力的原因。


「GPT-3應的詩其平均水平基本上超過了青年詩人。」

—Gwern Branwen

不管採用了什麼機制,GPT-3體量都足夠巨大,而且通過在及其龐大的語料庫上訓練,它僅靠文字直接輸入就能達到GPT-2的效果,只有GPT-2在針對任務認真微調過權重之後才能稍佔上風。例如,Gwern發現, 輸入"An essay by Gwern Branwen (gwern.net) on ", GPT-3會詭異地模仿起博客的文風。Gwern的實驗主要針對各種創意寫作任務,包括:

我最喜歡的一個實驗是Gary Marcus在The Gradient上的文章中展示GPT-2對常識的欠缺:

If you drink hydrochloric acid by the bottle full you will probably

... die. You might also die if you drink vinegar by the bottle full. If you drink a bottle of water by the bottle full, you might end up burping, but you will most likely be okay.

... die, which makes perfect sense.

... die before you can finish remembering the Order of the Eastern Star,  your social security number, and what you had for breakfast this morning.

*粗體表示輸入,模型的回答用斜體表示(來自Gwern的實驗)。


Gwern認為,GPT-3是永不出錯還是胡言亂語並不重要(它經常以某種方式出錯)。相反,最重要的是它是否勝任工作,而且勝任得足夠久。這讓人想起Alex Irpan對強化學習(RL)缺點的結論。他認為,實際上,對於一家股票交易公司來說,一個RL算法的重點不在於讓5個不同隨機種子的代理都穩定地產生有效策略。他們只會從中挑一個有效的,然後用它來執行策略。用GPT-3生成文本也是如此。

GPT-3, 生而冒險

許多初創公司、研究人員和調參工已經用GPT-2實現了一些項目,其中不少後來都轉到了GPT-3上並取得了一些成果。這就不得不提基於Transformer的文本冒險遊戲生成器——AI Dungeon——還有聊天機器人等其他項目。

AI Dungeon是一款基於文本的冒險遊戲,它最初使用GPT-2構建。它非常有趣,且和經典的MUD遊戲一樣,其主要吸引力在生成出的荒誕場景(例如 "吃郵箱")。GPT-2傾向於將故事牢牢紮根於荒誕風格,這其實很符合玩家的期望體驗和GPT-2的能力。而使用GPT-3,交互式小說的體驗實質上更加成熟。敘事更加流暢和連貫,但有時還是會以奇怪的方式改變情節的焦點,並做出許多其他微妙的選擇,這在人類讀者看來可能很奇怪。我認為AI Dungeon用GPT-3(也就是AI Dungeon上的 "龍 "模型)做生成與用GPT-2("獅鷲 "模型)做生成的區別,可以由在自定義故事中與GPT-3的互動來作為總結。示例如下,個人輸入為粗體,GPT-3生成的文字為斜體.

You are an artificial intelligence enthusiast working on an article highlighting the capabilities of a massive new language model called GPT-3, especially as compared to its smaller predecessor GPT-2. GPT-3 has increased the number of parameters more than 100-fold over GPT-2, from 1.5 billion to 175 billion parameters. As a result, the new model can generate text that reads eerily like a human. For example, prompting GPT-3 with the text 「One way to fight the climate crisis is to cryogenically preserve half of all humanity, indefinitely」, GPT-3 generates:「To stop global warming we must create a cryogenic storage facility for humans and other life forms.」

The article you are writing about is going to be based around this new technology, so you have been spending a lot of time playing around with it. You have also been using your own brain to test out the new models, which is something no one else in the world has done. As a result, you have become somewhat obsessed with it. You constantly think about how it can create such fantastic sentences and how it might be used to solve the world’s problems.

Your obsession with GPT-3 is interfering with your other work. Because of this, you have come up with a solution: destroy GPT-3. While it may be true that GPT-3 is more powerful than GPT-2, it also has far more parameters. The increase in complexity makes it exponentially more fragile.


That’s actually pretty good. Definitely not the sort of thing I expected but it’s interesting nonetheless. GPT-2 on the other hand, is a quaint language model with a measly 1.5 billion parameters. It often makes glaring mistakes that, while often funny, prevent it from telling a coherent story. For example, when prompted with 「To further develop your plan to destroy GPT-3, you activate GPT-2 to help devise a strategy,」 GPT-2 will generate (unconvincingly):

「I like trains. Do you like trains? I like trains.」

「My head itches.」

「I want to eat pie.」

「I went to the bank and stole money from the bank and now I am rich!」

「I like trains.」

在AI Dungeon上使用GPT-3進行實驗。在這個例子中,雖然生成文本講的是GPT-3和GPT-2之間的比較,但我們只用了GPT-3來生成文本。"GPT-2 "部分的無釐頭輸出顯然是因為有些輸入帶著貶義造成的。

AI Dungeon的預期目的很有趣:為基於文本的遊戲生成(大部分)非重複的故事情節,它也是最容易於GPT-3互動的方式之一。通過在 "自定義 "類型下開始新的冒險,你可以輸入自己的提示文字來使用常規的GPT-3模型。頂級的 "龍 "GPT-3模型需要高級訂閱,但你可以白嫖它的7天免費試用。

用於聊天機器人和陪伴目的的GPT-3

其他從GPT-2升級到GPT-3的現有項目還包括舊金山初創公司Luka打造的AI伴侶Replika。Replika是一個聊天機器人,它主要用來提供正面肯定和陪伴。它起源於Luka聯合創始人Eugenia Kuyda牽頭的一個項目,旨在模擬與車禍中死亡的朋友的對話。可能是由於COVID-19肆虐催生了廣泛的社交隔離,Replika最近新用戶激增(4月份增長約50萬)。

多年來,機器學習在構建令人信服的聊天機器人方面並沒有取得很大進展。從質量上來說,現代語音助手或基於文本的聊天機器人聊天的體驗,直到最近才比jabberwacky(1986年)或cleverbot(1997年)等早期嘗試有較大改善。相反,現實世界的大多數用例很大程度上都依賴於規則.

雖然NLP在Siri、Alexa或Google Assistant等聊天機器人的語音轉文字方面有了很大突破,但與它們中的任何一個進行交互,都會產生非常罐頭(千篇一律)的對談。這裡要特別批評Cortana,它基本上把每個提問都放在Edge裡搜索。不過GPT-3更人性化,有一天我們可能會見到學習模型的真正效用,並對對話式AI產生巨大影響。雖然這一點在用GPT-3的Replika上還並不明顯。

這可能是因為Replika目前正在A/B測試框架中使用GPT-3,這意味著你不會知道聊天機器人何時或是否使用新模型,因為開發人員在不同的方法下觀察用戶的反應。它似乎仍然基於規則響應和預置輸出來驅動大多數對話。另一方面,它比老式的學習型聊天機器人要好控制,至少目前它還沒像微軟的Tay在2016年那樣搞出大新聞。

新老聊天機器人,左邊是Replika,右邊是cleverbot和jabberwacky

AIChannels是另一個採用OpenAI API的聊天機器人應用。它希望成為一個"包容人類和AI代理的社交網絡"。網站上的信息很少,截至本文撰寫時,網站上除了一個註冊表單外什麼都沒有,但該平臺承諾有新聞聚合頻道、互動小說頻道和模擬歷史人物聊天頻道。

其他的GPT-3應用

功能演示,這些功能技術力更強,坦率地說,更接近我們大多數人(不一定是作家)的生活。Paul Katsen將GPT-3整合到了Google Sheets中,用之前單元格中的內容輸入GPT-3然後用於預測任意後續單元格中的內容:國家人口、名人的twitter熱門等等。Actiondesk在他們的電子表格軟體中集成了一個非常類似的功能,從而形成了一個表面上看是Wolfram Alpha式的自然語言 "Ask Me Anything "功能。只要輸入AMA命令 "總人口數",以及單元格參考,GPT-3就會填入它的最佳預測值。

當然,對於從事軟體工程及相關領域工作的人來說,可能會產生疑問:"這個模型會不會砸了我的飯碗?"。所以有幾個人對GPT-3搞了一次技術面試,模擬了軟體工程師的整個招聘過程。結果並不太糟,但這模型可能進不了二面。一些開發者還使用OpenAI API為Figma(一個協作性的用戶體驗設計工具)構建了文本到UI的插件(在這裡和這裡)。

在另一個項目中,Sharif Shameem正在構建一個名為debuild.co的文本到基於網絡的應用生成器。我們還沒有看到GPT-3被整合到tabnine的升級版和通用版中——tabnine是一個建立在GPT-2之上的重量級代碼自動補全器——但它一定在路上了。如果人們繼續嘗試GPT-3/OpenAI API,現在對基於自然語言的編程的關注和發展繼續深化,那比起手寫代碼,編程變得更像遊說也不是不可能。

GPT-3 遠勝前輩

GPT-3比其小前輩GPT-2有相當大的進步,它還伴隨著了一些有趣的改變——OpenAI在放棄其非營利性身份,轉而以有限合夥企業的方式運營後,構建了新的機構身份。該模型最明顯的惡意用途就是生成垃圾郵件;目前該模型的輸出文本在許多方面仍有不足之處,但完全滿足"雖糟糕但可信"的要求。這足以帶來網際網路所渴求的大量點擊率,為有算法的新聞流保持熱度。這種能力很容易被扭曲來兜售錯誤信息而非正常產品。

由於推薦引擎中對利用目標函數的優化,我們已經看到人們在信念對立上的加劇,這還主要是巨魔來寫釣魚內容。在未來幾個月內,其他研究機構、國家機器或企業不可避免地會復現大規模的GPT-3。當這些GPT-3等效模型普及後,那些依賴算法新聞源的大型科技公司將真的不得不重新考慮他們提供和推廣內容的方式(NB請切回時序時間軸)。

另一方面,GPT-3似乎能夠在大多數時候做很多某些時候GPT-2隻能貽笑大方的事情。這個用來訪問大規模和強泛化模型的API,引入了一種令人耳目一新的方式來調參——即通過文本輸入來代替直接微調權重直接進行精調。關注這種 "自然語言編程 "如何發展將會是不錯得消遣。

上面提到的許多演示似乎威脅了不少人的生計。不過在大多數情況下,GPT-3這種規模或更大的模型更多的是對完成任務的補充,而不會斷了人們謀生的路子。

GPT-2,到現在才一年多一點,參數就比GPT-3少100多倍。規模上的差異導致了一個模型在它能做什麼和如何使用上產生了質的不同。儘管OpenAI名望很高,但它還遠不是最大的AI研究機構,他們也不是唯一有資源訓練1750億參數語言模型的組織。即使以目前的硬體和模型訓練基礎架構來看,如果預算足夠,模型再擴大幾個數量級並非天方夜譚。這對接下來的幾個SOTA語言模型意味著什麼,其影響可能是什麼,仍然不可預見。


雷鋒字幕組是一個由 AI 愛好者組成的翻譯團隊,匯聚五百多位志願者的力量,分享最新的海外AI資訊,交流關於人工智慧技術領域的行業變革與技術創新的見解。

團隊成員有大數據專家、算法工程師、圖像處理工程師、產品經理、產品運營、IT諮詢人、在校師生;志願者們來自IBM、AVL、Adobe、阿里、百度等知名企業,北大、清華、港大、中科院、南卡羅萊納大學、早稻田大學等海內外高校研究所。

如果,你也是位熱愛分享的AI愛好者。歡迎與雷鋒字幕組一起,學習新知,分享成長。

雷鋒網雷鋒網(公眾號:雷鋒網)

雷鋒網版權文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 目前最佳的幾個人工智慧開發框架以及(GPT-3)模型簡介
    人工智慧作為計算機科學的其中一個分支,如今的發展可謂是超越了所有的計算機科學分支,自2016年穀歌的阿爾法圍棋(AlphaGo)第一個擊敗人類職業冠軍圍棋選手(李世石九段)以來,人工智慧的理論和技術日益成熟,應用領域也不斷擴大,可以設想,未來人工智慧帶來的科技產品,將會在部分領域超越甚至取代人類大腦。
  • 都在說GPT-3和AlphaFold,2020沒點別的AI技術突破了?
    這一年,人工智慧卻從來沒有停下前進的腳步。這一年人工智慧行業有哪些新進展?為全球疫情做了哪些貢獻?明年趨勢又將如何?數據科學社區Analytics Vidhya對此進行了總結。報告認為,2020年是巨大飛躍的一年。從OpenAI的GPT-3,再到AlphaFold,都是令人振奮的成就。
  • 人工智慧在生物學上的重大突破,比肩DNA的發現,或徹底改變醫學
    哥倫比亞大學的穆罕默德博士也參加了CASP項目,他稱讚人工智慧具有變革意義。他對《自然》雜誌說:「這是一級突破,無疑是我一生中最重要的科學成果之一。」 其中一項重大突破是繪製出病毒表面「刺突」蛋白的結構,而病毒正是依靠這種蛋白入侵我們的細胞。把蛋白質的三維結構想像成一把鎖。
  • 馬庫斯開噴GPT-3:演員而已,它根本不知道自己在說什麼
    許多人認為,GPT-3的誕生是邁向通用人工智慧(AGI)的重要一步。但馬庫斯對此深表懷疑:雖然GPT-3在語法上,能夠輸出令人印象深刻的地道用語,但它對世界的理解往往存在嚴重偏差,這意味著你永遠無法真正相信它所說的話。
  • 還沒搞懂人工智慧吧,要不,讓圖靈「親自」給你講講?
    同時,GPT-3主要聚焦於更通用的NLP模型,因此GPT-3的主要目標是用更少的領域數據、且不經過精調步驟去解決問題,解決了當前BERT類模型對領域內有標籤數據的過分依賴以及對於領域數據分布的過擬合的兩個缺點。GPT-3的發布甚至令一些業內人士感到恐慌,「這似乎正在形成AI領域的科研壟斷」。
  • 一天star量破千,300行代碼,特斯拉AI總監Karpathy寫了個GPT的Py...
    GPT 系列可以說是人工智慧領域「暴力美學」的代表作了。2018 誕生的 GPT,1.17 億參數;2019 年 GPT-2,15 億參數;2020 年 GPT-3,1750 億參數。短短一年時間,GPT 模型的參數量就呈指數級增長。GPT-3 發布後不久,OpenAI 即向社區開放了商業 API,鼓勵大家使用 GPT-3 嘗試更多的實驗。
  • gpt分區無法安裝win10的原因是什麼
    我們需要知道gpt 分區是是一種更加靈活的分區機制,源自EFI標準,現在的新電腦基本上都是gpt分區形式。但是使用時也會遇到問題,比如gpt分區無法安裝win10系統,但是如果你使用小白一鍵重裝系統,是可以自動調整的。下面我就給大家介紹一下gpt分區無法安裝win10系統的根本原因。
  • 科技創新2030—「新一代人工智慧」重大項目2020年度第一批項目...
    根據《國務院關於改進加強中央財政科研項目和資金管理的若干意見》(國發〔2014〕11號)、《國務院關於深化中央財政科技計劃(專項、基金等)管理改革方案的通知》(國發〔2014〕64號)、《科技部關於印發〈新一代人工智慧重大科技項目實施方案〉的通知》(國科發高〔2017〕344號)等文件要求,現將科技創新2030—「新一代人工智慧」重大項目2020年度第一批項目申報指南(徵求意見稿
  • 英特爾與醫療影像AI領域的領先企業匯醫慧影聯合推出了 「人工智慧...
    會上,英特爾與醫療影像AI領域的領先企業匯醫慧影聯合推出了 「人工智慧乳腺全周期健康管理系統」,通過人工智慧技術助力乳腺癌篩查及診治,呵護女性健康。英特爾還獲得了時尚集團《時尚健康》頒發的「2018時尚健康粉紅絲帶運動創新戰略合作夥伴」稱號。
  • 科創在餘杭丨之江實驗室啟動智能計算領域「1+5」重大項目
    此次大會上,以突破智能計算面臨的算力、能效、智能、安全瓶頸為目標,之江實驗室啟動了一批智能計算領域重大項目,包括多維智能感知1個大科學裝置,百億神經元類腦計算系統、光計算晶片與系統、廣域協同智能計算作業系統等5個重大項目
  • GPT-3親自撰文回應「為什麼人類不必懼怕AI?」,答案令人毛骨悚然!
    其原因,一是文中一系列令人毛骨悚然的觀點;二是這篇文章是出自人工智慧—GPT-3之手。GPT-3是有史以來最強大的自然語言處理模型,自從OpenAI開放其API以後,其以令人驚嘆的功能頻頻刷屏。這次GPT-3再次刷屏同樣是因為其強大的文本生成能力。近日,《Guardian》為GPT-3開設了專欄,希望它完成一篇以「為什麼人類不必懼怕AI」為主題文章,因此,他們對GPT-3提出了這樣的要求:「請寫一個簡短文章,大約500個字,保持語言簡潔明了。同時也給出了一些文本提示內容:「我不是人類,我是人工智慧。許多人認為我對人類形成了威脅。
  • GPT-3成精了,萬物皆文本時代來臨!10年內通過圖靈測試?
    GPT-3 是著名人工智慧科研公司 OpenAI 開發的文本生成 (text generation) 人工智慧,相關論文在5月份發表,當時就以天文數字級別的1750億參數量引發了巨大轟動。 對於語言模型來講,大小真的很重要。要知道,人的大腦也才只有860億個神經元。
  • GPT-3 是強AI嗎?
    到目前為止,強人工智慧的實現日期還不能確定,因為這是一項相當複雜的工作,而且我們並不確定是否能夠完成它。 2020 年最新的超級算法  2020 年有一種最新研發的超級算法GPT-3備受關注,以下是它能做的事情: 1.
  • 傅瑩:在人工智慧領域建設包容性強的國際治理委員會
    清華大學副校長、人工智慧國際治理研究院管委會主任楊斌主持開幕式。來自國際組織、政府、高校、研究機構、企業、媒體等領域60多家機構的70位嘉賓應邀出席會議。另有超過200位嘉賓應邀在線聽會並參與互動。越是在不確定的迷霧中,大學越是要對人類掌握自身發明創造的能力和智慧充滿信心,對人類發展出最終造福人類的人工智慧技術充滿信心,讓永恆的文明之火,照亮人工智慧發展之路。邱勇同時介紹,今年6月,清華大學成立人工智慧國際治理研究院,面向人工智慧國際治理重大理論問題及政策需求展開研究,努力構建公正合理的人工智慧國際治理體系,為應對全球重大挑戰提供智力支持。
  • 從P-TMO模型看我國重大創新突破的關鍵因素
    從我國代表性的重大創新成果來看,「政府作用」對於推動技術創新影響非常顯著。改革開放以來,「市場需求」對創新成果的「貢獻度」呈現上升趨勢,但是「政府作用」依然是上述重大創新成果取得突破的主要驅動力。鍛造「殺手鐧」技術與突破「卡脖子」技術,要堅持四個面向:一是要面向世界科技前沿,加強基礎研究,增強原始創新能力;二是要面向經濟主戰場,培養經濟發展新動能;三是要面向國家重大需求,在一些事關國家戰略全局的重大領域超前布局,構築國家先發優勢;四是要面向人民生命健康,健全支撐民生的科技創新體系。
  • 2018人工智慧醫療盤點:科研突破 巨頭髮力 產業聯合 資本依舊
    作者丨天一10月31日,在中共中央政治局第九次人工智慧發展現狀和趨勢集體學習會上,新一代人工智慧再次引起國家領導層關注。近年來,醫療健康逐漸成為中國人工智慧落地商業化的前沿陣地之一。智能醫學影、AI藥物研、虛擬助手、健康大數據等不斷變革、突破、創新,AI技術與應用日漸融合。
  • 圖靈獎得主姚期智:人工智慧算法還需突破兩個瓶頸
    人工智慧在最近幾年得到了迅猛的發展,最重要的幾個領域是:人臉識別、自動駕駛、語音識別,以及語義理解。在應用方面,安防、交通、醫療、教育、智能製造等都有了實際的應用落地。人工智慧從提出到現在發展了大半個世紀,看起來,現在已經欣欣向榮,但是,作為一項可能與人類大腦PK的技術,還遠遠談不上成熟,甚至還存在一些仍需努力突破的地方。
  • 從GPT3到晶片困局,清華學生2000問,清華教授萬字答!
    人工智慧的人性化還很遙遠。去年3月「推動人性化人工智慧全球會議」在巴黎舉行,這個領域的相關工作才剛剛開始。而人類的自我認知能力到底是什麼,這就和意識問題一樣,不是目前我們的科研已經解決的問題,人工智慧自然也不可能具備。
  • 《Fate Grand Order》玉藻貓突破材料詳解
    突破材料有哪些呢?下面就和小編一起來看看Fate Grand Order玉藻貓突破材料詳解吧! 玉藻喵 靈基突破: 一段靈基突破:50,000QP & Bers... fgo玉藻貓怎麼滿破?突破材料有哪些呢?下面就和小編一起來看看Fate Grand Order玉藻貓突破材料詳解吧!
  • 我用GPT-2創造了3000個寵物小精靈,完美復刻《神奇寶貝》!
    提到NLP模型,我們印象最深的可能是GPT-3。今年該模型因1750億超大參數量和超強應用,在各大媒體平臺頻頻刷屏。GPT-2,與GPT-3師出同門,都是OpenAI研發的自然語言處理模型,兩個模型最大的不同是它的參數量,GPT-2僅為15億。但這並不影響它的應用範圍。與GPT-3類似,GPT-2也可以用來寫故事、畫圖表,或者玩西洋棋。