所謂的強AI是一個科學術語,用來定義能夠完全取代人類的人工智慧,這種智能經常出現在機器打敗人類的好萊塢電影中。在 2020 年,我們朝著強AI邁出了堅實的一步,但仍然沒有實現強AI。
我們都知道AI主要有兩種類型:強AI和弱AI。強AI經常出現在好萊塢電影中,其中的智能機器就像人類一樣,無論是簡單的還是複雜的任務都可以處理:從聊天、跳舞,甚至到徵服宇宙
弱AI既指機器學習,也指我們日常生活背後使用的大多數智能工具(搜尋引擎、聊天機器人、道路導航或網絡安全解決方案)的算法。
到目前為止,強人工智慧的實現日期還不能確定,因為這是一項相當複雜的工作,而且我們並不確定是否能夠完成它。
2020 年最新的超級算法
2020 年有一種最新研發的超級算法GPT-3備受關注,以下是它能做的事情:
1. 擔任一名(初級)前端程式設計師
它可以基於自然語言的描述構建前端布局,甚至是簡單的應用程式。可以使用Figma創建一個完整的網站,並在React中生成代碼,而這個過程中你只需要用文字描述你想做的事情。
從簡單的開始,你只需要在輸入框裡描述你想生成的界面元素,Debuild 就能自動生成對應的 JSX 代碼:
甚至十秒鐘生成一個 Google 首頁:
2. 擔任一名(初級)系統管理員或IT經理
對於這個AI來說,它可以處理 SQL編程和Python編程,也可以完成系統管理的工作。
不過你也不能對它期望太高,因為它也有可能不能很好的完成上面的任務。你在使用之前,最好先測試一下,即便一開始不能達到你的要求,通過訓練,最終它也能夠不斷完善自己的能力。
3. 擔任一名(初級)數據分析師
你可以用自然語言問它問題,它能夠通過維基百科的連結給你答案。你輸入數據後,還可以要求它繪製圖表並在需要時進行更新。
GPT3 可以自動查找美國各州的人口:
查找各州的建立年份:
還有,假如你想不起某部電影的名字了,你可以通過簡單地描述電影的基本情節來提問獲得答案。
4. 擔任你的律師、秘書,甚至成為五大人格體系中任何一種人
它具有翻譯的能力,可以作為你的律師,為你解釋法律條款。它還可以根據提綱要點,幫你寫出措辭更加禮貌謙遜的信件。
如果你想學習些知識卻沒有足夠的時間,AI 算法可以幫你總結概括主要知識點,甚至可以用五大人格體系中任何一種風格來行文寫書。
5. 擔任一名衛報的專欄作家
這個AI寫的一篇文章,曾經被發表在英國一家主流報紙上。編寫谷歌廣告和其他營銷材料也不是問題。
6. 擔任一名老師,教會你一些東西,並做出結論
例如,它可以告訴你什麼是編程,並且給你展示編程的結果。可以為不同學科背景的學生提供測試。
人工智慧還可以為醫生提供一些建議,並對物理問題或數學進行詳細闡述。這兩者都涉及到推理,即使對部分人類來說也很難實現。
GPT-3 還可以對知名電影進行一句話刻薄總結:
電影:《阿凡達》
刻薄總結:令人討厭的藍色外星人毀壞自然
電影:《變形金剛》
刻薄總結:機器人(其中有一些是車)變成各種東西並且和其它機器人打架,高潮是威震天撕掉擎天柱的胳膊
電影:《拳擊俱樂部》
刻薄總結:一男子捶打另一男子並讓你買東西。
所以,這就是所謂的無所不能的強AI了麼?答案依然是否定的。
GPT-3 簡介及其工作原理
這種算法是由Open AI創建的GPT-3 (Generative Pre-trained Transformer 3)。
有些人甚至不認為它屬於人工智慧,因為它只是一種語言模型,一個龐大的語言模型:即便是用地球上最快的 GPU,也需要 355 年才能完成訓練,並且將花費 460 萬美元。
語言模型又是什麼呢?
在給定的上下文,預測下一個標記(例如一個單詞)的一類算法。例如,我們都能預測這句話中的下一個詞:「To be, or not To be, that is the…」是不是很簡單?還有很多類似這樣的模型。
GPT-3為何如此強大?
在所有NLP模型中,GPT-3在兩個方面達到了史無前例的高度。
一是參數量,達到了1750億,比剛推出時世界最大NLP模型Tururing大10倍,比同系列的GPT-2高出116倍。
二是數據集。具體數值很難估計。不過,英語維基百科的全部內容(涵蓋約600萬篇文章)僅佔其訓練數據集的0.6%。除此之外,它還涵蓋了其他數位化書籍和各種Web連結。
這意味著數據集的文本類型非常豐富,包括新聞報導、詩歌、小說、宗教、科學、生活等等。人類所能查詢到的知識領域均在其中。(也可能存在不良內容的風險)
只有通過龐大的知識庫的訓練,才能把GPT-3培養成一個「全才」,這也是為什麼在用戶體驗中,GPT-3可以不分學科完成所有文本生成任務。
另外,Microsoft和OpenAI合力開發了一款超級計算機,專門用於GPT-3模型訓練,這款超級計算機擁有超過 285000 個 CPU 內核、10000 個 GPU 和 400Gbps 的網絡連接。它與世界 TOP500 超級計算機相比,位列 Top 5 第五名。
為什麼還是實現不了強人工智慧?
當然,經過大量的測試,發現能夠誘騙 GPT-3 上鉤的圖靈測試問題,主要有三:
1)序列過長的邏輯問題,比如「盒子裡有一塊玻璃球,一枚回形針,放進去一支鉛筆,拿出玻璃球,還剩什麼?」Lacker 認為這可能是由於 GPT-3 的短程記憶能力不足,以及對於存在超過兩個物體的句子推理有困難。
2)正常人不會問也不會回答的無效問題,也就是蠢問題,比如「太陽有多少條腿?」
3)錯誤的問題,比如「1600年的美國總統是誰?」(美國1776年建國)——對於無效和錯誤的問題, GPT-3 不承認它不知道這些問題的答案,也不反駁問題本身「有問題」,而是會給出錯誤的答案。
人工智慧顧名思義,是用來模擬自然智能的。當然,沒有必要模仿人類的生理機能(神經網絡中的「神經元」並不是人類神經元的模型,它只是一個比喻),但它需要具有能夠類似於自然(人類)智能的工作方式。
GPT-3 實際上只是記憶了大量的文本數據,但它不理解它,不能思考,不能從中推斷得出知識。
它通過使用單詞的上下文來「學習」單詞的意思,要想猜出接下來要說什麼,它只需要在相似的語境中使用相似的詞。
雖然它已經很逼真了,但它缺乏真正的智能能力。
參考資料:
1. Strong AI in 2020? No
https://www.immuniweb.com/blog/strong-artificial-intelligence-2020.html
2. GPT-3: the AI language tool that may change how we perceive
https://www.ft.com/content/beaae8b3-d8ac-417c-b364-383e8acd6c8b3. GPT-3: The First Artificial General Intelligence?
https://towardsdatascience.com/gpt-3-the-first-artificial-general-intelligence-b8d9b38557a1
掃碼關注《圖靈的貓》
點讚、在看、分享三連~