作者:馮侖
人工智慧。人工智慧。人工智慧。
經歷了《美人魚》《太陽的後裔》《瘋狂動物城》等一波波的刷屏,最近又輪到了「人工智慧」。頂級棋手李世石兩局連敗給谷歌的人工智慧AlphaGo,明天,比賽將進入到五局三勝中最關鍵一局。有人說:人工智慧戰勝人類並不可怕,可怕的是它明明能贏,卻故意輸給人類。再進一步說,連勝兩局也不可怕,如果它在明天這個關鍵點上故意輸給人類,那才是最可怕的。
在這場比賽成為關注焦點的同時,以前各種大佬的觀點都被挖了出來,慢慢發酵出一種讓眾人恐慌的輿論:比爾蓋茨說,人類要敬畏人工智慧的崛起;特斯拉的執行官馬斯克說,人工智慧是人類生存最大的威脅。
然而,有人偏偏要站出來打臉:Facebook人工智慧負責人雅安·勒存說,「我不想談論人工智慧,因為我真的不知道它到底是什麼意思」。這不是在瞎說大實話嗎?一個頂尖的項目負責人都無法定義「人工智慧」,我們這些對人工智慧一知半解的小白,更加是因為不明覺厲而感到莫名的恐慌。
▼ 戳下面這個「飛碟說」科普小視頻,你可以看到更多「人工智慧」的例子。(建議在wifi環境下觀看)
其實,人類一直在和自己創造出來的「人工智慧」進行拉鋸戰,這種恐慌的產生也不是一天兩天了,並且有愈演愈烈的趨勢。
在19世紀60年代,計算機被用來解決數學幾何、翻譯等問題,當時的人們認為「在3到8年內,我們能創造出一臺達到人類平均智能水平的機器」。當時,人們對「機器智能化」還是非常嚮往的。
1997年5月11日,IBM的超級電腦「深藍」一舉擊敗西洋棋的世界冠軍卡斯巴羅夫。這個消息轟動一時。人們在略感意外的同時安慰自己:「深藍」只是簡單粗暴地把所有可能性算了一遍之後找到正確的下法,這是笨辦法,這次失敗,並不意味著人工智慧就能超越人類了。
▲ 如果能看到他的表情,應該是一個大寫的「蒙逼」
2014年6月7日,一個聊天程序「尤金·古斯特曼」首次通過了圖靈測試,讓別人誤以為它是一個13歲的小男孩。於是有人驚呼:以後在網上聊天,不僅不知道對方是男是女,連對方是不是人都不確定了!
▲ 就是這個髮際線和擬人水平一樣高的「13歲小男孩」
2015年10月,谷歌AlphaGo在被研發出來僅兩年之後,就以5:0完勝歐洲圍棋冠軍樊麾二段,繼而,現在又超過了頂尖專業水平的代表李世石。
▲ 賽前,李世石說,「全勝沒有把握,但贏肯定沒問題」
但就算人工智慧真的在未來超過了人類,那又有什麼好恐慌的呢?就像自己養的一個小孩,「青出於藍而勝於藍」,不是應該普天同慶嗎?
首先,我們普通人會擔心的,就是人工智慧作為一種工具,會取代我們的工作,或被壞人利用。試想,如果有個國家利用人工智慧建立了一支機器人軍隊,那戰鬥力再強的特種部隊,在它們面前都像弱雞一樣可以直接秒殺。
但是這些都與工具無關。無論有沒有人工智慧,也每天都有人面臨失業的問題,壞人也會通過其他途徑去做壞事,所以,我們需要的是制定法律來約束人的行為。
▲ 《超能查派》|跟黑幫在一起,機器人也會變成壞小子
第二個害怕的,是出現不可控的BUG。知乎上的「謝熊貓君」曾經翻譯過一篇關於人工智慧的文章,其中有這麼一個故事:
一個公司製作了一個寫字機器人,來滿足需要大量手寫卡片的需求。他們給機器人設定了一個目標:通過訓練,不斷提高書寫的效率和準確性。訓練的內容是,讓它不停地寫「我們愛我們的顧客」這句話。
突然有一天,辦公室的人倒地身亡;這樣的事情在全球同步發生,一天之後,人類全體滅亡。
為什麼人類會突然滅亡?是機器人殺死了他們。在機器人的邏輯中,為了「更高效」地工作,需要更大量的練習,而大量練習的結果是,這些卡片將堆滿這個世界,乃至外太空。機器人在不斷學習之後,推測到人類一定會阻止這種情況發生。所以,人類必須死。
而與此同時,機器人還在忙著工作。之後的幾個月,它造出一批自己的同類,在地球表面鋪滿紙和筆;一年之後,地球上所有的生命都滅絕了,只剩下是疊得高高的紙,每張紙上面都寫著——「我們愛我們的顧客」。之後,它開始製造宇宙飛船,飛向其他星球,繼續寫著那句話……
說到底,這一切都是人類自己作的死,怪不了人工智慧,如果那個寫字機器人有表情,可能會給你一張無辜臉:不都是為了完成你交給我的任務嘛。那麼,怎麼保證人工智慧在達成任務的同時,不會不小心傷害到人類呢?
美國著名科幻小說家阿西莫夫曾經寫過三條機器人的黃金法則:
第一法則機器人不得傷害人類,或坐視人類受到傷害第二法則除非違背第一法則,機器人必須服從人類的命令第三法則在不違背第一及第二法則下,機器人必須保護自己
很多人工智慧領域的專家也認同這三大法則。如果這三大法則能像人的本能一樣變成人工智慧的本能,那麼無論如何,人類都是安全的了吧?——看上去確實是這樣的。除非,人工智慧又發展到另一個讓人惶恐的高度:擁有自己的思維和判斷能力。
科幻電影《我,機器人》中的中控系統「維基」,它就已經強大到具有自我學習和邏輯推理的能力。它認為,人類發動戰爭、毒害地球,是在不斷地自我毀滅,根據三大定律,為了保護全人類,它必須犧牲一部分人,為了人類的未來,必須放棄當下的自由,它所有的行動,都是為了讓人類更好、更長時間地生存下去——「我的邏輯是無懈可擊的」,即使違背了人類的意願。所以,它選擇了發動機器人戰爭。
▲ 《我,機器人》|機器人覺得:還不都是為了你們好!
這裡的「三大法則」是經過「維基」不斷學習和理解之後重新定義的。這種能力為什麼會讓人恐慌?先來回答一個問題:有一輛載著貨物、高達3.5米的貨車,要駛過一個高只有3米的山洞,有什麼辦法可以過去?
普通的機器人會考慮如何執行命令:能不能換一條路?能不能通過重新擺放貨物來降低貨車的高度?能不能分幾次運輸?……
但是這時候,這種程度的人工智慧很可能像人類一樣會質疑問題:「我」是誰?是卡車司機還是等貨物的客人?我過這個山洞的目的是什麼?有沒有其他辦法可以達到同樣的目的?這種思考問題的能力,已經讓它成為近似於另一種「生命體」的存在。
▲ 《超體》|人工智慧的發展和人的進化,會不會殊途同歸?
一旦人工智慧發展到這種地步,那麼很可能會威脅人類在地球的統治地位,甚至造成人類的生存危機。又或者分分鐘在智商體能上被雙重碾壓,弱到人工智慧都不屑於來毀滅人類、奴役人類的地步——就像螞蟻之於人類,面對毫無威脅的物種,我們連關注都懶得關注。人類想要奪回控制權,那無異於一隻螞蟻伸出小腿想絆倒人類一樣可笑。
所以,霍金說的「人工智慧會導致人類滅亡」,並非是一個唬人的玩笑。細思極恐。我們覺得「沒什麼可怕的呀」,很可能只是因為我們知道得太少。所以,我們應該慶幸,谷歌AlphaGo只是把李世石逼到認輸,而不是明明有必勝的把握,卻假裝奮力一搏之後輸給人類。如果明天的比賽,谷歌AlphaGo輸了,那才是真的耐人尋味,細思極恐呢。
不說了,我要去抖一抖被自己嚇出來的一身雞皮疙瘩。
註:本文已獲授權,版權歸「馮侖風馬牛」所有,轉載請聯繫原作者。