Nature vs Nurture
當查爾斯·達爾文的堂兄弗朗西斯·高爾頓爵士在19世紀後期推廣「先天與後天(nature and nurture)」一詞時,他考慮的是人類的行為或許是基因決定,與生俱來的。這位著名的優生學家通過研究人類的特徵,開發了回歸的統計概念(在機器學習中大量使用),作為他改進人類基因庫的一部分。最終得出結論,人類的傳統十分重要。
這倒是與費孝通從社會學角度的解釋有異曲同工之妙,著名的漢學家在《鄉土中國》中以中國的鄉村社會為基礎分析文化的內涵,與雷蒙德·威廉斯所述「文化是生活方式」類似,費孝通指出文化傳承的重要性,行為思想都是「歷史的」,「超越個人的」。
人工智慧沒有文化或傳統可言,至少在剛出廠的時候是這樣,但是人工智慧在尋找規律地獲取知識上倒是很有天賦,那麼關於人工智慧的訓練(或稱培養)可否參看人類的模型呢?
英國金融時報4月25日文章《What Mary Poppins can teach us about raising ethical robots》探討了培養道德機器人的可能性,作者奧斯坎迪稱,「在這場先天與後天的爭論之中,我們看到的是這世界上最出名的保姆。」(In the nature-versus-nurture tech debate, we look to the world’s most famous nanny)
Julie Andrews主演的美國電影《Mary Poppins》
當我們展望人工智慧的未來時,種瓜得瓜種豆得豆似乎正是這一進程的密碼,我們的孩子就是這樣,就是在用Artificial Intelligence(人工智慧)來終結Artificial Stupid(人工傻蛋)。沒有個性,沒有本能,沒有意識,沒有靈魂。甚至沒有幽默感。人工智慧就如同一張白紙,畫上彩虹便是晴天。
奧斯坎迪寫道,「當我看到15歲和18歲的兒子使用他們的智慧型手機時,我想到了這一點。雲伺服器吸收了大量關於他們的數據,並記住了一切。「所以說,當我們提供了這些關於自己的數據時,我們希望AI能夠提供讓我們走向更好生活的助推力,我們希望它能夠診斷疾病找到治療方法,給我們重新體驗『健康』的涵義,我們希望它幫助我們探索宇宙的秘密,而這些,正是數據對於它們的意義。
失允的教科書——人性與道德的悖論
但是,有可能重新定義人性嗎?道德是會隨著世界的發展而變通,或是會引導我們實現我們所追求的目標?我們最終會像米老鼠一樣成為笨拙的巫師學徒,難以控制自己創造出的可怕力量?或者我們是否會完全接受並創造一個道德和它所在的環境,以便激發人工智慧完整的社會潛力?
現在的情況是,人工智慧師從訓練它的科學家們,在它們身上交疊著無數的」對與錯「的衝突與爭議。由於這種數字創作可以用來反映其製作者的道德,而他們可能完全缺乏道德,使得AI產品成為撒旦的邪力,它們也或許謹遵人類道德的洗禮,成為社會忠實的建設者,但最值得討論的是那些我們人類尚且沒有達成共識的悖論,這使得人工智慧很可能成為人性與道德的」戰場「。
去年10月亞馬遜關閉了他們開發的人工智慧招聘系統,由於科技公司中男性比例尤其是身居高位者之中的男性居多,系統在對簡歷進行評估時便不自覺的加入了「性別歧視」的元素。我們自然可以將責任推脫給智能算法,指責它們「不知善惡,三觀不正」。可是我們是否忽略了一個事實,這些數據的來源——即科技公司性別比例的嚴重失衡並不是機器人造成的,我們提供給算法的「教材」是否本身足夠正義?
然而在人類自己尚且對世界、對自己、對是與非紅與黑都缺乏認知的時候,卻在將人工智慧向人類看奇的實踐中毫無顧忌的大步向前。
3月13日,「強化學習之父」理察 薩頓(Richard Sutton)發表了一篇題為「苦澀的教訓」(The Bitter Lesson)的博客,其核心觀點是:「我們必須吸取慘痛的教訓,即從長遠來看,直接構建人類大腦的思維模式是行不通的。」
薩頓寫到:「人類不斷試圖把自己的知識和思維方式植入到AI之中,」比如用人類的思路教AI下棋、將讓AI按照人類總結的思路來識別圖像等等。這些做法,「能帶來暫時的性能提升,長期來看卻會阻礙研究的持續進步。」這種錯誤的做法已經帶來了太多「苦澀的教訓」。
薩頓相信:「真正的突破,總是來自完全相反的方向。」所謂完全相反的方向就是「摒棄人類在特定領域的知識」,採用「基於搜索和學習進行大規模計算」,只有這樣人類才會「獲得最終的勝利」 。
但是,由於人工智慧是通過數據進行培訓,質量差的數據或系統學習方式缺乏透明度,對用戶來說是一種風險。將AI部署到消費者並不了解其運作方式的領域內,未嘗不會引起嚴重的後果,更不必說當出現問題或收集的數據最終落入壞人之手時,這也是歐盟去年5月制定「通用數據保護條例」的主要原因之一,這一條例至今除了美國仍然拒絕遵守外,其他國家的企業都已經傳達到位。
龐大的數字壟斷與潛在的「智能作惡」
當人類面對他們不了解的東西時,恐懼往往是自發的情緒。
販賣焦慮正是利用這種恐懼變現的手段。
5月4日騰訊「願景和使命」升級成了「科技向善」,在一片混沌之中,又在公眾視野中描繪了一幅天使的畫卷。並不是說這句話缺少真實感,而是在「算法利維坦」陰影之下,對掌握了算法這一關鍵權力的馬化騰們而言,冷靜的內省——尤其是對過度追求做大做強的反省——最為重要。
騰訊在中國的市場規模已經逼近地球另一邊的谷歌在美國的表現。
希瓦·維迪亞那桑是美國維吉尼亞大學法律與傳播學院的學者,在他所著的《谷歌化的反思》中解釋了對谷歌的「數字壟斷」的擔憂,他寫道,「我們可能視谷歌為救世主,但是它卻像愷撒般統治著世界。網絡的神話導致我們假設那是個瘋狂的、無法管理的領域,這真的是錯得離譜。」
同樣的,在經歷了「劍橋分析」這一史無前例的數據災難後,Facebook的信念也在根本上被動搖了。
「扎克伯格的影響力是驚人的,遠遠超過私營部門或政府中任何其他人的影響力,」Facebook聯合創始人克裡斯休斯上周在紐約時報的採訪中談到,
「令我憤怒的是,他對增長的關注導致他為了點擊量而犧牲了安全和文明。我對自己和早期的Facebook團隊感到失望,因為我們沒有認真考慮新聞推送算法將如何改變我們的文化、影響選舉、賦予民族主義領導人權力。我擔心馬克身邊的團隊只會強化他的信念······現在是分手Facebook的時候了。」
資本市場的出發點和落腳點並非「互利共贏」而更多的是「零和博弈」,是瘋狂的叢林法則。科技巨頭不知疲倦的擴張正是人性中夢想與貪婪的衍射,是我們留給人工智慧去學習的「教科書」。
你曾是少年
或許是人類太過於急功近利了,人工智慧正在用幾十年的時間來完成人類整體千年來的文明躍進,並且在這個過程中它在經歷著人類從未有過的嚴格監督。人類動用了各方力量來確保自己的「工具」不會背叛自己,但對人類自身的反思卻一直在原地踏步。
我們既然為自己的子孫後代打造了一整套所謂青少年的教育邏輯,灌輸給他們那些成大後就可能隨時拋棄的「真善美」,也能給人工智慧——人類科技的孩子創造一個用數據堆砌的象牙塔。
只是問題在於,如果說一個人長大後的貪婪欲望源起於少年時期誘惑他懂事聽話的一克軟糖,那麼被現實中的「數據課本」教育後的人工智慧是否也將落入某種惡的深淵?
參考文獻:
https://www.ft.com/content/c728c042-1e45-11e9-a46f-08f9738d6b2b
http://fortune.com/2018/10/10/amazon-ai-recruitment-bias-women-sexist/
http://www.ftchinese.com/story/001081982?archive
http://www.ftchinese.com/story/001082763?topnav=opinion
https://www.nytimes.com/2019/05/14/opinion/facebook-chris-hughes.html
https://medium.com/@martin_98118/nature-vs-nurture-in-ai-3fec240a10bb