隨著深度神經網絡和深度學習的研究更加透徹,人工智慧得以快速發展。
在一些醫療應用場景中,機器可以比人類醫生更快地對病症做出診斷。以糖尿病性視網膜病變(Diabetic Retinopathy)檢查為例,如今已有一種人工智慧機器,通過掃描患者的視網膜,就能得出有關該疾病的準確的診斷結果,而整個過程不需要任何專業的訓練。
這證實了海量數據的可利用性,即通過給機器餵養大量經過人工標註的數據,使機器擁有診斷病變的能力。但這並不是人工智慧發展的終點,製造真正的人工智慧還需要克服重重阻礙。
自我意識與人工智慧的算法偏見
道格拉斯·霍夫施塔特(Douglas Hofstadter)的非虛構小說《哥德爾、艾舍爾、巴赫書:集異璧之大成》(Godel, Escher, Bach: An Eternal Golden Braid),講述了智能從何而來的問題。書中寫道,人類的單個神經元是沒有自我意識的,但結合在一起,就會產生自我意識,也就是智能。
人工智慧的發展有一個繞不開的話題,那就是「自我意識的產生」。人們對此有很多擔心,其中包括擔心機器不具備倫理觀念。
有專家認為,人工智慧若想應用於醫學領域,首先需要建立一個倫理框架。據以往的經驗,人們很少在問題出現之前,評估某一項技術對研究人員本身,對資料庫、數據集的性質等各個層面所產生的倫理影響。
在醫學博士埃裡克·J.託波爾(Eric J. Topol)看來,解決機器和倫理衝突最大的困難,在於如何確保機器已完全剔除人類社會本身的偏見。
以糖尿病性視網膜病變為例,用機器來識別病變確實非常方便,但機器識別的依據還是經由人工標記的數據,而人類意識中的偏見已經通過數據收集、標記的過程,深深植入機器之中。
醫學博士亞伯拉罕·韋爾蓋斯(Abraham Verghese)則認為,機器診斷的最大問題是結果不透明,使得臨床醫生無法像對CT掃描報告或活檢報告一樣,對結果提出質疑。
梅蘭妮·米切爾(Melanie Mitchell)是一位人工智慧領域的專家,著有《人工智慧:人類思維學習指南》(Artificial Intelligence: A Guide for Thinking Humans),現任職於美國聖塔菲研究所(Santa Fe Institute,SFI)和波特蘭州立大學(Portland State University)。她表示,訓練機器產生人類的倫理觀念或許是一種解決方案。
但是,實施這個方案的前提是,全體人類已經有一個標準的道德價值觀。顯然,人類社會還不存在具有普世價值的道德體系。
圖片來源:圖蟲創意
對此,一些醫學和人工智慧方面的專家給出了以下3種解決方案。
1. 人類參與和監督
縱觀人工智慧和人類的相處歷史,你會發現,兩者經常被置於對抗的境地,如IBM「深藍」計算機和當時的世界棋王加裡·卡斯帕羅夫(Garry Kasparov)之間的比賽。
然而米切爾·卡普爾(Mitch Kapor)(編者註:美國蓮花公司創始人,推出了個人電腦「殺手級應用」軟體Lotus1-2-3。)曾說過,「人腦是一個神奇、微妙、尚不為人所知的領域,科技在短時間內無法複製人腦的功能」。
米切爾表示,至少在醫學領域,人工智慧還不足以和人類形成對立的態勢,還需要接受人類的監督和指導。
舉一個典型的例子。Optum公司曾在《科學》雜誌上發表研究,稱美國黑人患慢性病的風險更低,這顯然是帶有偏見的結論。因為Optum的算法在很大程度上是以醫療帳單和醫療保險索賠數據為依託,但黑人獲得的醫療資源本身就不如白人多。
託波爾表示,這個例子很好地說明了人類監督的重要性。人類應該從最開始就介入研究,而不是放任機器算法自行完成全過程。他甚至建議,監督人工智慧的運作甚至可以作為一門專業課,納入醫學生的本科教育。
2. 消除人類社會自身的偏見
《紐約時報》的一篇文章,《我們真的能讓機器比人類更客觀嗎?》(Can We Make Our Robots Less Biased Than We Are?)中指出了一個現象:每一個人工智慧相關的問題,最後都被簡單地歸咎於人工智慧本身。
託波爾認為,人工智慧產生問題的原因,和根植於人類社會的偏見有關。因此,改善科技並不能真正使機器的客觀性優於人類。以人工智慧的自我意識為例,若想依靠剖析深度神經網絡來解決這個問題,是不可能的。
米切爾表示,深度神經網絡的一個特點是不透明。剖析深度神經網絡,就好比直接掀開頭皮,觀察大腦的神經元。顯然,這樣做是無法學習大腦是如何思考,如何做決定的。
因此,有觀點認為,只有消除人類社會的偏見,才能讓機器變得更客觀。如今,全球出現了各種各樣的非營利組織,它們給醫學專家、人工智慧專家、人類學家和社會科學家提供了討論的平臺和機會,或許能夠真正實現脫離人類監督的人工智慧「自由」。
3. 賦予人工智慧以人類的常識
米切爾表示,人工智慧要想脫離人類的監督,就必須擁有人類社會的常識。
如今,「常識」已經成為人工智慧領域的一個熱詞,引起了廣泛討論。Optum的例子很好地說明了,機器可以在統計學領域表現出色,但它仍然缺乏人類社會如何運轉的基本概念,所以會犯連孩子都不會犯的常識性錯誤。
這就是人工智慧目前面臨的挑戰。
但是,定義「常識」十分困難,畢竟人類自己也只是知道了這個詞的意思而已。
事實上,美國國防部高級研究計劃局(DARPA)正在開展相關項目。DARPA計劃讓人工智慧模擬嬰兒的成長軌跡,從而獲得人類社會的常識。
米切爾認為,雖然這確實是一個辦法,但模擬嬰兒的成長軌跡有一個隱患,那就是常識中隱藏著人類的認知偏差,而這會將人類捲入巨大的麻煩之中。
圖片來源:圖蟲創意
人工智慧面臨的其他阻礙
除發展自我意識外,人工智慧在醫學上的應用還面臨著其他阻礙。
一,機器和人類的差距,導致人類對機器的不信任。20世紀初,德國有一匹會做算術題的馬,叫聰明的漢斯(Clever Hans)。馴馬師給聰明的漢斯出一道算術題,它會用馬蹄敲出正確答案。人們後來發現,聰明的漢斯並不會算數,它只是能夠接收馴馬師偷偷給出的身體信號而已。
如今,人工智慧專家用「聰明的漢斯」來比喻人工智慧系統,這一系統其實只是感知到了一些微小信號,但給人一種「它在解決問題」的錯覺。
米切爾解釋道,在醫療領域,類似的例子有很多。比如,你想用人工智慧系統來區分有病理特徵和無病理特徵的X光片,但結果發現,有病理的那部分統計數據有些異常。導致異常的可能原因有很多,包括拍攝X光片的X光機不同;同一臺X光機上設置了不同程序等。人類無法察覺到這些影響,但人工智慧會根據這些差別做出判斷,導致結果有很大偶然性。
韋爾蓋塞則認為,從另一方面來講,人工智慧更擅長預測死亡率,有時甚至優於醫生的判斷。從某種意義上來說,機器是沒有情感的,而醫生的判斷會受到各方面的影響,包括醫生內心對患者的祝願、對治療手段的期待,以及延長患者生命的盼望等。
米切爾表示,人類有偏見,機器也有偏見。如果機器給醫學帶來的貢獻和人類的作用能夠結合在一起,就能實現「1+1>2」的效果。當然前提是,人類必須對機器的偏見,或者說對人類自身的偏見有一個全面的認識。
二,對人工智慧的過度吹捧。現代社會,科技的地位越來越高,有人對科技的過度吹噓,已經超出了科技本身的價值。這導致人們高估了科技的自主性,最後只能以失望告終,並抱怨道,「好吧……科技根本不值得信任!」、「這臺機器犯了這麼多錯誤,我要怎麼信任它?我當初買它,就是因為它可以比現在做得更好!」……
米切爾表示,科技在正式應用之前,人工智慧專家應該首先明確機器真正的能力、局限性和作用,並將其如實地傳達給使用者。
韋爾蓋塞表示,不管人工智慧給出的結果如何,它都只能作為一種參考,真正做決定的還應該是我們自己。
三,「人工智慧威脅人類生存」論。雷·庫茲韋爾(Ray Kurzweil)是人工智慧威脅人類這一觀點的擁躉者。
早在至少30年前,庫茲韋爾在其出版的《奇點臨近》(The Singularity Is Near)一書中寫道,人工智慧將在未來某一天達到人腦的智慧水平。此外,庫茲韋爾預測,到2045年,人工智慧將比人腦聰明數十億倍。當人工智慧和人腦融合的那一天,其發展也就到了「奇點」。
機器能夠自我進化,慢慢變得比人類更聰明,最終比人類聰明數十億倍;人工智慧的存在早晚會成為人類的威脅,成為人類文化、社會和文明的威脅……這些觀點都被庫茲韋爾寫進了他的書中,並隨著書籍的暢銷而深入人心。
但是,現實生活中沒有一個人工智慧方面的專家相信庫茲韋爾的預言。人工智慧領域著名的先行者吳恩達表示,現在擔心奇點的到來,就跟擔心火星上人口超負荷一樣遙遠。
韋爾蓋塞也表示,與其擔心人工智慧會毀滅人類,不如想想它未來的發展方向。如今,人工智慧在醫學領域的發展正處於瓶頸期。要想突破瓶頸,人類必須開發出更多人工智慧的潛力。
參考資料:
1. Medscape:Can AI Exist in Medicine Without Human Oversight?
2. The New York Times:Can We Make Our Robots Less Biased Than We Are?