人工智慧的創新與社會應用方興未艾,智能社會已見端倪。為了推動人工智慧的社會、倫理與未來研究,構築國內相關研究的網絡與平臺,中國社科院科學技術和社會研究中心、國家社科基金重大項目「智能革命與人類深度科技化前景的哲學研究」課題組與中國發展戰略學研究會創新戰略專委會於2019年4月20日在中國社會科學院舉辦了「人工智慧的社會、倫理與未來研究研討會」,並以此會議為契機倡議在中國自然辯證法研究會建立「人工智慧的社會、倫理與未來研究專業委員會」。
來自社科院、中科院、賽迪研究院、上海社科院、清華、人大、北航、北郵、北理工、國防大學、復旦、上海交大、上大、浙大、南大、南開、大連理工、東北大學、青島大學等研究機構和高校的代表參加了研討,科技部、中國科協、華大基因、華西醫院、中國電子技術標準化研究院等部門、企業和機構的代表也出席了會議。
2019年4月20日在中國社會科學院舉辦了「人工智慧的社會、倫理與未來研究研討會」。中國社科院哲學所黨委書記王立勝和中國自然辯證法研究會副理事長、清華大學吳彤教授到會並做領導致辭。王立勝同志指出,人工智慧發展不僅僅是一場席捲全球的科技革命,更是一場規模空前且將對人類文明帶來前所未有的深遠影響的社會倫理實驗。哲學是時代精神的體現,作為中國哲學研究的國家隊,我們十分重視人工智慧等新興科技的哲學、倫理等交叉學科與跨學科研究。我所科學技術哲學研究室和由我所管理的科學技術和社會研究中心在相關領域展開了深入的研究,產生了一些有重要影響的研究成果。希望在這次會議的基礎上,能夠在自然辯證法研究會領導下,儘快成立「人工智慧的社會、倫理與未來研究」專業委員會。我們將大力支持這項工作的推進和實施,為推動我國新一代人工智慧的哲學社會科學研究做出應有貢獻。
中國社科院哲學所黨委書記王立勝吳彤教授指出,科技哲學包括人工智慧哲學研究需要哲學和科學兩個方面的兩個積累。當下提出人工智慧的社會、倫理與未來研究非常重要。僅從科學和技術的角度研究人工智慧還不夠,還需要引入哲學、社會學、倫理和未來研究等方面的研究,非常支持在自然辯證法研究會下建立一個專業委員會,在這個旗幟下,把工作做細、做深、做透,研究更為廣泛深入系統。在人工智慧快速發展過程中,對其社會和未來影響,要有倫理和哲學的關注,應與科技哲學密切結合,以促使人工智慧的發展更為健康。
中國自然辯證法研究會副理事長、清華大學吳彤教授以下是大會的主題報告。
中國人民大學劉曉力教授上午第一場主題報告由中國人民大學的劉曉力教授主持。她認為:今天是我們人文學界和科學界的一個大聚集,非常高興能夠參加這樣一個會議。我們將人工智慧的社會、倫理與未來研究提到日程,跟其在上世紀90年代以後的發展有很大的關聯。而這一輪報告由我來主持,我想可能是因為我多年來在人工智慧科學和認知科學哲學領域的開展工作,比較了解人工智慧的發展及其近年來革命性的變化。人工智慧分為符號主義、計算主義等自上而下的道路和聯結主義如包括神經網絡、深度學習等自下而上的道路,但兩者分別遇到了符號語義落地問題和物理落地問題,符號語義落地問題指機器不懂符號的語義,物理落地問題指目前發展的人工智慧還不能與外部世界很好地打交道。因此有人提出將機器人能不能快遞小哥一樣滿世界送披薩、能不能很好地跟老人打交道、能不能理解人的情感等作為新的圖靈測試標準。人工智慧的未來發展應該是從自上而下到自下而上的融合,社會倫理問題與兩條路徑融合的前景相關聯。
中國人民大學教授劉大椿中國人民大學一級教授劉大椿教授在報告《
人工智慧倫理考量的必要性和局限性》中指出,首先提出一個問題,即「為什麼人工智慧的倫理考量它具有必要性?」究其原因在於兩點,其一是因為人工智慧迅猛發展,全世界都十分重視人工智慧和對人工智慧的倫理考量。以歐盟發布的《人工智慧倫理準則》(2019年4月8日)為例,他認為人文學者已經深度地參與到人工智慧的發展之中,對此我們應予以關注。信賴的人工智慧這是我們的目標,可信賴的人工智慧它需要有一定的技術基,必須有倫理準則,實際上就是一種人文考察。可信賴的人工智慧必須有兩個組成。第一就是要尊重基本人權,人工智慧還要尊重基本人權,基本的規章制度,核心的原則和價值觀;第二就是在技術上應當是安全可靠的,要避免因為技術的不足造成意外的傷害。第二個原因是當下中國的人工智慧的發展十分迅速,很多技術應用已走在前面,倫理考量越來越重要和必要,社會學,倫理學,未來學等方面的思考也不可少。應該看到,在倫理考量上歐盟等已經走在前面了,我們必須抓緊。此外,他也指出,我們要看到對高科技的人文思考包括倫理考量也有其局限性,即往往陷入非黑即白,這樣看問題是不利於高科技發展的。科技界應該認識到,人工智慧落地遇到的問題往往是社會、倫理和法律問題,不可能完全通過技術解決。哲學社會科學界應該緊跟我國新一代人工智慧的發展,持續跟蹤和評估人工智慧研究的進展和問題,進而有針對性的展開相關研究。
中國人民大學暨美國科羅拉多礦業大學國際著名技術哲學家卡爾·米切姆中國人民大學暨美國科羅拉多礦業大學國際著名技術哲學家卡爾·米切姆(Carl Mitcham)在報告《
閃光背後:追問人工智慧》中指出:工程技術的發展往往會因其巨大收益而呈現出耀眼的光芒,在當前有關智能主體、深度學習、大數據以及通用人工智慧等新一波人工智慧熱潮中,其應用性和便捷性又呈現出了新的耀眼承諾。但是人類無疑面臨著更深遠的挑戰,而哲學的職責就在於幫助我們去察覺包括人工智慧在內的新技術的黑暗的一面。恰如莎士比亞在《威尼斯商人》中的警告:「閃光的未必都是金子」。與此同時,哲學家們也應看到其先前努力中的無能之處,意識到哲學之閃光也未必是真金。
新加坡國立大學暨青島大學未來學院院長葛樹志教授新加坡國立大學暨青島大學未來學院院長葛樹志教授在其《
人工智慧和社會機器人的思考》報告中指出:當前流行的深度學習只是機器學習的高峰,雖然人工智慧在語音和圖像識別上得到了廣泛應用,但真正意義上的人工智慧的發展還有很長的路要走。在應用層面,人工智慧已經開始用於解決社會問題,各種服務機器人、輔助機器人、陪伴機器人、教育機器人等社會機器人和智能應用軟體應運而生,各種倫理問題隨之產生。人工智慧倫理屬於工程倫理,主要講要遵循什麼標準或準則可以保證安全,如IEEE的標準等。機器人倫理與人因工程相關,涉及人體工程學、生物學和人機互動,需要以人為中心的機器智能設計。隨著推理、社會機器人進入家庭,如何保護隱私、滿足個性都要以人為中心而不是以機器為中心設計。過度依賴社會機器人將帶來一系列的家庭倫理問題。為了避免人工智慧以機器為中心,需要法律和倫理研究參與其中,而相關倫理與哲學研究也要對技術有必要的了解。
上海社科院哲學所副所長成素梅教授上海社科院哲學所副所長成素梅教授在報告《
人工智慧的職業倫理準則》中強調,傳統的倫理與法律是圍繞規範人的社會行為而展開的。倫理與法律的有兩個本體論假設,一是人的社會性,二是人與工具的二分,即把工具看成是價值無涉的。然而,人工智慧的廣泛應用對這種人與工具二分的本體論假設提出了挑戰。
因為,人工智慧的「大腦」是「算法」,而以算法為核心的軟體機器人既有自動監控能力和自主決策能力,也負載著文化,具有技術偏向和路徑依賴性。在算法社會人與數據環境關係就會發生逆轉,不是人來適應數字環境,而是數字環境來適應人。因此,重構算法社會的倫理規範,來確保人工智慧造福於人類,成為改善人類生活的向善力量,成為當前的重要任務。
我們需要制定人工智慧的職業倫理準則,來達到下列目標,(1)為防止人工智慧技術的濫用設立紅線;(2)提高職業人員的責任心和職業道德水準;(3)確保算法系統的安全可靠;(4)使算法系統的可解釋性成為未來引導設計的一個基本方向;(5)使倫理準則成為人工智慧從業者的工作基礎;(6)提升職業人員的職業抱負和理想。
人工智慧的職業倫理準則至少應包括下列幾個方面,(1)確保人工智慧更好地造福於社會;(2)在強化人類中心主義的同時,達到走出人類中心主義的目標,在二者之間形成雙向互進關係;(3)避免人工智慧對人類造成任何傷害;(4)確保人工智慧體位於人類可控範圍之內;(5)提升人工智慧的可信性;(6)確保人工智慧的可問責性和透明性;(7)維護公平;(8)尊重隱私、謹慎應用;(9)提高職業技能與提升道德修養並行發展。
北京郵電大學人機互動與認知工程實驗室主任崗位教授北京郵電大學人機互動與認知工程實驗室主任崗位教授劉偉在報告《
人機、智能及倫理》中指出: 人機、智能與倫理在東西方不同語境下具有不同涵義,對人機、智能和倫理的完整思考需要東西方觀念相互結合。人機、智能、倫理還涉及人—機—環境(包括倫理、商業、社會、自然、科技環境)之間的相互作用,關鍵在人機互動與人機融合。最後應該注意的是:一是所有的智能都是有範圍的。以機器學習為例,它僅是一種隱喻。真正的學習本身包括潛在的範圍不確定的和隱形的知識與規則;二是沒有哲學的分析,所有的智能科學很難發展到今天這個程度,人工智慧科學需要尊重哲學才能促進自身長遠發展;三、智能科學、人機互動研究是由戰爭的需要催化出來的,要通過研究戰爭的規律和發展態勢尋找新的研究線索。
復旦大學王國豫教授第二場主題報告由復旦大學王國豫教授主持。她認為當下,無論是人文學者,還是科學家,人工智慧都是一個熱點話題。對於人工智慧問題,一方面它本身是交叉學科,另一方面就是有關它的倫理問題。這些會討論的並非是大數據或者人工智慧的專門問題,而是人工智慧能夠帶給我們什麼。我有一個筆記本可以將我上課的錄音轉換成文字,長期積累下來對我很有幫助。從這個例子上來說,人工智慧能夠帶給我們很大的方便,但是它也不是很完美,裡面的錯誤還是非常多的。此次會議關於人工智慧思考,有來自技術的、政策的、法律的還有來自哲學的,充分展示了關於人工智慧社會、倫理和未來的研討會是一個跨學科的平臺。但是最後我希望再說一句給大家思考的問題,儘管平臺具有跨學科、多視角的特點,但是我們作為一個探討人工智慧倫理社會的這樣一個團體,未來要建立這麼一個學會、想要發展下去,並且能夠在這學科上給自己一個明確的支撐,我們必須要思考的就是我們研究的方法論基礎是什麼?我提醒大家思考一下,否則就會是走不下去的。
中國科學院自動化所曾毅研究員中國科學院自動化所曾毅研究員在報告《
人工智慧準則及其技術模型》中指出:目前由不同國家地區的政府、非政府組織及研究機構和產業頒布的人工智慧倫理準則提案已經超過40個。但不同的準則涉及到的議題視角各不相同。由於文化、地域、領域的差異,「大一統」的準則提案不但很難做到,而且沒有必要。因此,不同國家、組織之間倫理準則如何協同很重要。同時,對人工智慧風險、安全與倫理的思考急需進行算法化、模型化落地,從而確保人工智慧向對社會有益的方向發展。由於技術發展會對倫理準則提出新的要求,這些準則如何進行技術落地、經受社會檢驗,再不斷迭代完善,是未來要面臨的更有意義的問題。在當前對人工智慧倫理的討論中,還有一些問題亟待解決。由於設計缺陷,現階段的很多人工智慧模型,忽略了對環境和社會造成的潛在隱患。此外,對自我的計算建模也是當前人工智慧領域的一個關鍵研究問題,具有一定程度自我感知能力的人工智慧模型將從本質上更利於自主學習、理解人類的價值觀。
賽迪研究院政策法規所所長欒群賽迪研究院政策法規所所長欒群在報告《
人工智慧創新發展倫理宣言的核心思想》中指出:當前應用人工智慧技術的一些不良的現象和事件不斷增多,人工智慧相關倫理問題也不斷的進入到公眾的視線。國務院發的新一代人工智慧發展規劃,明確要求加強法律法規和道德倫理的制定。2018年7月11日,中國人工智慧產業創新發展聯盟發布了人工智慧創新發展道德倫理宣言。宣言除了序言之外,一共有六個部分,分別是人工智慧系統,人工智慧與人類的關係,人工智慧與具體接觸人員的道德倫理要求,以及人工智慧的應用和未來發展的方向,最後是附則。人工智慧系統,基礎數據應該是公平和客觀的,採集和使用的時候應該尊重隱私。人工智慧系統應該具有相應的技術風險的評估機制,以及要受到科學技術水平和道德倫理法律等人文價值的共同評價。與人類的關係,人工智慧的發展應該始終以造福人類為宗旨,不能無論發展到什麼階段,不能改變由人類創造這樣一個基本的事實。人工智慧與人類的利益或個人合法利益相悖的時候,人工智慧應該無條件的有一個停止或者暫停的機制。還要有具體接觸人員的道德倫理要求,當然主要但不限於人工智慧的研發使用研發者和使用者。人工智慧的研發者應該確保其塑造人工智慧的系統的自主意識,要符合人類主流的道德倫理的要求。人工智慧產品使用者應當遵守遵循產品的既有使用的準則。人工智慧的具體接觸人員可以根據自身的經驗去闡述,但是這種闡述應該本著一個誠實信用的原則,保持理性與客觀,不得誘導公眾的盲目熱情,或者加劇公眾的恐慌情緒。人工智慧可以提供輔助決策,但是就目前發展來看,人工智慧本身不能成為決策的主體。人工智慧應該克制在軍事領域的應用,也不應該成為侵犯他人合法權益的一個工具。未來的方向簡單說就是融合創新,制定人工智慧產業的發展標準,推動協同發展,在數據規範應用接口檢測檢驗等各個方面,為消費者提供更好的服務和體驗。要打造共性技術的支撐平臺,營造人工智慧產業生態的健康發展。健全人工智慧法律法規。四點思考,第一要重視發展和治理的綜合性,來避免計算主義貶低人類的生命。第二要強化人工智慧倫理研究的階段性。第三要建立生態影響評價評估體系。第四是建立人工智慧的責任機制。
中國人民大學法學院副教授郭銳中國人民大學法學院副教授郭銳在《
人工智慧的倫理標準化》中指出:我們的生活並不是完全由法律來規制的,而只能通過技術的準則、道德、法律規範共同規制。從法律的角度看,有很多問題等到法律去解決可能為時已晚。如果真的要解決問題,要回到技術的基礎規則上,把規制的思考、倫理思考結合在技術發展的過程中。這一認識促使我承擔了人工智慧倫理標準化的研究。當前關於人工智慧的倫理問題大致可分為算法、數據和應用方面的倫理問題等短期問題。算法相關問題包括算法安全、算法的可解釋性和算法決策的困境。在數據方面,大數據和人工智慧的發展,使隱私受到侵害的可能性增加,可能受到侵害的環節也增多了。傳統上我們覺得不是隱私的信息,隨著新技術的出現,都有可能與個人特徵相關,而變成個人敏感信息。在應用方面。算法歧視和算法濫用值得關注。算法歧視有人為造成的歧視、數據驅動的歧視和機器學習造成的歧視。算法濫用往往是因為算法設計者出於自身的利益、過度的依賴算法或者盲目地擴大算法的應用範圍造成的。社交媒體中用戶的過度沉迷,電商利用消費者價格敏感度不高來設定價格,都屬於算法濫用。除了算法、數據和應用這三個維度,我們還引入了時間維度,就是人工智慧應用帶來的長期風險,諸如就業、產權、競爭和責任分配領域的問題。這些問題並沒有一勞永逸的解決方案,為了在現有條件下推進問題的解決,我們提出了兩個基本原則:人類根本利益原則和責任原則。我們還據此提出人工智慧倫理風險評估的指標和最佳實踐指南,希望產學研各個部門和機構能夠根據倫理風險的程度進行風險管理。
上海大學教授王天恩上海大學教授王天恩在報告《
類親歷性和人工智慧的未來發展》中指出,在通用人工智慧進化中,類親歷性是我們要關注的一個重要領域。今天的話題,有一個非常重要的向度就是人工智慧的通用化一定是社會化,它不是一個單個的個體能夠單獨實現的。在很多研究中可以看到支持這一觀點的根據。在《失控》這本書中,凱倫·凱勒有一個觀點:「非群體系統不能(在生物學意義上)進化」。至少是通用智能進化是不可能以個體的方式進行的,人類進化史已經充分表明了這一點。由此,我們可以看到很多進一步的事實,得到一些進一步的結論。
現在都說目前的人工智慧沒有真正的理解,剛剛我們有專家也說到,現在的人工智慧其實就是高級的自動化。候世達認為目前的人工智慧進路完全錯了,由此不可能達到真正的機器理解。這正與通用智能的類親歷性密切相關。通用智能意義上的理解,一定是類的行為。理解是一個發育的過程,這與理解所必不可少的語境密切相關。其實新一代人工智慧為什麼發展那麼快,影響那麼大,我認為其中一個重要原因,就是通過大數據納入了人類語境。現在發展很快的智能翻譯機,就是最典型的例子。以前的機器翻譯是沒有語境的,沒有語境就不可能有真正的語言理解,但是把大數據納入人工智慧之後,就把人類的語境納入到人工智慧。語境的融合可能是人機融合進化最先開始的領域。由智能進化的類親歷性,還可以看到一個重要的基本事實:通用人工智慧與人類智能具有相同的類本性,這使智能進化具有親歷優先原則,廣義智能進化以具有親歷優勢的人類智能為主導,但這絕不意味著在人工智慧發展中人類可以高枕無憂。在廣義智能進化過程中,如果在觀念上作繭自縛,人類命運就可能走向很多人目前所擔憂的結局。如果人類保持觀念不斷更新,人類就能永遠引導智能發展。由此我們可以看到類親歷性之於人工智慧的社會、倫理和未來發展所具有的豐富意蘊。
中國社科院哲學所研究員科學技術和社會研究中心主任段偉文在大會倡議與討論環節,中國社科院哲學所研究員科學技術和社會研究中心主任段偉文在《
迎接人機共生社會的挑戰——關於建立「人工智慧的社會、倫理與未來研究專業委員會」的倡議》中指出,面對人工智慧時代的來臨,首先要思考的是我們所面對的未來挑戰是什麼?簡單講就是知識多到難以把握,世界複雜到無法掌控。相對於我們的理解和把握能力而言,我們創造了太多知識,以至於在面臨危機時即便我們已經擁有可能解決危機的知識,也無從知道。召開這次會議的原因一是我們對人工智慧的發展後果越來越重視,而我們已有大量知識並不能很好地應對。二是面對人工智慧所帶來的社會、倫理問題和人機共生社會的未來挑戰,我們所掌握的知識變得不夠用了。因此,我們在此鄭重倡議,在中國自然辯證法研究會建立「人工智慧的社會、倫理與未來研究專業委員會」,以此會聚相關領域研究者的智慧、打通學術研究與智庫研究、構建整合觀點與凝聚共識的研究網絡,為促進中國新一代人工智慧的健康快速發展做出應有的貢獻。
為了積極應對人機共生社會的挑戰,我們應該通過其後果與前景的深入研究與預見,將價值與倫理設計和嵌入到人工智慧之中,使科技倫理成為科技的有機組成部分和基礎。如果中國不僅在人工智慧應用而且在人工智慧的倫理和落地上走到世界前面,對倫理重視將成為我們的創新優勢,這對智能文明在全世界的發展具有重大意義。有人誤以為不重視倫理是創新優勢,但當倫理問題不可迴避時,是非與倫理標準的制定將有利於更好更快地創新。新興科技包括人工智慧的發展具有開放性與不確定性,相應的倫理和治理也應該是開放的和未完成,因此在倫理上應尋求開放性共識,治理上應施以適應性治理。同時,我們還要看到人工智慧的發展所帶來的去技能化的趨勢,探索人機共生社會中人的技能化再生之路,進而尋求人類如何在人機共生社會中保持其尊嚴與自主性,人在精神上或得拯救與永生,為人類文明探索一條光明的道路。
研討會在下午繼續舉行。下午的第三場主題報告由北京農業大學教授、北京自然辯證法研究會理事長李建軍,西安電子科技大學人文學院副院長、哲學系主任馬德林聯合主持。
中國人民大學哲學院劉永謀教授中國人民大學哲學院劉永謀教授作了題為《
技術治理、反治理與再治理:以智能治理為例》的報告。在智能革命的背景之下,技術治理與智能治理成為當前熱點研究問題。技術治理試圖將自然科學技術的成果用於社會運行尤其是公共治理活動之中,以提高現代社會的運行效率,而智能治理將最新的智能技術運用於治理活動中,屬於技術治理新的戰術手段,滲透到技術治理所有的重要戰略如社會測量、計劃體系、智庫體系、科學行政、科學管理、科學城市與綜合性大工程等之中。首要必須要肯定,將智能技術用於公共治理領域,對於提高社會運行效率和提高公眾福祉作用很大,但是也存在智能治理淪為智能操控的危險,因而必須運用技術治理理論來研究智能治理的基本機制。智能治理和所有技術治理一樣包括反治理和再治理活動,它們對於技術治理和智能治理的正常運行是建設性的。智能反治理主要涉及5個問題:智能低效、技術怠工、智能破壞、官僚主義智能化和過度治理。研究智能反治理的目的不是為了完全消除它,這是不可能的,而是為了達到治理-反治理的適度平衡,以提高智能治理的水平。智能治理存在各種風險,其中最大的政治風險在於:專家權力過大,威脅民主和自由,極端情況下可能導致機器烏託邦。智能再治理著力從制度上防範智能革命可能導致專家權力過大的政治風險,使智能治理服務於新時代中國特色社會主義建設事業,其核心問題包括:劃定專家權力範圍,權力越界的糾錯制度。
南京大學哲學系潘天群教授南京大學哲學系潘天群教授做了題為《
機器認識論》的報告。認識論是一個傳統哲學學科,其研究的是人類的知識是否可能、可靠知識的來源、如何辯護知識等問題。計算機是替代人的智力而得以被建造的,因而,從認識論的角度去思考機器是一個有趣的角度。既然人類的知識是涉身的,機器(人工智慧體)擁有知識是否可能?如何理解機器的所謂推理以及知識學習?等等,這些便是機器認識論的內容。他認為機器具有演繹推理的能力,能夠做有意義的演繹工作。純粹的演繹推理被認為不能得到新知識。「演繹無新知」是建立在邏輯全能的基礎之上的。如果演繹無新知,從事數學證明工作的那些數學家的工作便沒有多少意義的了。某個定理之被證明本身便是一個有意義的工作。一個能夠認識自然的機器是含有人類概念化的系統,並對它所「觀察」的信息進行判斷形成知識。這是一個「準人類」甚至「超人類」的智能體。想像一下,這樣的智能體到太空中某個星球上通過信號「告知」我們,那兒有一種類似水的東西,外表與地球上的水完全一樣,但其結構不是氫二氧一。它的觀察方式是我們能夠理解的,因而它告知我們的結論也是我們能夠想像的。它們將接觸到的信息整合成知識便是一個知識形成過程,這個函數便是知識形成函數。我們知道這個函數,因而能夠理解它所說的。
中國社會科學院副研究員張昌盛中國社會科學院副研究員張昌盛做了題為《
意識與人工智慧的限度》的報告。很多人工智慧倫理研究都提到類主體、機器人的權利問題,還有像倪梁康等人談人工意識。簡單來說,很多對人工智慧倫理問題的討論都預設了一種強人工智慧的立場。20世紀60年代以來,德雷福斯(Hubert Lederer Dreyfus)多次批判說,功能主義的人工智慧無法模仿海德格爾式的人與世界的存在論關係模式,也不是梅洛-龐帝的具身性的認知主體,達不到人的認知水平。塞爾基於生物自然主義對德雷福斯提出批評。塞爾認為,功能主義基於一種狹義算法,而人類大腦的生物運動神經元的活動乃至宇宙當中的所有的事物的運動也是一種廣義的算法。只要我們找出了類似於人類的生物算法,那麼類似於人類的智能乃至意識在理論上是可以實現的。因此,德雷福斯所謂主體的具身性及其與世界的生存論關係終究可以用廣義的算法描述。
他認為,強人工智慧不能實現。基於物理主義無法解決意識的「感受性質」問題。按照查爾莫斯的「哲學殭屍」論證,如果堅持物理主義,有智能並不一定有意識、智能機器永遠沒有體驗,不知道自己在幹什麼。而且,人的意識也並不是基於僅僅基於生物的神經元基礎。雖然人工智慧不能產生意識,但是它可能逐漸逼近人的認知,弱人工智慧應該是人的一種有力的工具。
我們思考人工智慧的實現前景及應用影響時,有一些基本的問題始終拷問著倫理和哲學:人工智慧本質到底是什麼?他有沒有意識,算不算主體?同時,人類的獨特性是什麼?人類的尊嚴在哪裡?和近現代以來的人文主義理想可否保持?為了回答這些問題,我們不能不反思我們的基本理論預設,必須回溯到人工智慧的本質、主體、意識這樣一些最基礎層面的問題。
北京工商大學的王東講師北京工商大學的王東講師做了題為《
智能時代科學發現的哲學反思》的報告。歷史上新技術的出現總會帶來新的科學發現,隨著科學研究中的數據快速積累,使得數據驅動和智能驅動的科學發現成為可能,在天文學,高能粒子,合成化學,計算社會科學等領域都有應用。對於人工智慧在科學中冷起到什麼作用,在多大程度上能夠替代科學家存在爭議。有人認為人工智慧與大數據方法等存在黑箱問題等各種局限,最終只能是科學家的一種輔助手段,其作用是讓科學家能夠處理大量的數據,但科學發現的核心過程還是需要人類本身的能力。而另一些則認為人類本身具有先天的認知缺陷,機器不僅能彌補甚至可能在各方面比人類做的還要好 。當然更多的是折中綜合的觀點,認為應該取長補短共同發展,數據驅動方法與理論驅動方法可以相互結合,人與機器應該各盡所能,而當前需要關心的是如何協調好兩者的互動關係。
科學家以及哲學家們對數據驅動和智能驅動的科學發現在科學方法論上的爭論主要受到兩個因素的影響:1.不同的科學研究領域和科學發現層次;2.對於是否存在科學發現的邏輯以及科學活動能否形式化的不同看法。
而爭論的核心則是科學中的相關性與因果性的關係以及因果性能否形式化。當前因果機器推理的兩個主要理論即潛在因果模型和因果圖模型都有各自的問題,例如前者需要隨機實驗後者需要先驗知識和嚴格的條件。所以短時間內在不考慮強人工智慧的情況下,人工智慧還只是一種工具沒法涉及理論創新。
上海大學哲學系系主任楊慶峰教授上海大學哲學系系主任楊慶峰教授做了《
人工智慧取代人類工作的哲學反思》的報告。他認為人工智慧與人類整體關係具有雙重維度:第一是物質性活動維度,即智能機器能否取代人類實踐活動;第二是精神性活動維度,即機器智能能否超越人類智能。前者的設定是智能機器是人類的輔助性助手,取代人類活動的本質是人類活動的自動化趨勢及其機器活動的湧現;後者更多觸及的是人工智慧的終極指向,涉及到通用人工智慧和強人工智慧的問題。面對人類被取代的未來前景,存在著四種態度:「批判」、「審視」、「適應」和「狂歡」。這四種態度缺乏對於人工智慧的恐懼,只有持有人類對於人工智慧的「恐懼」和「畏懼」,才能夠導致合適的智能人文意識的發生,從而構建起人類與智能機器的自由關係。
上海交通大學副教授閆宏秀上海交通大學副教授閆宏秀向研討會做了《
人工智慧信任度的倫理解析》的報告。人工智慧所帶來的機遇與挑戰,引發了全球社會各界的多維度反思。其中,關於人工智慧的倫理思考是其中的一個主要議題。關於倫理方面的思考,事實上源自是關於人與技術關係的再度釐清與辨析。在這種釐清與辨析之中,人的倫理地位、技術的倫理意蘊、人與技術之間的倫理牽連、對人工智慧技術圖景的倫理描繪等問題被漸次呈現出來。在 「以人為中心的人工智慧(Human-Centered AI)」、「人工智慧倫理將是未來智能社會的發展基石」、2019年3月到4月之間,谷歌關於外部專家委員會(Advanced Technology External Advisory Council)的風波等一方面是人工智慧亟待倫理的參與,另一方面則反應了人工智慧倫理構建中正在面臨諸多問題。因此,需要對人工智慧倫理為何以及何為進行深度解析。關於此,歐盟基於其倫理、安全、和尖端人工智慧願景,發布了《人工智慧信任度的倫理框架》。對該框架的倫理邏輯、倫理預設、以及如何正確信任的解析將為人工智慧倫理的構建提供有效的理論基礎。
華東理工大學科學技術與社會研究所所長黃時進副教授第四場主題報告由中國人民大學的劉永謀教授和北京航空航天大學的徐治立教授聯合主持。
華東理工大學科學技術與社會研究所所長黃時進副教授做了題為:《
未來的科學傳播:基於人工智慧的視角》的報告。他認為科學傳播最初的形態被界定為「欠缺模型」(deficit model)的傳統科普,經過20世紀80年代中期開始的公眾理解科學(Public Understanding of Scinece)階段,發展至今的公共參與(Public Participation or Public Engagement)階段,傳播媒介也從牛頓時代的皇家學會期刊、報紙和圖書,到20世紀的廣播、電視、電影,至21世紀今天的網絡時代,微信、微博、甚至抖音快手等新興媒體成為科學傳播的重要媒介。當代人工智慧的興起,為科學傳播產生了積極的影響:其一是人工智慧讓科學傳播中客體的「主體間性」(intersubjectivity)得到實現,真正進入公眾參與科學傳播階段。藉助人工智慧的強大數據搜尋、識別和分析能力,普通公眾可以相對容易獲取自己需要的、淺層的科學技術知識。其二人工智慧藉助智慧機器人極大提升科學傳播的效用,特別是面向兒童青少年的科學傳播,人機互動將成為主要形態,人工智慧機器人將通過互動模式幫助兒童青少年兒童從小愛科學、用科學,提高動手能力,培養科學思維和科學精神。其三人工智慧將淡化科學傳播中的科學家的專長,而強化公眾的交互思維和認知能力。在科學傳播中,公眾的交互思維素養主要基於人工智慧時代人們交往方式的變化而得以提高,具體表現在學會開源共享、參與協商、組建社區等,理解複雜的相互關係等。同時獨立思考、邏輯推理、信息加工等高階認知能力得以提升。在人工智慧的幫助下,未來的科學傳播呈現以下三個特徵:「深度社會化」、「個性化」和「持續自我創新化」。
中國人民大學哲學院的王小偉副教授中國人民大學哲學院的王小偉副教授所做報告的題目是:《
道德物化的意義》,向諸位學者介紹了技術哲學中的荷蘭學派的一些研究。他認為近年來荷蘭學派技術哲學收到普遍關注,況且荷蘭確有一群很好的學者在做技術哲學工作。但細看會發現該學派並無統一研究綱領。維貝克(Peter-Paul-Verbeek)的研究方法是後現象學外加一些技術權力論。提出經驗轉向的克勞斯(Peter Kreos)則基本上是分析的辦法,做人工物本體論。烏得勒支大學倫理中心主任杜威爾(Marcus Duwell) 則從康德和格沃斯傳統來討論技術倫理問題。方法雖有不同,但他們都有道德物化的訴求。克勞斯和佛貝克,包括梅耶斯(Antonie Meijers)聯合編了一些人工物道德屬性的書。如果荷蘭技術哲學有個學派的話,道德物化是一個顯著的標誌,儘管不同學者的道德物化認識論基礎不盡相同。
所謂道德物化,簡單講就是道德主體即不單是人也不單是物,而是人和物的集合。這意味著物本身不是價值中立而是負載道德的。因此,在設計物時,應有價值自覺地試圖把公共善嵌到人工物裡去。進而通過物的發端流行來實現善。安全帶就是一種道德物化技術。系統會不斷報警迫使你扣上它。道德物化概念一經介紹就引起了轟動。支持者認為可以通過物化道德來更好的實現善的生活(good life)。好處不論,這裡主要介紹相關質疑。
佛貝克將質疑觀點概括為三。一是自由侵害論; 二是道德取消論; 三是技治主義論。自由侵害論認為道德物化會侵害自由。康德認為人之為人是因其有自由理性的能動性(free rational agency)。如在用物時,人被操縱,非自由地踐行價值,那麼自由將遭到侵害,尊嚴受到冒犯。在道德哲學情境中,人的尊嚴(human dignity)通常是一個紅線詞彙。一旦觸碰,即遭禁止。道德取消論認為如果道德統統被嵌入進人工物,人符合道德要求的行為的道德性即被剝奪。因為它僅僅是符合併非出於道德要求。康德認為只有出於義務的行為(act from duty)才道德,僅符合(act in accordance with duty)義務並不是。如果用物使得行為自然符合義務,道德就被取消了。被安全帶噪音騷擾,不厭其煩地系上它並不是一個道德行為。最後,技治主義論認為道德物化給工程師過度賦權。絕大多數老百姓註定沒有工程和設計知識,因此必然把道德抉擇讓渡給了專家。技術專家來衡量好壞,進行價值排序,進而決定物化和實現什麼價值。這從根本上是反民主的。佛貝克雖然列舉了以上問題,但他並未從認識論角度回應以上挑戰。我認為道德物化實際上應該叫價值物化。被物化的特定的價值而不是道德。道德按照康德說法預設主體的內在心理過程,即按照理性的要求拒斥本能。道德物化取消了主體的道德自治,也就無所謂道德。
南開大學哲學院陶鋒副教授南開大學哲學院陶鋒副教授做了題為:《
美的理性:馬克思主義與人工智慧美學》的報告。在報告中,他指出人工智慧藝術的出現,使得人們需要重新思考美的規律、藝術與科技、理性與人類解放的關係。「美的理性」人工智慧美學中核心問題,是基於馬克思、本雅明、阿多諾和馬爾庫塞等思想家對理性和美學的探討之上所提出來的,它包含了兩個層面:首先是「美的規律」。人工智慧可以模擬人來生成藝術,為藝術的規則化、算法化提供了可能。人工智慧藝術可以分為三個層面:1. 人工智慧生成藝術;2. 人工智慧本身是藝術與科技的結合;3. 人工智慧與網絡、大數據結合發展的超級智能,可能會實現社會藝術、人類藝術。人工智慧美學研究還包括情感、創造性等如何實現算法化。而目前的人工智慧藝術的目的主要還是為了技術所服務。
「美的理性」另一層面是「理性之美」。法蘭克福學派批判了工具理性。而這種技術理性進一步發展成了設計理性:智能、生命都是可以設計的了。但是無論是工具理性還是設計理性,理性都是一種未能實現自律的工具。因此,理性要想實現自律,就需要實現技術、藝術的自律,適當去除政治維度,不能僅僅發展「美的德性」。理性的自律還要求理性要有限度——「有限的理性」,即正確處理技術與藝術、人與自然、主體與客體的關係。阿多諾認為,我們可以用藝術中摹仿要素來糾偏工具理性,從而實現和解。我們發展人工智慧的同時,也需要思考如何以「美的理性」作為基本原則,讓人工智慧適度發展、著力於提升人類社會的美與和諧。「美的理性」是美的規律和理性之美的統一,人工智慧在藝術和美學的發展,可以為這種統一提供一個契機。
人工智慧美學還涉及到了人類解放問題。馬克思在其機器與勞動理論中,提到了機器取代人的體力勞動,卻加劇了人的勞動異化程度。人工智慧技術則進一步地會取代人的腦力勞動,而這似乎加深了人的異化程度。本雅明所提到的「文學的技術」和「審美生產」變成了異化勞動。人工智慧藝術正在成為文化工業中重要部分,人們的閒暇被娛樂工業所控制,一些基於人工智慧和大數據技術的娛樂app如「抖音」,使得藝術和娛樂被精確計算了。人類或許永遠無法回到「感性」狀態,人與自然被人工之物徹底中介和隔離了。這種情況下,「美的理性」更有實踐意義。理性被美所引導,技術為實現人類美好生活所服務,人類和社會成為美的藝術。
中國社會科學院哲學研究所研究員段偉文中國社會科學院哲學研究所研究員,即這次研討會的籌劃人段偉文做了題為《
機器智能的非人格化權力與主體重塑》的報告。他認為數據驅動的機器智能正在成為一種新的主體型範機制:智能治理和智能化自我治理(如量化自我等)。這與福柯有關主體的塑造的權力技術和自我技術有關,兩者分別為支配他人的技術和支配自我的技術;同時,又涉及到德勒茲在《尼採與哲學》中探討過的能動力與反動力。在尼採的由力所構築的世界觀中,人的意志是能動力與反動力等力的關係的產物,主體的塑造是由特定的力與力之間的關系所形成非人格化的權力運作的結果。數據驅動的機器智能對主體的型範或塑造所採用的是關聯本體論而不是關係本體論/實在論或屬性本體論/實在論,這一特質使權力技術與自我技術、能動力與反動力呈現為一種微分式的非人格化權力。這意味著,拉圖爾的異質性行動者網絡和西蒙棟的個體化(individualization)等主體塑造機制將受到挑戰:由機器智能所塑造的主體可能會喪失其能動性,而成為智能治理這一新的權力技術在數據向量空間中進行微細預控的對象。實際上,算法權力從權力譜系上與現代以降的測量的權力、檔案的權力、索引的權力一脈相承,不論是智能監控、內容推薦還是量化自我,都在一定程度上將主體的個體化轉換為碎片化的數據標籤或德勒茲的控制社會意義上的算法「分格」。這種基於數據的機器智能的社會運用與其說是對主體的行為預控,毋寧說是對主體潛能的抑制。
為了應對機器智能的非人格化權力,主體可在智能化的生活中探索有助於提升主體塑造的自主性與能動性的生活策略,以尋求更加人性化的主體重塑進路。其一,反思智能化關注與認知中主體的角色。先釐清主體究竟是被觀看與分析者還是觀看與分析者,在此基礎上探索反向智能關注與自我智能關注的可能性,進而揭示出數據智能背後的虛擬的主體性與外在的能動性,使主體的數據孿生成為其自身可掌控的開放性的個體化過程,而非被操控且喪失自我改變潛能的數據殭屍。其二,審度智能化時代的知識與自由之關係。以反思數據行為主義對人的生成性和自我改變潛能的抑制為切入點,探尋機器智能的限度,實現從有為的自由(做一切可為之事的自由)到無為的自由(不做能做之事的自由)、從「無止境的知識探尋」到「有選擇的無知」的權力的莫比烏斯翻轉。
浙江大學馬克思主義學院潘恩榮教授第五場主題報告由北京理工大學的範春平教授和中國社會科學院研究員梁俊蘭主持。
浙江大學馬克思主義學院潘恩榮教授所做報告的題目是《
面向技術本身的人工智慧倫理框架——以自動駕駛為例》。他認為技術與倫理的相互對立甚至對立是目前人工智慧產業界難以應對倫理挑戰的根源之一。例如,自動駕駛產業化過程中碰到了電車難題,技術專家不知道怎麼辦,於是,技術專家請倫理專家給出解決方案。然而,倫理專家也無法承受如此之重任,因為他無權決定誰應該被撞死。
將技術與倫理融合為一種面向技術本身的人工智慧倫理框架,我們可以避開或者破解上述難題。人工智慧倫理問題發生在人工智慧技術(人工物)的使用情景中,即人工智慧技術(人工物)介入了人與人之間,改變了原來「應該的人與人的關係」而引發了新的衝突——倫理問題。從一個人工智慧的使用情景出發,追溯到設計情景當中,我們可以把人工智慧倫理與人工智慧技術問題放在一個框架中進行考量,將有助於解決自動駕駛的問責問題。
下一步做研究有三個可能路徑。第一個是在第二種經驗轉向基礎上結合倫理轉向,走向價值論轉向;第二個是科學的實踐哲學研究進路,將倫理實踐跟科技實踐結合起來;第三個是馬克思主義人工智慧哲學或者人工智慧馬克思主義的進路,在協作分工基礎上形成的包含倫理的制度,最後固化到機器或代碼上。
上海師範大學馬克思主義學院副教授蘇令銀上海師範大學馬克思主義學院副教授蘇令銀做了題為:《
論智能時代道德機器創造的倫理挑戰》。在報告中,他認為基於人工智慧的巨大技術進步,完全自主的、類人化的、能夠進行倫理推理和決策的智能機器的出現似乎是不可避免的。然而,非倫理學家(如計算機科學、人工智慧和機器人領域的研究人員和程式設計師)在創造道德機器時所面臨的倫理挑戰。倫理是否「可計算」首先取決於程式設計師如何理解倫理,以及他們對這些領域中的倫理問題和方法論挑戰的理解是否充分。
從道德決策的哲學基礎看,機器缺乏自由意志,而自由意志本身通常被理解為是道德能動性的先決條件。基於自由意志反對由於智能機器算法的性質而否定它們的道德能動性,這是無法令人信服的。詹姆斯.摩爾對各種形式的道德能動者進行了重要的區分。沒有理由不認真考慮智能機器成為完全的道德能動者的可能性。對於如何實現智能機器的道德決策和道德推理已經有了一些嘗試比如自下而上的方法;自上而下的方法;混合方法;其他方法,如基於網絡的方法、佛教的方法等決策系統模型。
上述領域研究人員和程式設計師由於普遍缺乏倫理專業知識,至少面臨兩種類型的問題:一是倫理專業知識的缺乏。這類問題可以通過向這些人提供必要的道德知識來解決;二是更困難的方法論問題。這涉及學界在倫理學方面存在分歧的領域,目前沒有容易的解決辦法。道德專家們對於使用哪種倫理理論沒有共識,比如電車難題和機器偏見等。倫理學中有著幾個長期存在的方法論問題,比如正當性問題和多元主義倫理理論問題,即使是道德哲學家也沒有解決。對這些類似問題的熟悉可以幫助他們避免陷阱,構建更好的道德機器。道德機器的倫理決策應以避免不道德行為為基礎並與解決道德問題的多元倫理方法相結合,而不是依賴於特定的倫理方法來避免規範的偏見。
未來很可能出現一種道德機器,它能夠在沒有任何人類監督的情況下自主地進行倫理推理和決策。機器人倫理學研究表明,研究人員和程式設計師需要向倫理學家尋求建議,以便更好地理解倫理學中根深蒂固的方法論問題。如果他們不適當地處理這些問題,他們創造適當的道德機器的努力將受到嚴重破壞。如何判斷哪些行為在道德上是正確的,是我們生活中最困難的問題之一。理解這些決策所涉及的倫理陷阱和挑戰,對於創造智能的、公正的道德機器是絕對必要的。
大連理工大學哲學系講師於雪大連理工大學哲學系講師於雪向參會學者做了題為《
人工智慧倫理準則建構的方法論問題》的報告。隨著人工智慧2.0時代的來臨,大數據智能、群體智能、跨媒體智能、混合增強智能和自主智能逐漸走向成熟。同時,「人工智慧+網際網路+區塊鏈」的技術合作模式激發了人工智慧技術在各個領域的應用,掀起了新一代技術革命。在這樣的時代背景下,建構人工智慧的相關倫理準則不僅重要而且必要。但是,人工智慧倫理準則的建構並非易事,這其中存在著文化困境、倫理規範的困境、利益相關者的價值困境,以及技術困境這四個方面的問題。建構適宜的人工智慧倫理準則首先需要克服這些困境,具體的邏輯建構體系包括人工智慧語言體系、人工智慧價值體系、人工智慧標準體系、人工智慧責任體系和人工智慧評價體系五個方面。並且,人工智慧倫理準則的建構需要以「實踐智慧」為核心,及時有效地調整人工智慧倫理標準的實施方法,以彈性倫理原則為核心,力求最大程度地實現人工智慧倫理準則的實踐有效性。
「人工智慧的社會、倫理與未來研究研討會」現場(上午)「人工智慧的社會、倫理與未來研究研討會」現場(上午)「人工智慧的社會、倫理與未來研究研討會」現場(上午)「人工智慧的社會、倫理與未來研究研討會」現場(上午)「人工智慧的社會、倫理與未來研究研討會」現場(下午)「人工智慧的社會、倫理與未來研究研討會」現場(下午)「人工智慧的社會、倫理與未來研究研討會」現場(下午)(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)