原標題:道德問題的哲學與認知科學交叉研究路徑
由於哲學與認知科學在研究思路、研究方法上的不同,二者的結合需要以哲學的概念分析和邏輯推導對問題和概念進行解析,再輔以生活中的實例,從中抽取和概括出供認知科學進行實證研究的問題和範式。從哲學的角度來說,認知科學能夠從實證上對哲學的觀點、思想進行證實或證偽,而認知科學的實驗證據又能反過來幫助哲學重新對問題和概念進行定義和解析。更為重要的是,認知科學提供了一個客觀研究途徑,可以用於解決哲學領域存在多年僅能通過主觀思辨推動的爭議性議題。
哲學與認知科學共同攻關的一個最好例子就是道德研究。道德為拉丁文中的道德性與希臘語中的倫理性的統稱,通常指一個社會群體約定俗成的行為規範和風俗習慣。經過幾個世紀的發展,哲學理論採用了演繹式的邏輯語言分析方法,確認了一些道德中能夠指導人類行為的普遍原則。而認知科學則採用了科學的實證研究方法,根據腦損傷病人的道德行為改變推斷出了組成道德認知的主要維度,並進一步對道德判斷與行為的認知及其神經機制進行闡述。哲學理論可以為認知科學中的道德研究提供人類普遍存在或適用於特定文化的習俗和價值觀,而認知科學則能夠從實證上對這些習俗和價值觀的影響進行驗證,對其未來發展進行預測,從而反過來幫助哲學理論重新對道德進行定義和解析。因此,在道德研究領域,哲學和認知科學能夠互為參考和補充,成為哲學和認知科學聯合攻關中成果最為豐碩的領域。接下來我們將以道德判斷、具身道德情緒和機器道德這三個道德研究領域中的重點問題為例討論如何將哲學與認知科學研究手段進行有機結合,共同攻關。
一
在道德研究領域,最為經典的問題就是道德判斷,尤其是道德兩難困境。例如著名的電車困境,在該困境中,一輛失控的電車向著站有5個人的軌道駛去,片刻後就會碾壓到他們。而此時一個人站在電車拉杆旁,可以選擇拉動拉杆,使電車駛向另一條軌道。然而,另一條軌道上也有1個人,因此讓電車轉向會使其碾壓到這1個人。那麼個體是否要選擇拉動拉杆使電車轉向,就成為一種兩難困境。一直以來,哲學家和倫理學家對這種道德兩難問題進行了大量討論研究,主要集中在功利主義、道義論等角度。隨著認知科學的發展,科學家們可以用更加客觀的研究手段來考察道德判斷過程中的內在心理機制和腦機制。例如普林斯頓大學的哲學學者兼認知學者約瑟華·格林納在2001年發表在《科學》上的腦成像研究中發現,在道德兩難困境判斷中,大腦的情緒功能系統和認知功能系統都參與了主要的判斷形成過程。其中,大腦情緒功能系統中的杏仁核、扣帶回、腦島,以及腹內側前額葉在道德判斷中起著重要的作用。很多道德情景都會誘發出大量的情緒反應,如由傷害導致的同理心、憤怒,由破壞社會規範引起的厭惡等。這使得人們在做出道德判斷時會受到情緒的影響,做出更為嚴厲或寬容的懲罰決定。而與此同時,大腦認知功能系統中的背外側前額葉等又會對這些情緒反應進行調控,使得人們做出更為合理的道德判斷。據此,他提出了道德判斷的雙加工理論模型,認為正是在情緒與認知功能系統兩者的競爭過程作用下,人們才最後形成了關於一個人或事件的好壞判斷。在道德判斷問題上,哲學家們提出了經典的研究範式和豐富的理論,認知科學家在此基礎上採用客觀研究手段發掘出了背後的認知機制,從而共同對我們理解道德判斷的過程做出了貢獻。
二
另一個將哲學與認知科學研究結合得非常好的是道德情緒的具身研究。在道德哲學中,隱喻是道德具身化的一個重要來源,是對兩種物體或現象的關係進行描述的一種語言過程,根據這兩種物體或現象的關係,在實際運用中,可以直接用一種物體或現象替代另一種使用。道德隱喻研究的一個重點是身體潔淨與道德純淨的關聯,其在不同文化的宗教儀式和日常生活中都有體現。又如莎士比亞名劇《麥克白》中的「麥克白效應」。麥克白夫人唆使丈夫謀殺了頓肯王,手上沾滿鮮血後,呻吟道:「洗掉,該死的汙點!我要洗掉!」麥克白夫人希望通過洗去身體上的汙垢使心靈上的犯罪感、愧疚等情緒得到釋放。這種「潔淨近於聖潔/美德」的隱喻使得人們希望通過清潔身體達到心靈的聖潔。這種道德隱喻進一步得到了認知科學家們的實驗驗證。鍾晨波等人2006年發表在《科學》上的一個研究發現,回憶不道德事件會誘發對身體潔淨的需求;而在回憶完不道德事件後洗手,能夠降低人們的內疚和後悔等情緒。認知科學家進一步通過腦成像技術發現做出不道德行為後,人們在觀看清洗類商品時其大腦的感覺運動區非常活躍,而在回憶完不道德事件後進行清洗能夠顯著降低腦島、內側前額葉等情緒相關腦區的活動強度。這些認知科學研究既證實了哲學理論中隱喻與具身認知之間的聯繫,又進一步揭示了這種聯繫的認知與腦機制,從機制上闡述了道德隱喻如何影響人們的道德情緒與行為。
三
最後,另一個需要哲學與認知科學共同攻克的關係到人類未來命運的難題就是人工智慧與機器道德問題。近幾年來,隨著「阿爾法狗」圍棋戰勝李世石將人工智慧研究帶上一個新的發展高潮,智能機器如何在人類社會規範的約束下做出正確的道德決策已經成為擺在哲學家和認知科學家面前的一個難題。例如,自動駕駛汽車可以有效減少交通事故,但它們在面臨一些比較極端的狀況時必須要做出選擇,比如發生緊急情況避讓不及,此時只有兩個選擇:撞到行人或犧牲車輛和車上乘客來保全行人,這種情況自動駕駛汽車應該做出哪種反應?人們必須設定算法來指導它在類似情況下做出選擇。這種人為設定就涉及具體的道德與倫理問題,僅僅依靠認知科學已經無法駕馭,這時候就需要哲學家們來協助工作。事實上,哲學家們已經就機器道德問題展開了很多討論。他們發現,面對這種兩難情境時,研究者需要關注兩種原則:一種是功利主義,即將對人構成的總的傷害最小化;另一種是自我保護原則,即對自動駕駛汽車上乘客的安全給予更多的考量。本勒豐等人2016年發表在《科學》上的一個研究發現,這種道德準則的設定存在一種困境,就是人們認為功利性原則更符合道德標準,應該採用這種原則指導自動駕駛汽車進行選擇。但作為乘客,他們更喜歡自我保護原則,不願意購買和乘坐按功利主義原則設定的自動駕駛汽車。總之,人工智慧的發展給人類社會帶來很多機遇與挑戰,人工智慧的道德問題是當前和以後哲學家與認知科學家都非常關注的熱點問題,基於哲學角度的思考和基於認知科學角度的實證研究將共同為人工智慧的發展提供必不可少的指導與建議。
從哲學與認知科學在道德研究上的結合可以看出,哲學與認知科學是相輔相成,互相促進的關係。哲學與認知科學交叉平臺建設涉及哲學與認知科學研究的多個方面(認知神經科學與哲學、情緒腦、人工智慧的哲學倫理等等),有了這樣的平臺條件支持,相信哲學與認知科學的交叉研究將得到蓬勃發展。
(作者系北京師範大學心理學部認知神經科學與學習國家重點實驗室教授)