人工智慧真有那麼可怕嗎?從哲學看科幻電影的套路

2020-12-12 澎湃新聞

今年3月AlphaGo戰勝李世石的那一幕似乎猶在眼前,最近美劇《西部世界》(Westworld)又引發了熱議,有關人工智慧的話題再度進入了大眾的視野。在過去幾年裡,史蒂芬·霍金、比爾·蓋茨和埃隆·馬斯克等人,在不同場合表達了對人工智慧「奇點」(singularity)到來的擔憂。英國牛津大學的人類未來研究所(Future of Humanity Institute)在2008年發布的一份報告中提出,超級智能(superintelligence)在21世紀毀滅人類的概率達到了5%,僅位列納米武器之後。未來學家們依據摩爾定律紛紛做出了大膽的預測:強人工智慧(strong AI)可能在2025年左右實現。這似乎意味著,超級智能可能以出乎意料的井噴方式出現。不得不看到,這其中暗含了人工智慧研發行業吸引風險投資的策略性發言,但技術演進可能引發的倫理和社會風險,值得從哲學角度來加以未雨綢繆的審視。

「智能」是人類特有的嗎?

從哲學角度來思考問題,首先要做的就是對每一件事物做明確的定義,確定要討論對象的邊界與範疇。約翰·麥卡錫(John McCarthy)在1955年最早使用了「人工智慧」一詞,其定義是「設計和研究智能的行動者(intelligent agents)」。這個定義先天地存在循環定義的問題,即用「智能」來定義「智能」。從後來人工智慧領域的發展來看,似乎大部分工程師並不在意這些「定義」,而直接將智能分拆為各種具體的技能——弱人工智慧(weak AI),例如推理、分析、學習、計劃、自然語言、感知等,希望它們可以部分替代人的能力。

從哲學史視角來看,近代法國哲學家笛卡爾在《談談方法》(Discourse on the Method, 1637)中提到的「自動機」(Automaton),可以被視為「人工智慧」理想源頭。像布穀鳥時鐘、日本的機關木偶、達文西機器人和八音盒等機械人造物,都是他心目中的自動機。在笛卡爾看來,雖然這些自動機可以做出非常精妙的動作,甚至可以設想它們能夠說出幾句話來,但歸根到底它們僅僅是機械構造。自動機的所有動作和聲音可能性都包含在其機械構造中。例如八音盒演奏的音樂來源於其中的音筒,它不可能播放超出音筒上預刻的內容。在笛卡爾的時代,人們已經具備了一些解剖知識,也有人將人體看作是一臺有血有肉的「機器」。但是笛卡爾認為,有兩種能力或者特徵是人類特有的:語言和學習的能力。這兩者在笛卡爾的身心靈二元論世界中,都屬於心靈或者精神的特殊能力,而不屬於物理-機械世界。這使得人和其他自然界的造物有所不同,正是這些能力是人之為人的驕傲之處。然而笛卡爾遺留了一個哲學難題:既然身體屬於物理世界,心靈屬於精神世界,那麼這兩個世界是如何發生因果關係的?人工智慧發展至今,顯然對笛卡爾二元論的世界觀形成衝擊與挑戰,計算機這種機械-物理構造似乎「具備」了一些初步的語言和學習能力。

從另一方面來說,人類對自身思維-心靈的研究也始終未出現大的突破——大腦的工作機制尚未得到詳盡的解釋。因此,除了人類自身的驕傲之外,我們還有什麼理由堅信,「智能」真的只能來源於這個幾百克的器官之中,而在原則上不可能為人造物擁有?也有人堅信,要讓機器具備智能並不必要模仿人類大腦。這好比飛機的飛行並不用模仿鳥類翅膀的撲動。

通過圖靈測試之後怎麼辦?

說到人工智慧,當然不能不提著名的「圖靈測試」(Turing test)。1950年,英國數學家阿蘭·圖靈在其具有劃時代意義的論文《計算機器與智能》( "Computing Machinery and Intelligence" )中提出,如果一臺機器能夠與人類展開對話(通過電傳設備),而不能被辨別出其機器身份,那麼稱這臺機器具有智能。這就是著名的「模仿遊戲」(The Imitation Game),即讓機器來模仿人。但是要看到,圖靈測試僅僅提出了一個行為主義式的操作定義,而且僅僅涉及日常語言處理。即便如此,想要通過圖靈測試並非易事。1952年,圖靈在接受BBC訪談時提出了一個新想法,實際上進一步降低了標準:讓計算機來冒充人。如果超過30%的裁判誤以為在和自己說話的是人而非計算機,那就算作成功。時隔幾十年後,我們日常使用的蘋果Siri和微軟cortana雖然具備了一定的對話能力,但經常出現一些令人啼笑皆非的回答,很容易讓人意識到它們不是人類對話者。

不過,突破不期而至:2014年6月7日,聊天程序「尤金·古斯特曼」(Eugene Goostman)首次通過了圖靈測試。當然該人工智慧的成功引起了不小的爭議。它的設定是一個出生在烏克蘭的13歲男孩。兩個屬性讓「他」佔盡人類評委的便宜:一方面是他的孩子身份,另一方面,他的母語非英語。這無形中為降低了測試難度。如果他答非所問,人類評委會可能會認為,這是因為他還小或者英語不好造成的。即便如此,這一突破也具有裡程碑意義,它預示著人工智慧以成年人、母語身份通過圖靈測試指日可待。電影《她》(Her, 2013)以非常直觀的方式呈現了一種情況:人和作業系統(人工智慧)之間進行語言交流,進而產生了深入的情感依賴關係。

由於圖靈測試已經被打破,一旦未來有強人工智慧甚至超級智能出現,我們是否有一個具有可操作性的方法,來分別人類和人工智慧。我們甚至可以假想,如果人工智慧假裝或者故意不通過圖靈測試,人類可當如何應對?電影《機械姬》(Ex Machina, 2015)則用科幻的方式提出了一種令人擔憂的場景——人工智慧欺騙人類,逃脫禁錮。

機器人三法則的問題

對人工智慧的警惕和預防,可以追溯到伊薩克·阿西莫夫提出的「機器人三法則」(Three Laws of Robotics):

第一條:機器人不得傷害人類,或看到人類受到傷害而袖手旁觀.

第二條:機器人必須服從人類的命令,除非這條命令與第一條相矛盾。

第三條:機器人必須保護自己,除非這種保護與以上兩條相矛盾。

有必要指出的是,英語中的Law這個詞具有兩種截然不同的含義:第一種是人類社會中的法律和道德律令。其目的是規範一個政治共同體中成員的基本權利與義務,甚至還要定義犯罪行為,並通過相應程序和機構對之進行審判和懲戒;第二種含義是自然(科學)中的法則和定律。例如牛頓力學中的三大定律,它通常是用數學符號的方式來表達的。上述這兩種涵義之間存在根本的不同——後者對人來說是無法違反的,而前者在原則上是可以違反的,因為人類認為擁有基本的形上學自由,即自由意志。或者說,原則上不可違反的法律(則)是沒有必要制訂的,只需要被發現和表達出來。因此,阿西莫夫的三條原則,屬於前者的範疇,類似於倫理與法律,而不是自然法則和定律。其初衷是防止機器人或未來的強人工智慧(乃至超級智能)危害人類。

有意思的是,阿西莫夫使用了不得(may not)和必須(must)這樣的語詞,非常類似神學中的「神命」(divine command)——摩西十誡那樣由上帝頒布給人的誡命。但是正如人類經常忤逆神的誡命一樣,人工智慧為何一定要遵守這些命令呢?如果沒有技術的落實和保障,這一切都僅僅是人類的一廂情願而已——「造物主」也會遇到煩惱,被造物並非那麼乖巧順從。

人類在創造和製造機器人和人工智慧時,是帶有特定目的的,例如希望它們能夠代替人類完成某些甚至全部的工作,其中一些工作必然帶有危害和風險。因此,從語義層面上來看,阿西莫夫的三大法則還有非常多語焉不詳的地方:以第一條為例,它並未明確定義「人類」和「傷害」。我們可以設想,未來工程師設計了一種執行護士職能的機器人,它要給病患打針。打針這個行動是「傷害」嗎?按照我們通常的理解,打針這個行動顯然要刺穿人的皮膚,並造成微量的出血。不過人類的一般常識告訴我們,這種輕微的傷害可以治癒病患的疾病,並且得到了病患的認可。在疾病和打針之間,如果不是出於特定的信仰考慮,一般理智正常的成年人經過權衡比較都會選擇接受打針。但是要讓人工智慧進行這樣的權衡比較,需要極為豐富的常識(common sense)。還有,如果阿西莫夫的第一條原則成立,那麼機器人和人工智慧都不得被用於執法和軍事作戰領域中,因為在這兩個領域中,直接需要傷害特定的人,例如暴力犯罪分子和敵國的作戰軍人。但顯然根據我們的歷史經驗,最新科技往往首先被運用在軍事領域中。人類自身能夠堅守阿西莫夫的第一條法則嗎?

第二條法則中語義存在的漏洞是「服從命令」(obey orders)這個詞。服從命令可以有兩種情況,第一種是服從預先制訂的規則和程序,例如人工智慧系統中的預存命令;第二種是人在當下環境中發出的即時指令。為了不讓人工智慧陷入兩難——成為布呂丹的蠢驢(Buridan's ass)——其前提是人類預先制訂的規則和即時指令之間不存在矛盾或衝突。或者說,當人類的命令出現矛盾時,人工智慧必須有標準來判定依照哪一個命令來行事。例如為了防止犯罪分子利用人工智慧,需要讓預設命令的優先度高於即時指令。其次的問題是,服從誰。阿西莫夫使用了「人類」(human beings)。服從一個特定的人(例如「我」),和服從(複數形式的)人類之間存在明顯差異。如何讓人工智慧定義和識別「人類」成為了關鍵問題。

第三條法則的核心詞是「自己」(its own existence)。要明白這一表述的意指,是否需要「自我」(self)的觀念,而產生這一觀念的前提是人工智慧具備自指(self-referential)能力。

針對機器人三大法則存在的問題,阿西莫夫本人後來增加了更有優先性的「第零法則」——機器人必須保護人類的整體利益不受傷害。這是一個類似於邊沁功利主義的原則,即保證機器人追求人類共同體整體的最大福祉。問題在於,如何定義「整體利益不受傷害」?這會面臨傳統功利主義的難題。例如從宏觀來看,目前地球上有70億人口,我們可不可以為了70億整體人類消滅當中的30億呢?從微觀方面講,我們可不可以殺死一個健康的人,把他的器官拿出來給那些等待急需器官移植的人?這樣殺死一個人可以拯救七到八個人,是否符合所謂「人類的整體利益」?按照人類常識和良知,顯然是不可以這麼做的。因為除了人類的整體利益之外,還有許多需要考慮的問題,每個人的個體利益也必須受到尊重和保護。

「中文屋」、意向性與符號接地

如何讓人工智慧「遵守」規則涉及一個更深層級的問題,即它在什麼意義上「理解」規則。這個問題涉及著名的「中文屋」(Chinese Room)思想實驗。它是由美國哲學家、加州伯克利大學教授約翰·塞爾(John Searle)在《心靈、大腦和程序》(」Minds, Brains, and Programs」, in: The Behavioral and Brain Sciences, 1980)中提出的。所謂「中文屋」,就是要求你想像一位只說英語的人身處一個封閉的房間中,房間裡有一些中英文互譯的工具書。然後寫著中文的紙片通過小窗口被送入房間中,房間中的人可以使用工具書來翻譯這些文字並用中文回復。雖然他完全不懂中文,但通過這個過程,房間裡的人可以讓房間外的人以為他會說流利的中文。

塞爾以此來說明,將機器等同於心靈的強人工智慧是無法實現的,而僅作為工具的弱人工智慧是可能的。他認為:「只有一種機器可以思維,……即大腦和那些與大腦具有相同因果能力的機器。」但對於「中文屋」思想實驗的質疑與反駁同樣也從未斷絕。比如有人提出,屋中人和屋子以及所有工具書一起構成一個系統。屋中的人雖然不懂中文,但這個系統是懂得中文的。

塞爾的中文屋思想實驗的核心問題,後來在人工智慧研究中被稱為「符號接地問題(symbol grounding problem)」。一般而言,至今為止機器只會處理符號和符號之間的聯繫和關聯。然而,人們無法接受的是,符號「僅通過它們與其他符號的關係就變得有意義」。(勞倫斯·夏皮羅著:《具身認知》。華夏出版社,2014年,第107頁。)例如,如果我們修改了電腦中一個文件的文件名,電腦就很難找到這個文件。但如果打開文檔,對人類而言其內容和意義並沒有發生變化。人們相信,人能夠理解符號的意義乃至認識到事物的同一性,是因為人的思維具有某種指向性(Aboutness/ directedness)。哲學史上,弗朗茨·布倫塔諾(Franz Brentano, 1838–1917)借用了中世紀經院哲學概念,將心靈這種特性稱為「意向性」(intentionality),即人類的思維活動總是指向某物。因此意向性也被認為是「心靈的標誌」。

因此問題轉化為,如果要讓人工智慧要真正「理解」意義,是否也需要符號和對象之間的「意向性」呢?倘若不需要或不可能建立這種意向性,那麼將通過什麼方式來建立符號和對象之間的關係?

人類「心魔」與溫柔「統治」

事實上,在我們如今的生活中,已經可以看到非常多弱人工智慧的運用。從機場安檢的人臉識別系統,到現如今具有高度準確性的谷歌翻譯;從特斯拉和谷歌的自動駕駛汽車,到美國軍方現在的制式裝備——X-47B無人機。人工智慧似乎正在以不可阻擋的趨勢,滲透進入我們生活的方方面面。這勢必將引起人類社會中的法律與倫理問題,人類對於技術「失控」的擔憂從未停止。

例如,人工智慧在股票交易中的運用——高頻交易(high-frequency trading),已經在2010年5月6日造成了道瓊工業指數的「閃電崩盤」。如何加強這方面的監管已經成為全球資本市場的一個難題。又比如,今年初出現了全球首例自動給駕駛汽車的致死案例。那麼未來也會出現這樣的緊急避險難題:當自動駕駛的人工智慧在遇到緊急情況時,是優先考慮保護車內乘客,還是選擇優先防止傷害道路上的步行者?再比如,如果神經機器翻譯(GNMT)在絕大多數情況下可以替代人類翻譯,或者其成本遠遠低於人類翻譯時,翻譯作為一個職業是否會消失呢?

人類之所以要創造人工智慧,本來是為了滿足人的某些基本欲求。其中一些可能的失控情況,本質上是人類自身欲望失控的表現和延續。如果人工智慧介入了家庭的私人領域,它會對人類的生活-生存方式造成這樣的影響?英國連續劇《真實的人類》(Humans, 2015)直接提出了這一問題:人工陪伴(Artificial companion)將徹底顛覆人類傳統的家庭結構。反過來,如果人類認為人工智慧也具有情感、智能和記憶,是否不能僅僅將之視為物品,而要賦予它們某些類似人類的基本權利呢?甚至未來人類也可能面臨「舉證倒置」的窘境,即人要自證不是人工智慧。這又如何可能做到呢?

不少科幻小說與影視劇中所表現的人工智慧,最後反客為主統治了全人類。但這裡有兩個老套的設想:首先,人工智慧為什麼一定要按照人的形狀出現呢?這裡面隱藏了一個人類自我中心的認識,所以才會一直以人為模本,來類比想像未來的人工智慧。人類之所以長成現在的樣子,是幾千上萬年進化的結果;而人工智慧完全可以以一套非人類的面貌出現;其次,在科幻電影中往往擔心人工智慧發展到某一天會對人類實行暴力統治。但完全存在另一種可能,即人工智慧以極其溫柔的方式進行統治,讓人處在非常舒適的處境中,覺察不到這是一種統治,進而渾渾噩噩、醉生夢死。又或者,人類未來會以「超人類」(trans-humanism)的方式存在,還是以「賽博智人」(homo cyber-sapien)的雲端形態存在呢?

與其說人工智慧的技術風險引發了人類的擔憂,還不如說人類的「心魔」更要引起自身的警惕。在日益發展的人工智慧面前,人應當反身自問,究竟什麼才是人——人之所以異於AI者幾希?

(本文在2016年10月30日上海建投書局「JIC講堂」第四期的講座內容基礎上有所修改和增補,原標題為《人工智慧的倫理風險及其哲學反思》。)

(本文來自澎湃新聞,更多原創資訊請下載「澎湃新聞」APP)

相關焦點

  • 人工智慧,以及科幻電影中的AI迷思
    一、圖靈測試與智能問題分析科幻電影中的人工智慧問題之前,有必要先說一下「圖靈測試」和「摩爾定律」這兩個概念。1950年,圖靈來到曼徹斯特大學任教,同時還擔任該大學自動計算機項目的負責人。就在這一年的十月,他發表了一篇題為《機器能思考嗎?》的論文,成為劃時代之作。
  • 10部經典人工智慧電影全都看過的肯定是科幻迷
    只是我們平時接觸人工智慧,多是通過文學或影視作品,而目前的人工智慧看起來顯然不太符合我們平時的認知,所以我們並沒有把它們當做人工智慧。雖然現實和電影還有很大差距,但優秀的科幻作品一直以來都對科技發展產生著一定的推動作用,馬上就要過年了,在漫漫回家途中,如果你不知道怎麼打發時間,不妨在下面這10部關於AI的科幻電影裡挑兩部來看看,說不定會對人工智慧產生一點不一樣的看法。
  • 我們熟知的人工智慧還停留在科幻電影,那人工智慧與智能有分別?
    大部分人對人工智慧的印象,多半還停留在科幻電影裡形象豐滿的「機器人」,實際上現實生活中的「機器人」,還不如動畫片裡的小精靈。1.「人工智慧」和「智能」有什麼區別?相對於希望人工智慧技術能讓人類相較於野蠻人或異形而生活更美好一些,人工智慧人士今天更樂意看到的情況是什麼?「智能」這個詞,泛指「機器人體現出自身智能能力」,似乎越多描述智能,就越有發展前景。將「智能」與「人工智慧」進行比較,那麼它們的關係就如:「一個物理法則e」包含「物質」和「能量」兩種要素,你以為一切都是e+水+火?no!
  • 一部非常出色的電影,被科幻外衣包裝起來,一個唯心主義哲學故事
    一部非常出色的電影,被科幻外衣包裝起來的唯心主義哲學故事。現實社會何嘗不是如此,怎樣避免做一塊電池是每個人都需要思考的問題。那個時代的經典,「缸中之腦」的命題雖然不再新穎,但是影片給了我們一個提示:當人們知道真相,難道他們就會願意醒來?
  • 不得不看的科幻電影丨電影推薦:五部科幻佳片
    不要用專業眼光去審視電影,每部電影都有可以挑剔的地方,重要的是,這部電影是否能引發你的心理活動頭號玩家(動作 / 科幻 / 冒險)虛擬VR的另類玩法,是一部科幻電影的裡程碑作品,也許以後的科幻電影,不是用來看的,是用來玩的。個人覺得:「你猜猜有多少個彩蛋?遊戲男孩千萬別錯過。」她(劇情 / 愛情 / 科幻)想試試和人工智慧戀愛?影片以一種獨特的方式來表現愛情,如果沒有性,愛情還可以算是愛情嗎。
  • 你了解科幻電影中軟硬兼施的套路嗎?
    科幻小說專家們提出了以「軟」「硬」給其分類的理論。「硬科幻」是以物理學、化學、生物學、天文學等自然科學為基礎,以描寫新技術、新發明給人類社會帶來影響的科幻作品。而在「軟科幻」作品中,科學技術和物理定律的重要性被降低了,代表「硬」的科學理論性讓位於代表「軟」的文學性。
  • 科幻電影十大黑科技
    這部電影沒有虛擬內存碎片,但是虛擬了整個世界。「不同維度的黑客」這位科學家的主人公用計算機模擬了1937年的洛杉磯。他不時進入計算機領域並回到那個時代。您可以選擇替代品,開始完全不同的生活。然後主角發現事情並不是那麼簡單,他身後有了更大的陰謀。
  • AI真的可怕嗎?20部電影帶你一起認識人工智慧
    約翰發現了一這陰謀,攻佔了實驗室, 戰士凱爾裡斯自願通過時間通道回到1984年保護莎拉……看完終結1,還想看終結2;看完終結2,還想看終結3……於是有了去年的終結5…… 4.《機械公敵》
  • 人工智慧多可怕?方舟子:要求科學家有倫理要求
    人機大戰,李世石三戰皆墨,人工智慧全面勝出,圍棋小天地,環宇大世界,科幻電影裡的危機似乎就要走進現實,無數人憂心忡忡,以至於當李世石終於扳回一局時,世界沸騰,「李世石終於贏了」「人類取得寶貴一勝」……  科技進步不止一次地帶來了倫理的難題,科技究竟會帶給人類什麼?是進步,是毀滅?這是一個永遠都爭論不清的問題。
  • 欲望、理性與真實:科幻電影中的人工智慧倫理問題
    摘要:科幻電影在較深的精神層面凸顯了人工智慧科技發展所造成的當代倫理困境,本質上是關於當代人的欲望與理性之間的對立、矛盾、鬥爭和解決。回歸智能社會本身,反思智能社會的真實嚮往,以我們自己的方式解決智能社會中人自身的困惑與焦慮,進而正確引導尚不成熟的人工智慧趨利避害發展,就有了重要現實價值。
  • 我在暑假看電影:科幻電影帶給少年們的想像力
    今日影評·我在暑假看電影:科幻電影帶給少年們的想像力 時長:08:00 來源:電影網 今日影評·我在暑假看電影:科幻電影帶給少年們的想像力收起
  • 這15部科幻電影更不能錯過!
    看完《流浪地球》,一定激起了你對科幻電影的回憶,也有許多人紛紛開始回刷科幻經典。那麼,你最不容錯過的科幻作品有哪些?雖然這部電影的節奏極慢,但它那磅礴的「太空歌劇」配樂和極其考究的畫面,都讓人忍不住頻頻感嘆:這真的是1968年拍的電影嗎?
  • 徐英瑾談大數據、哲學與人工智慧
    你看那些大的戰役的指揮者,彭城之戰的項羽也好,赤壁之戰的周瑜、魯肅也罷,他們最終作出決策,靠的是什麼呢,難道是大數據嗎?其實是核心情報的評估和基於常識的推理,以及一點點碰運氣式的瞎矇。因為戰爭是充滿無知之幕的。那些以小勝多的戰役,如果光看大數據,那麼一切都會指向多的那一方要獲勝,少的那一方無疑是找死,可是事實是什麼呢?
  • 10部關於機器人的科幻電影,喜歡科幻電影的別錯過!良心經典推薦
    這個查派會畫畫,會戴金鍊子裝黑人,會喜歡洋娃娃,相當可愛,笑點和淚點都有,優秀的商業片。3、《超能陸戰隊》動畫王國裡的奇思妙想,總是驚豔又美好,超級英雄攜手人工智慧,更集合了時下最熱的觀感體驗。飆車、飛行與觸手的魔性侵入,更何況還有一個萌萌的大白,貼心又暖心,簡直是人手必備啊。
  • 人工智慧與哲學有什麼關係?|追問人工智慧
    在某種意義上,人工智慧問題可以被闡釋為哲學問題。人類的認知模式、存在方式、倫理體系甚至主體性本身,在人工智慧來臨的時代都面臨著新的局面。一方面,人和人工智慧的關係能否和諧共融,在很大程度上取決於人如何認識自身以及自己和人工智慧的關係;另一方面,主體性的變革可能會給人工智慧的發展提供突破口。但是,這些真的能靠作為信念系統的哲學思考而實現嗎?
  • 奇異科幻電影,帶給你感官上的震撼
    有一類電影,非魔非幻,是一種另類奇異科幻空間世界,虛擬、奇異又似乎就是我們現實的生活。這類電影似乎非常寫實卻又非常虛幻,看起來總能帶給我們感官上的震撼。下面就為大家推薦18部此類佳片,沒看過的千萬不要錯過。
  • 他用7萬人民幣完成的電影,讓我們看到了國產科幻的希望
    他認為最重要的是作品的哲學目的,要為中國的文化找一個普世的歸宿。問題在於,科學的核心是證偽的,而中國文化很多時候是作偽的,比如中醫。也許,科幻不屬於中國人。《孤島終結》創作故事王人超導演表示,《孤島終結》像一個命題作文,劇本寫得非常糾結。故事是從取景地東極島開始的。王人超導演的初步的設想,是圍繞這個有孤獨感的島嶼講一個愛情故事。
  • 當機器人有了自我意識後會怎樣?這些科幻電影不看不知道,一看嚇一跳
    當機器人有了自我意識後會怎樣?這些科幻電影不看不知道,一看嚇一跳 【IT時代網、IT時代周刊策劃】人工智慧的確比人類更具效率,可是當它們的迅速崛起,控制到人類生活的方方面面時,一切又會發生怎樣的變化?
  • 科幻影視那麼多,從何看起?-虎嗅網
    這些都是2018年的現實問題,卻是科幻作品裡面的老生常談。科幻不能給我們解決現實問題的答案,卻可以幫助我們在遇到這些問題時不至於大驚失色。科幻影視那麼多,從何看起?哪一類才是你想看的?密西根大學博士蔡伏羲幫助我們一起梳理科幻影視的歷史和分類。
  • 推薦給科幻迷們十部經典科幻電影
    每天都有分享。完全是免費訂閱,請放心關注。註:本文轉載自網絡,不代表本平臺立場,僅供讀者參考,著作權屬歸原創者所有。我們分享此文出於傳播更多資訊之目的。如有侵權,請在後臺留言聯繫我們進行刪除,謝謝!科幻電影是許多的人都喜歡的一類電影,因為它往往脫離了現實可能性,有著天馬行空的想像而又不失嚴密的邏輯,以科技的魅力構造出了一個全新的幻想空間,接下來為大家帶來了十部科幻電影排名不分先後,喜歡的電影千千萬隻能簡單搜羅十部分享給大家,以後我會多分享一些我看過且感覺不錯的電影繼續分享給大家.