2019年3月14日,是世界著名物理學家霍金逝世一周年紀念日,他的遺作《十問:霍金沉思錄》中文簡體版也選擇這一天與中國讀者見面。在這本書裡,讀者看到霍金生前一直都在跟進科學界的最新進展並聯想到人類未來,他一共用10個章節,提出了10個終極大問題,內容涉及宗教、宇宙、黑洞、地球、人工智慧等多種學科領域。
透過這些問題,人們感受到霍金作為一位偉大的物理學家,不僅在科學領域取得卓越成就,還格外關注人類命運,他結合博大精深的專業知識,認真思考人類面臨的生存危機,發出預警,提供建議,充分體現了世界頂級科學家的社會責任和高尚情懷,發揮出強大的思想引領作用,贏得世界人民的尊重和緬懷。
值得一提的是,在這些問題內容中,霍金有關宇宙其他生命和人工智慧方面的觀點及論述,與中國著名人類學家胡家奇幾乎一致。胡家奇先生研究人類問題超過四十年,他堅定地認為,科學技術是把雙刃劍,如果不受限制地發展下去,必定會滅絕人類。他在2017年曾發表文章《霍金提出了三個和我一樣的觀點》,引發眾多關注。文中說到:「當今世界最著名的物理學家史蒂芬•霍金就人類命運提出了三個在全世界引起強烈反響的重要觀點,但都比我就這些觀點正式出版的著作和發表的文章晚了多年。」
霍金遺作出版 曾與中國人類學家胡家奇先生產生思想交集
第一個觀點:2010年4月,霍金指出,宇宙中有千億的星系,每個星系又有數億顆恆星,外星人幾乎肯定存在,我們應該避免與外星人接觸,千萬不要聯繫外星人,否則可能會導致人類被毀滅。因為能夠穿越恆星際的距離來到地球的外星人,其科學技術的領先程度必定遠高出地球人,我們無法與之抗衡。霍金的推理和舉例與胡家奇完全一致,但比胡晚了3年。
第二個觀點:2014年12月,霍金指出,人工智慧技術終將產生自我意識並取代人類,因為技術的發展速度要快於生物的進化速度,當人工智慧發展完善後,全面超越人類,遵循強者生存法則,可能會導致人類滅絕。霍金的推理和舉例與胡家奇基本一致,但比胡晚了7年。
第三個觀點:2017年3月,霍金在接受《倫敦時報》採訪時指出,人工智慧如果管控不好有可能滅絕人類,我們需要以更快的速度識別這類威脅,並在失控前採取行動,要做到這一點,需要組建某種形式上的世界政府。霍金的推理和舉例與胡家奇基本一致,但比胡晚了10年。
胡家奇是堅定虔誠的人類主義者,他將拯救人類於滅絕作為畢生事業。他說:「發表這篇文章,不是想炫耀我比霍金還了不起,相反,我是想說世界頂級科學家思考的觀點正在趨近我的核心觀點,而這些觀點我認為事關人類的生死存亡,努力讓世界接受這一觀點並採取相應的行動,這是我一生的追求,借勢霍金這樣的科學家正是我的用意。」
2020年11月1日,由胡家奇創辦的拯救人類行動組織正式成立,這是一個註冊於美國的非政府間國際組織,組織的宗旨是致力於用和平方式推動一場全人類的覺醒運動,使全人類普遍認識到科學技術繼續非理性發展必定很快滅絕人類,只有實現人類的大統一,採用世界政權的力量,堅決限制科學技術的發展才能拯救人類於滅絕。