據英媒報導,史蒂芬-霍金去世,享年76歲。
史蒂芬·威廉·霍金(Stephen William Hawking),1942年1月8日出生於英國牛津,英國劍橋大學著名物理學家,現代最偉大的物理學家之一、20世紀享有國際盛譽的偉人之一。
霍金21歲時患上肌肉萎縮性側索硬化症(盧伽雷氏症),全身癱瘓,不能言語,手部只有三根手指可以活動。1979至2009年任盧卡斯數學教授,主要研究領域是宇宙論和黑洞,證明了廣義相對論的奇性定理和黑洞面積定理,提出了黑洞蒸發理論和無邊界的霍金宇宙模型,在統一20世紀物理學的兩大基礎理論——愛因斯坦創立的相對論和普朗克創立的量子力學方面走出了重要一步。獲得CH(英國榮譽勳爵)、CBE(大英帝國司令勳章)、FRS(英國皇家學會會員)、FRSA(英國皇家藝術協會會員)等榮譽。
2012年4月6日播出的熱播美劇《生活大爆炸》第五季第21集中,史蒂芬·霍金本色出演參與了客串。2017年為英國BBC錄製紀錄片《探索新地球》。物理學家史蒂芬·霍金11月6日表示,技術有望逆轉工業化對地球造成的一些危害,有助於消除疾病和貧困,但人工智慧需要加以控制。
2017年11月,霍金預言2600年能源消耗增加,地球或將變成「火球」。
霍金,被譽為「宇宙之王」,它認為:人類迄今為止最為深刻的影響就是人工智慧的崛起,對於人工智慧,他有以下十點深刻的思考:
在我的一生中,我見證了很多社會深刻的變化。其中最深刻,同時也是對人類影響與日俱增的變化就是人工智慧的崛起。人工智慧可能是人類文明史上最偉大的事件,它要麼是人類歷史上最好的事,要麼是最糟的。如果我們不能學會如何避免風險,那麼我們會把自己置於絕境。
如果有人設計計算機病毒,那麼就有人設計不斷自我完善、直到最終超越人類的人工智慧,其結果將是一種新的生命形式。人工智慧的真正風險不是它的惡意,而是它的能力。一個超智能的人工智慧在完成目標方面非常出色,如果這些目標與我們的目標不一致,我們就會陷入困境。」
人工智慧對人類的影響,可以從短期、長期兩方面來分別討論。短期擔憂——智能自主武器、隱私。
人工智慧的全方位發展可能招致人類的滅亡。比如最大化使用智能性自主武器。
目前,世界上九個核大國可以控制大約一萬四千個核武器,它們中的任何一個國家都可以將城市夷為平地,放射性廢物會大面積汙染農田,最可怕的危害是誘發核冬天,火和煙霧會導致全球的小冰河期。
這一結果使全球糧食體系崩塌,末日般動蕩,很可能導致大部分人死亡。我們作為科學家,對核武器承擔著特殊的責任。正是科學家發明了核武器,並發現它們的影響比最初預想的更加可怕。
除此之外就是隱私的擔憂。由於人工智慧逐漸開始解讀大量監控數據,於是人類在機器人面前將變的一絲不掛,你喜歡什麼樣的美食和女人?內心在想什麼?等等,這些都會被機器人洞察的一覽無餘。
長期擔憂——人工智慧系統失控的潛在風險。
人工智慧遵循的一個邏輯是,「計算機在理論上可以模仿人類智能,然後超越」。這一天很快會到來。未來,人工智慧可以發展出自我意志,一個與我們衝突的意志。
我們無法知道我們將無限地得到人工智慧的幫助,還是被藐視並被邊緣化,或者很可能被它毀滅。但事實就是:聰明的機器將能夠代替人類正在從事的工作,並迅速地消滅數以百萬計的工作崗位。人類由於受到漫長的生物進化的限制,無法與之競爭,將被取代。這將給我們的經濟帶來極大的破壞。
在過去二百年中,人口增長率是指數級的,目前這一數值約為1.9%。 這聽起來可能不是很多,但它意味著,每四十年世界人口就會翻一番。 2022年,我將慶祝自己80歲的生日,而在我人生的這段歷程中,世界人口比我出生時膨脹了四倍。
這樣的指數增長不能持續到下個千年。到2600年,世界將擁擠得 「摩肩擦踵」,電力消耗將讓地球變成「熾熱」的火球。這是岌岌可危的。
我相信我們可以避免這樣的世界末日,而最好的方法就是移民到太空,探索人類在其他星球上生活的可能。
人類作為獨立的物種,已經存在了大約二百萬年。我們的文明始於約一萬年前,其發展一直在穩步加速。如果人類想要延續下一個一百萬年,我們就必須大膽前行,涉足無前人所及之處!
在某種程度上,今天的情況就如同1492年前的歐洲。當時的人們很可能堅信,哥倫布的探險註定是徒勞無功。 然而,新世界的發現,對舊世界帶來了深遠的影響。對於那些被剝奪權利地位、走投無路的人來說,新世界成為了他們的烏託邦。
人類向太空的拓展,甚至將會產生更深遠的影響,這將徹底改變人類的未來,甚至會決定我們是否還有未來。它不會解決地球上任何迫在眉睫的問題,但它將提供解決這些問題的全新視角,讓我們著眼於更廣的空間,而不是拘泥眼下。
當我們進入太空時,會有怎樣的發現呢?
會找到外星生命,還是發現我們終將在宇宙中踽踽獨行?我們相信,生命在地球上是自然而生的,是在漫長的進化後,實現了與地球資源的高度契合。
因此,在其他條件適宜的星球上,生命的存在也必定是可能的。去年,我們推出了長期研發計劃——「突破攝星」,目標是讓星際旅行變成現實。「突破攝星」是人類初步邁向外太空的真正機會,為了探索和考量移居太空的可能性。
這項創新背後的想法,是以光束來驅動納米飛行器的前進。這樣產生的速度雖然不及光速,但也能達到其五分之一,約合每小時1億英裡。這樣的系統可以在一小時內抵達火星,幾天內到達冥王星,一周內就可以追上並超過旅行者號探測器,並在僅二十年後到達半人馬座阿爾法星系。
人工智慧的成功有可能是人類文明史上最大的事件。但人工智慧也有可能是人類文明史的終結,除非我們學會如何避免危險。我相信我們團結在一起,來呼籲國際條約的支持或者籤署呈交給各國政府的公開信,科技領袖和科學家正極盡所能避免不可控的人工智慧的崛起。
所以,監管和立法在AI的發展過程中十分重要。
通過達爾文式的演化過程,侵略性深深根植於我們的基因之中。然而,如今的技術發展已經加快到了某種程度,使這種侵略性可能會以核戰爭或生物戰爭的形式毀滅人類。我們需要用邏輯和理性來控制這種與生俱來的本能。
你可能並不是一個討厭螞蟻的人,但也會無意中踩死螞蟻,而如果你負責一個水力發電的綠色能源項目,項目所在的區域內也可能會有許多螞蟻巢穴被水淹沒,對螞蟻來說就非常不幸。我們要避免人類處於這些螞蟻的境地。
人類面臨的最大威脅是我們自身的弱點,即貪婪和愚蠢。(這些人性的基本屬性,將使在人工智慧時代的境況將變的更加糟糕,因為當機器被設定程序後就知道適可而止,知道就流勇退,但是人類很難,除非是那些極高修為的人,才能突破人性的弱點,但是機器人可以輕而易舉的迴避這些弱點)
我們還應該扮演一個角色,確保下一代不僅僅有機會還要有決心,在早期階段充分參與科學研究,以便他們繼續發揮潛力,幫助人類創造一個更加美好的的世界。
文章來源:工業機器人整理,資料源:快資訊、科技最前線、人民網
商務合作:010—88379790轉802、822
免責聲明:本文系網絡轉載,版權歸原作者所有。但因轉載眾多,無法確認真正原始作者,故僅標明轉載來源。本文所用視頻、圖片、文字如涉及作品版權問題,請第一時間告知,我們將根據您提供的證明材料確認版權並按國家標準支付稿酬或立即刪除內容!本文內容為原作者觀點,並不代表本公眾號贊同其觀點和對其真實性負責。