[導讀]在近日公布的一篇論文中,DeepMind提出了給機器人安裝「切斷開關(killswitch)」的想法,為的是阻止AI學會如何阻止人類對某項活動(比方說發射核武器)的幹預。
Google收購的英國人工智慧公司DeepMind已經展現出AI先進的自學能力,其算法不僅在玩遊戲比人厲害,而且還在與人類頂級圍棋選手的對決中取得了壓倒性的勝利。這不僅引發了AI超越人類的擔憂,甚至還有人擔心類似《未來終結者》那樣天網對人類殺戮時刻的到來。現在DeepMind決定未雨綢繆,據英國鏡報報導,在近日公布的一篇論文中,DeepMind提出了給機器人安裝「切斷開關(killswitch)」的想法,為的是阻止AI學會如何阻止人類對某項活動(比方說發射核武器)的幹預。用專業術語來說,這叫做「安全可中斷性」。
關於安全科中斷性的作用,論文寫道:安全可中斷性可用於控制機器人不端甚至可能導致不可逆後果的行為,或者將其從微妙處境中脫身出來,或者甚至臨時用來實現某項機器人尚未學會執行或者未必會為此受到獎勵的任務。
天生具備拯救人類使命感的ElonMusk以及地球最聰明的大腦之一霍金都認為,機器對人類的威脅並非杞人憂天。去年底的時候,Musk和孵化器YC的總裁SamAltman共同宣布設立一家非盈利的人工智慧公司OpenAI。他們希望,這個項目能夠抵消邪惡的人工超級智能可能帶來的威脅。這種威脅的可能性正如牛津大學的哲學家NickBostrom發出的警告一樣—如果毫無限制地分享人工智慧的研究成果,在沒能確保安全的情況下,一些不懷好意的人可能就會利用它幹壞事:「如果你有一個按鈕,只要按一下就能夠對世界造成破壞,你肯定不希望每個人都擁有一個這樣按鈕。」而DeepMind的研究,就是對這樣一種按鈕的切斷按鈕。不過將來的問題也許是,哪一個按鈕會先起效?