隨著計算機的發展與通訊技術的升級,AI的發展是越來越快,從最古老的「深藍」到打敗柯潔李世石的阿爾法狗,人類的AI技術可以說的突飛猛進了,隨著5G時代的到來,AI的討論是愈加的熱烈,但是很多科技大佬卻紛紛對AI表示了擔憂。比如真人版鋼鐵俠埃隆馬斯克就表示很擔心,AI最終一定會消滅人類。那為啥會有這個擔心呢,不可能是突發奇想妄加評論吧,何況我們還有著名的機器人三定律。

我們就先從機器人三定律聊起,這個定律最早是由著名的科幻小說家阿西莫夫提出的,作為科幻界的頂級大佬,劉慈欣都是自愧弗如。那機器人三定律說的是個啥呢?
1.機器人不得傷害人類個體或者目睹人類個體將遭受危險而袖手旁觀。
2.機器人必須服從人給予它的命令,當該命令與第一定律發生衝突時例外。
3.機器人在不違反第一定律與第二定律的情況下要儘可能地保護好自己。

這三條定律總結起來就是一句話,機器人無論如何都不能傷害人類。那既然程序都設定死了,為何還要為機器人消滅人類而擔憂呢?難道人類不相信自己的技術嗎?不是的,極有可能就是因為相信技術才相信AI終究會消滅人類,為什麼這麼說呢,那是因為量子計算的的出現將為一切提供可能。
一直關注我的朋友應該能知道,我們說過量子力學的過程中存在所謂的真隨機性,真隨機性就是真不可預測,真控制不了,這其中最著名的也最廣為人知的就是量子力學的「隧道效應」,也就是說,在宏觀世界發生不了的事在量子世界是有發生的概率的,雖然這個概率非常的小。

當然,除了「隧道效應」,這個還涉及到意識的本質,意識到底是個什麼玩意。我們平時總說雖然生活艱難,成年人有很多身不由己,但是我們依舊是一個自由人,因為我們相信自己擁有自由意識,我們所有的身不由己都是對這個世界的妥協,並不妨礙我們的自由意識。所以既然是自由意識,那就必然的包含了真隨機的可能性,因此,在存在量子計算機的前提下,AI要是出現的話,它就有可能出現類似於人類的自由意識。

有了自由意識的AI,你給它編機器人三定律也沒用。為什麼說沒用呢?這就跟你從小教育你的小孩要好好學習一樣,但是並非所有從小被教育要好好學習的人都會好好學習,有一定的概率還是會不好好學習,而且這個概率還相當高。那麼對於量子AI,就算你在程序裡告訴它不能夠傷害人類,也依舊存在一定的概率會違反基本的程序設定。因此量子AI就不是100%的可控了,再加上它們具有不可比擬的計算優勢,搞不好哪天一不高興,它們就把人類給滅了。

所以AI現在不光是個技術問題,還涉及到了倫理問題,因此就引發了大規模的討論,有人支持有人反對,公說公有理婆說婆有理,但是有一點需要注意的是,人類絕不能因為害怕而止步不前。那麼你覺得人類發展的AI到了一定程度會和人類展開對抗嗎?