最近5G網絡的部署可謂是如火如荼,而相對的,人工智慧技術的發展也不甘落後,面對著飛速發展的人工智慧,我們仿佛看見了未來和自己繁瑣工作說再見的那天。但是人工智慧的飛速發展究竟是好是壞呢?未來機器人會傷害人類嗎?那我們現在豈不是在自掘墳墓?
喜歡漫威電影的網友們應該都看過《復仇者聯盟2》這部電影。講述的是厭倦了戰鬥的英雄們脫下了戰甲,製造出了一個擁有自我意識、有強悍學習能力的人工智慧機器人——奧創。一開始奧創確實幫英雄們解決問題,打擊罪惡。但是不斷地學習和升級之後,奧創覺得,人類才是最大的威脅,於是奧創定製了一個讓人膽寒的計劃——消滅人類。
雖說最終,英雄們齊心協力打敗了奧創,拯救了地球。但是電影雖說是消遣娛樂,但總能帶給觀眾一些值得深思的問題。小編在想,如果真的有一天,人工智慧飛速發展,將人類定義為「垃圾」,那我們真的可以戰勝比我們更聰明的人工智慧嗎?就算可以,會不會損傷慘重呢?
解決危險的最好方法是什麼?那就是直接將危險直接扼殺於萌芽之中!為了防止未來人工智慧高速發展而反客為主,傷害人類,那我們就要提前和他們「約法三章」!
第一點:不要讓人工智慧獲得人類感情
在漫威電影裡,奧創之所以想要毀滅人類,是因為它發現很多人類有著醜惡、貪婪的嘴臉,通過分析思考,奧創認為:人類才是地球最大的威脅。為了保護地球,奧創決定毀滅人類。所說問題出在很多人面對誘惑,太過貪婪。但是歸根結底,還是因為奧創得到了不該得到的東西——人類的情感。
所以小編認為,如果想要在根本上防止人工智慧高速發展而傷害人類,那我們在研發它們的時候,就要注意不能讓機器人獲得感情。就如京東商城總裁劉強東所說:我請你來不是讓你證明我錯了。我們研發人工智慧是為了幫助我們、方便我們的學習、工作和生活。只要我們發出指令,人工智慧只需要竭盡全力去執行就行了,哪怕指令是錯的,那也是我們自己的問題了。所以小編覺得,人工智慧是一定不能帶有人類感情的。
第二點:一定要在人工智慧「大腦」中植入至高指令
雖說人工智慧後期可能會是我們的忠實幫手,甚至變成我們的好朋友。但是防範於未然一直是一個明智之舉。即便是親兄弟借錢,還要打借條呢。所以對於未來可能比我們更聰明的人工智慧,我們一定要在它們的靈魂深處刻下一條「至高指令」,那就是永遠不可以作出對人類有害的行為,否則將會強制「斷網斷電」,甚至自我毀滅。
第三點:防止機器人接觸一些「分外之事」
有一句話說得好,位置決定大腦,不管從事什麼工作,都只要做好自己分內的事就可以了。曾經有一位北大畢業的高材生剛進入華為公司就洋洋灑灑地給華為創始人任正非寫了一封萬言書,對華為未來的發展提供了建議。然而任正非卻這樣回應:此人若是有精神病,建議送往醫院治療,如果沒有,建議辭退。
人工智慧也是如此,我們設計不同的人工智慧一定要限定它的領域。例如谷歌公司的圍棋機器人阿爾法狗,他可以作為別人的圍棋老師,也可以參加一些圍棋比賽。但是不能變成醫療人工智慧,幫助醫生。一些特殊的領域也不能讓人工智慧接觸,這樣就能從根本上杜絕問題。
隨著人工智慧技術的高速發展,以微軟創始人比爾蓋茨、英國科學家史蒂芬霍金還有美國科學家埃隆馬斯克為代表很多學者都認為,在不久的將來人工智慧就會超越人類,比人類更聰明,他們稱那一天為「奇點」。或許在幾十年後,或許在百年之後,但是奇點越來越近,是不爭的事實。任何事物都有兩面性,人工智慧亦是一把「雙刃劍」,能否用好,則是我們人類自己的事情了。對於人工智慧是否會傷害人類,大家有什麼不同的看法嗎