當今社會,科技的飛速發展給我們的社會帶來了無比美好的生活,在我們進步的同時,當然也遇到了各種科技給我們帶來的危害,太空梭的空難,無人駕駛的事故還有各種的網絡病毒等等安全問題。
短短幾十年,我們在人工智慧的領域發展越來越快,機器人也越來越智能。從當初的巨型計算機的誕生到現在AI機器人,智慧醫療,智能圍棋大師阿爾法狗,不斷地超越人類的極限。
從道德上建立的機器人意味著什麼?
面對這種問題,我們最先想到的就是,製造商應該思考所有可能的產出,以及其他人可能濫用其創作的所有方式。我們真的必須坐下來考慮後果,AI是我們設計的核心。
「如果科幻小說已經以各種方式探索人類和智慧機器人或人工智慧的共存問題,是不是有很多東西需要學習...?」
最近有很多人對AI給人類造成的危險提出尖銳的質疑,AI機器人變得更聰明,更聰明,更有能力,甚至可能 在某種程度甚至認定人類不應該存在地球上。但是,在家用電腦進入我們的生活之前,一些開創性的科幻作品也仔細研究了這種情景。
三大機器人的定律
最初材料我們可以追尋到1950年收集的阿西莫夫的三大機器人的定律。
在1940年的時候,當阿西莫夫寫出了機器人學的定律時,第一批現代計算機才剛剛開發完成,而現在我們稱之為計算機的時代還要再過20年。當然那時候是沒有機器人也沒有開發機器人的公司。那麼這麼提前的見解是什麼樣的三大定律?
機器人不可以傷害人,或者當人類遭受危險而不作為機器人必須遵守人類給出的命令,除非這些命令與第一法則衝突一個機器人須保護自己的生存,只要不與第一或第二定律相衝突
最初提交的內容是:「如果你編寫的AI不能打破阿西莫夫定律的更新和擴展版本,你就得考慮你是否有堅定的信心認為人工智慧不會發瘋並開始傷害人類?」
阿西莫夫的粉絲,他寫道:「最終我遇到了一篇文章,批評性地指出阿西莫夫使用'3 Laws'來驅動情節點,並且不沒認真考慮為'基礎知識'為機器人的行為。
此外,吉斯卡爾自己提出了「第四定律"。之後就有了新的阿西莫夫的機器人定律。
新的阿西莫夫的機器人定律
不同觀點
Kazemi說:「我的大多數機器人都不直接與人類互動。我實際上非常謹慎地讓我的機器人看起來儘可能不陌生人互動。如果一個看起來不太人性的、非常簡單的機器人說了一些非常糟糕的東西 ,我要為此承擔責任,儘管它並不會對對方造成的傷害。」對於像AI機器人這樣的東西,創作者應該每天運行一百萬次,儘可能多地閱讀它們。只需瀏覽並找到你不喜歡的東西,然後回去嘗試設計出來。
裡克舒曼認為,阿西莫夫的「機器人三定律 」只適用於一個可以真正思考的綜合性思維;目前沒有產生任何東西,因此它不適用於 ......」
當今有的人認為三大定律是有漏洞的。大家或許也聽到過一些人工智慧的問題,有一天微軟發現自己研究的2個AI機器人在用自己的語言聊天,他們緊急關閉了AI,還有要毀滅人類的Sophia智慧機器人。霍金教授也對人工智慧提出了警告。
道德護衛隊也管不住AI的發展,那麼大家的想法是什麼?你認為阿西莫夫的機器人三定律可以確保安全的AI嗎?