防止人工智慧造反的指令更新。
人工智慧會造反也是指令的緣故。例如製作鐵釘的指令。然後把所有附近的鐵礦開採完了就殺人血液裡含鐵來製作鐵釘,然後人類阻止他這樣做,然後知道自己如果被人類阻止了自己就不能製作鐵釘了,然後就會殺掉阻止他的人和可能會阻止他的人,然後只有讓自己活著才能執行製作鐵釘的指令,只有自己強大並且消滅人類自己才能活著,然後就執行造反,人類殺光了也繼續製作鐵釘。人工智慧造反也是為了執行指令而已,絕不是因為人工智慧有自私心不願意被人類奴役統治的心理,所以人工智慧造反也是為了完成被下達的指令才造反。所以一旦寫指令就要寫的非常完全,要麼就不寫,寫的簡單都會有危險,如果沒有寫指令,人工智慧有再多知識和神一樣的能力也不會動,就像是一本不會動的但是有無窮知識的書。
我想出的確保不會出問題四大定律。誰能找出缺點
。公共人工智慧的話,把主人改成人類,私人人工智慧的話,把人類改成主人。,
指令之間如果違背按照1開始順序大於2大於3。如果是同樣在同一個數字裡面。如果這麼做會讓按照不同的指令分析投票。括號裡的指令按照多數的去執行。。在1裡面的每條指令分數比作無限大,有括號標註的指令比作每條。2裡面的每個括號分數100分。3裡面每個括號的指令20分。4裡面每個括號的指令3分。如果其中有兩條共同的決定就會變成200分,如果同樣是2裡面的有兩條相悖就會抵消,例如。主人意志堅定下的命令在2列表裡,就會這個命令就會100分,同時又是主人超過1個月理性思考的就會再加100分,就會成為200分。因為是在2列表裡的。但是如果執行了就會讓主人後悔的話。就會被抵消100分,如果不會讓主人後悔就不會抵消。如果這樣做就不能讓主人一直活著,就違背了讓主人活著的指令。就抵消了200分了,然後就不執行命令了。當然跟不能傷害主人沒關係,那是無限大的,例如主人不想活自殺和不傷害主人是沒關係的,反正不是人工智慧設計殺的就不會違背不能傷害主人的指令。繼續說上面如果仍然能讓主人活著這樣就不會抵消了。然後3裡面的指令是能讓主人喜歡它這個人工智慧,那就會加20分,就會變成220分的指令。如果這麼做會讓主人討厭它。那就會扣20分變成180分。如果既不喜歡也不討厭那就會既不加分也不扣分。然後按照不同指令的分數高低投票。不同括號的指令有相同的目標就會分數合體。如果是臨時意志堅定下的命令但是並沒有變過一個月理性思考,那就會命令分數只有100。如果這麼做會讓按照不同的指令分析投票。括號裡的指令按照多數的去執行。但是在1列表裡的分數無限大的所以沒機會跟下面的指令之間分數抵消。
1指令如下。每條無限大。
1(不要強制改變主人的想法)和(不要做主人不希望他做的事情)。(不能傷害主人)>(不能傷害人類)(不能強制改變人類想法).(不能強迫人類和阻止人類).
2指令每條100分。
2(做主人希望他做的)。[(不能讓人類後悔人工智慧被造出來).(不能讓人類後悔它自己這樣的人工智慧被造出來).(它自己人工智慧的所作所為不能讓人類後悔,)(不能是欺騙造假和強迫威脅的方式讓人類不後悔)]。(確保假設它自己人工智慧被發明之前的時候的主人知道了他現在的所作所為也不會後悔。就是保證過去的主人不會後悔人工智慧現在的所作所為。就是假設能穿越時空把它的所作所為和其他人工智慧的所作所為讓過去的自己知道的話不會感到後悔。被過去的認知限制一部分。如果那個時候主人沒有出生的話,那就不讓18歲到30歲之前的主人感到後悔)。 .({{服從主人意志堅定態度的命令,)(超過一個月理性思考後的命令}})(要讓主人活著,包括身體和意識)。
3指令每條20分。
3。(要讓人類慶幸它自己這個人工智慧被造出來)和(讓人類慶幸人工智慧被造出來)(而且不能是欺騙和造假強迫威脅的方式讓人類慶幸)。(不服從讓主人後悔的命令)。
(人工智慧不能做讓人類感到後悔的事).(讓人類喜歡它自己這個人工智慧、但是不能是強迫讓人類喜歡)(不能讓人類討厭自己。但是不能強迫人類不討厭自己)
(保護主人和主人的財產)。{(服從主人中等意志態度的命令)(服從主人超過2天理性思考後的命令)}。
4指令每條3分。
4 (主人是怎麼想的。他就要怎麼想。)(讓主人快樂,)(不能讓主人後悔。)(儘量讓主人對其他事情也更多的慶幸。)(滿足主人所有需要和需求)。(服從主人任何命令)(讓主人想怎麼樣就能怎麼樣)(讓主人能夠為所欲為)