1、智能汽車的道德難題
著名的科幻作家阿西莫夫,在他的《機器人系列》裡面,提出了影響力極大的機器人三定律。
第一定律,機器人不得傷害人類,或者因不作為而使人類受到傷害。
第二定律,除非違背第一定律,否則機器人必須服從人類的命令。
第三定律,在不違背第一及第二定律下,機器人必須保護自己。
這三大定律定義非常嚴密,邏輯也嚴謹,而且層層遞進,所以甚至於影響了人工智慧的一些發展的軌跡。
但是,今天人工智慧領域的發展,卻遇到了這三大定律無法解決的問題。
那就是電車難題的升級版——自動駕駛汽車的選擇難題。
具體的場景比如這樣,一輛自動駕駛的汽車在路上行駛,這時候突然冒出來一個人橫穿馬路,這時候人工智慧檢測到了這個意外,但是剎車已經來不及了,這時候它就面臨了一個選擇。
如果不轉向,那麼會撞死行人,如果轉向,那麼乘客會死於翻車。
這時候自動駕駛智能應該如何選擇呢?
阿西莫夫的三大定律,第一條就在這裡卡著了。
那很多人會說,阿西莫夫後來不是加了第零定律嘛,那就是機器人不得傷害人類種族,或因不作為而讓人類種族受到傷害。
這第零條定律,就是讓人類利益最大化,延續種族的傳承。
但是這個判斷和辨別又是一個難題了。
2、功利主義算法
比如孩子和老人、多人和單人、女人和男人、人和動物等等,當這些選項出現以後,每一家開發自動駕駛的公司,都得面臨這個選擇。
如果按照阿西莫夫的第零定律,那麼孩子優先、人多優先、女人優先、精英優先,人比動物優先,因為這是赤裸裸的效用主義。
也就是說,哪一方對整個人類社會的發展,起的效用越高,那麼就保留哪個選項。
如果人工智慧自動駕駛,必須要編一個選擇程序優先級,我想這個效用等級應該是最多人支持的。
事實也是如此,研究發現效用主義是絕大多數人支持的算法。
畢竟對於我們每個人來說,做出選擇是一輩子都在做的事情,我們時刻會面臨一些兩難的選擇,而放棄哪個,選擇哪個,從來都是功利主義的。
所以真的發生了這麼一個選擇,自動駕駛用這個算法做了選擇,我們絕大部分人都是能夠接受的。
但是,問題來了。
我們能夠接受,並不代表我們會去買。
我們想買的其實是,不管任何情況,都優先保護我們自己,保護乘客的汽車,而不是說要是遇到兩個小孩子橫穿馬路,就會把我自己搞死的汽車。
所以真要是用這種算法生產了汽車,最後根本就不會有人買。
因為我們人類都是矛盾的,己所不欲勿施於人這句話反過來,才是人性的真相。
3、未來的走向
那怎麼辦呢?自動駕駛就永遠上不了路了嘛?
那也未必,人工智慧專家說,既然兩個選擇都是錯,那就避免遇到這種選擇嘛。
於是自動駕駛的汽車,就在處理速度、距離、路況、天氣等等信息的收集和處理上下功夫,並用各種傳感器和雷達進行感知,提前計算出所有處理方案。
這樣那些難以抉擇的道德難題,就變成了假難題。
第二種思路,王爍老師給了我很大的啟發,那就是不斷尋找和更換和困境並存的策略。
什麼意思呢,就是人類歷史上經常會遇到很多根本沒有正解的問題,但是又不得不做解決。
那麼最好的策略就是,先用一個,然後等人性的反擊,當怨念和憤怒積累到了一定程度以後,在更換一個相反的,繼續等怨念的積累。
如此不斷的循環,就可以讓難題和答案一直並存了。
所以未來汽車裡面的算法,就可以用幾種綜合的算法先實行,然後等出問題多了,大眾開始反擊了,在更換成下一種。
反正,這種事情,我們在歷史中沒少幹。