若天網認為終結者可能沒有足夠的責任去掌握整個美國核武器的關鍵,終結者將如何運作?結果是,科學家們可能通過創造出知道何時會產生懷疑的神經網絡,從而避免了未來AI主導世界的出現。#人工智慧#
為了模擬人的大腦,深度學習神經網絡試圖在各種因素之間進行權衡,以發現大量人類無法分析的數據中的模式。
雖然天網離此尚遠,但人工智慧已經在影響人類生活的領域做出決策,如自動駕駛和醫療診斷等,這意味著,它們必須儘可能精確。為達到這一目的,新建的神經網絡系統可產生其可信度等級及其預測值。
MIT計算機科學和人工智慧實驗室(CSAIL)的計算機科學家 Alexander Amini說:我們不僅需要有擁有高性能模型的能力,還需要知道什麼時候我們不能信任它們。
這種信任感被稱為「深度證據回歸」,它根據使用的數據的質量評分——訓練數據越全面越精確,未來預測的可能性就越大。
科學家們把它和神經網絡對自己的預測缺乏信心的自動車做了比較,神經網絡決定是否要通過或等待。可信度甚至包括了評分技巧(例如,調整網絡或輸入數據)。
儘管以前的神經網絡也有類似的保護措施,但是這種功能的獨特性在於它工作速度快,不需要大量的計算,可以一次通過網絡,而不是多次通過,並且其輸出的可信度是決定性因素。
DanielaRus是一位計算機科學家,他說:這個想法很重要並且得到了廣泛的應用。它可以用來評估依賴學習模型的產品。同時,還可以通過分析學習模型中的不確定因素,了解學習模型會產生多少誤差,以及如何對學習模型進行改進。
研究者們測試他們的新系統,採用的方法是讓新系統判斷圖像不同部分的深度,就像自動駕駛汽車判斷距離一樣。這個網絡與已有的設置作了很好的比較,同時也估計了它自己的不確定性——不確定時間實際上是一個深度錯誤時間。
另外,網絡還可以標記時間,當它發現圖像超出了它的正常權限範圍(和經過培訓的數據差別很大),這在醫學領域意味著醫生需要更多的時間去觀察。
即便神經網絡99%是正確的,根據情況不同,1%的缺失也會產生嚴重的後果。研究者們說,雖然這項工作還沒有經過同行評審,但是他們相信新的、簡化的信任測試將有助於提高實時安全性。
這個方法的任何使用者,不管是醫生還是乘客座位上的乘客,都必須了解與這個決定有關的任何風險或不確定因素。
該研究將在12月的 NeurIPS大會上和網上發布。