新經網 發表於 2020-12-16 10:22:58
它們具有看似複雜的結果,但也有可能被愚弄,範圍從相對無害-將動物誤識別為另一動物-到引導自動駕駛汽車的網絡將停車標誌誤解為指示停車標誌的潛在危險是可以安全進行的。
休斯頓大學的一位哲學家在發表於《自然機器智能》上的一篇論文中暗示,關於這些假定故障背後原因的普遍假設可能是錯誤的,這些信息對於評估這些網絡的可靠性至關重要。
隨著機器學習和其他形式的人工智慧越來越深入地融入社會,從自動櫃員機到網絡安全系統,其用途廣泛,UH哲學副教授卡梅倫·巴克納(Cameron Buckner)表示,了解由什麼導致的明顯故障的來源至關重要。
研究人員稱其為「對抗性例子」,是指當深度神經網絡系統遇到用於構建網絡的訓練輸入之外的信息時,會誤判圖像或其他數據。它們很罕見,被稱為「對抗性」,因為它們通常是由另一個機器學習網絡創建或發現的-機器學習領域中的一種邊緣技術,介於創建複雜示例的更複雜方法與檢測和避免它們的更複雜方法之間。
巴克納說:「這些對抗性事件中的一些反而可能是人工產物,為了更好地了解這些網絡的可靠性,我們需要更好地了解它們是什麼。」
換句話說,不發火可能是由網絡需要處理的內容和所涉及的實際模式之間的相互作用引起的。這與完全被誤解不是完全一樣的。
巴克納寫道:「理解對抗性例子的含義需要探索第三種可能性:至少其中一些模式是人工製品。」「……因此,目前簡單地丟棄這些模式既有代價,也有天真地使用它們的危險。」
導致這些機器學習系統犯錯誤的對抗事件不一定是故意的瀆職造成的,但這是最高的風險所在。
巴克納說:「這意味著惡意行為者可能欺騙依賴於本來可靠的網絡的系統。」「那有安全應用程式。」
責任編輯:lq
打開APP閱讀更多精彩內容
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴