編者按:本文來自微信公眾號「哈佛商業評論」(ID:hbrchinese),作者 安德魯·伯特(Andrew Burt),36氪經授權轉載。
近年來,學者和業內人士一致呼籲,要提高人工智慧模型內部運作過程的透明度,而且提出許多充分的理由。透明度有助於緩解公平、歧視和信任方面的難題——對這幾個方面的關注正在不斷提升。舉例而言,蘋果公司新的信用卡業務被指出貸款模式中存在性別歧視,而亞馬遜在發現一款人工智慧招聘工具歧視女性後就將之廢棄。
然而,與此同時,人們越來越清楚地意識到,人工智慧的透明披露本身也會帶來風險:解釋過程可能遭到黑客入侵,公布更多信息可能會讓人工智慧更容易受到攻擊,而且披露信息有可能讓企業更容易遭到起訴或引來監管行動。
我們可以稱之為人工智慧的「透明度悖論」——雖然生成更多有關人工智慧的信息可能會帶來切實的好處,但也有可能帶來新風險。要解決這一悖論,各機構需要對管理人工智慧風險的方式、風險相關信息以及分享和保護這些信息的方式,進行仔細思考。
近來的一些研究顯示出了這種趨勢。我們先來看看哈佛大學和加州大學歐文分校的學者於2019年12月發表的一篇研究論文。這篇論文重點探討了用於解釋黑箱算法的兩大技術LIME和SHAP的變體如何有可能遭到黑客入侵。
關於LIME的功能,2016年該工具發布之初的論文做了解釋。這個圖像分類工具可以識別出其他工具難以處理的圖像:通過琴橋和指板部分識別出木吉他,通過狗臉右側的具體臉部特徵識別出拉布拉多犬。
LIME,以及更廣泛意義上的可解釋人工智慧運動,被讚譽為一項能夠讓不透明的算法變得更加透明的重大突破。可解釋人工智慧的益處已被廣泛認可,得到學者和技術專業人士的交口稱讚,我本人也是如此。
但是,LIME和SHAP受到新攻擊的潛在可能性,暴露出一個被忽視的缺陷。正如研究所示,AI做出的解釋可能被蓄意篡改,導致人們對模型及其給出的解釋失去信任。
而且,闡述人工智慧透明度方面存在潛在危險的研究論文並不止這一篇。2019年早些時候,雷扎·肖克裡(Reza Shokri)等研究者闡述了披露機器學習算法信息會如何導致算法更易受到攻擊。與此同時,加州大學伯克利分校的研究人員證明,只需利用算法給出的解釋,就有可能竊取全部算法。
隨著安全和隱私研究人員把更多的精力集中於人工智慧方面,這些研究和其他許多研究都得出了相同的結論:模型創造者公開的算法信息越多,居心不良者所能造成的損害就越大。這意味著,發布一項模型內部運作過程的信息,實際上會導致其安全性能下降,或者有可能讓一家公司面臨更多不利因素。簡而言之,所有數據均帶來風險。
好消息呢?各組織機構長久以來都在隱私、安全及其他領域面臨透明度悖論,現在只需要再加上針對人工智慧的處理方式就可以了。
首先,試圖運用人工智慧的企業需要認識到透明度的代價。當然,這並不是說透明度不值得追求,只是說明透明度也有不利的一面,需要企業進行全面了解。企業應當考慮這些代價,建立更完善的風險模型,藉以確定如何使用可解釋的模型,以及公開多少相關信息。
其次,各組織也必須認識到,人工智慧領域的安全問題日益受到關注。正如我和我的同事最近在隱私權未來論壇(Futureof Privacy Forum)上所說的那樣,隨著人工智慧的應用範圍增加,人們肯定會發現更多的安全缺陷和漏洞。實際上,安全有可能是人工智慧應用方面最大的長期障礙之一。
最後一點,在創建並開發人工智慧時,應儘早而且儘可能頻繁地諮詢律師,這一點非常重要。納入法務部門,能夠創造一個公開且受法律保護的環境,使得企業能夠在不造成更多不利因素的情況下,徹查自己的模型,找出可以想到的每一個漏洞。
實際上,這正是律師在法律特權下工作的原因,他們收集的信息得到保護,鼓勵當事人去全面了解自己的風險,而不是隱瞞任何潛在的錯誤行為。比如在網絡安全領域,律師的參與度很高,法務部門經常參與管理風險評估,甚至會在安全事故發生後參與後續處理。人工智慧領域也應該採取同樣的做法。
在數據分析領域,人們通常認為數據越多越好。但就風險管理而言,數據本身常常就是風險的來源。如今這一點也開始適用於人工智慧領域。
作者:安德魯·伯特是Immuta公司首席法務。