隨著人工智慧(AI)與機器學習技術的日益成熟,它們被用於解決複雜問題的潛力也逐漸顯現出來,我們甚至有點兒期待,希望機器人能在人類失敗的領域取得突破,即在決策時拋開個人偏見。
但是最近出現的許多案例顯示,就像所有顛覆性技術那樣,機器學習被引入的同時,也出現了許多意想不到的挑戰,有時候甚至產生錯誤、令人討厭的、冒犯性的後果,與人類社會信奉的道德和倫理標準截然不符。
這些故事聽起來可能很有意思,但它們卻促使我們反思AI技術對未來產生的影響。將來,機器人和AI將承擔起更重要的責任,甚至將為它們做出的錯誤決定負責。
在其核心領域,機器學習利用算法分析數據、提取模式以及學習和預測,並會基於收集到的見解做出決定。它已經成為我們日常生活中使用的許多技術的基石,比如搜尋引擎、面部識別應用以及數字助理等。機器學習算法獲得的數據越多,它就會變得越聰明。這也就是科技公司千方百計收集更多用戶和消費者數據的原因。
但是最終,機器學習只會保持其獲得的數據那樣聰明。這其中存在一個問題,因為同樣被用於訓練機器學習算法的數據,也可能會讓它變得邪惡或存在偏見。就像所有孩童那樣,機器學習算法往往會選擇迎合其開發者的品味和偏見。更複雜的是,許多公司都以非常隱秘的方式運行內部算法,並把它們視為商業機密。
機器學習初創企業Beauty.ai今年舉行了世界上首場AI驅動的選美大賽。超過6000人遞交了自己的照片,AI通過對稱性、皺紋等因素評估這些人的魅力。這項比賽的原意是減少人類裁判的社會偏見,但結果令人感到失望。44位獲勝者中,絕大多數都是白人,只有少數亞洲人,深色皮膚人種的獲勝者僅有1人。1名研究人員解釋稱,問題是用於訓練算法的照片樣本在種族方面存在不平衡性。
這並非機器算法首次出現偏見問題。今年年初,一種語言處理算法被發現,在處理艾米麗、馬特等聽起來像白人的名字時,顯然比處理賈馬爾、埃博尼等黑人名字時更愉快。
此外,微軟此前被迫關閉了其聊天機器人Tay。它被設計模仿十幾歲女孩的行為,卻被發現滿口髒話。Tay原本被期望提取用戶評論,通過處理它們學習如何做出個性化回應。但是用戶似乎對教授它種族歧視和納粹言論更感興趣。
可是,如果這些發生在敏感情況下,比如某人的生命或自由受到威脅時,將會如何?ProPublica5月份的研究顯示,在評估未來犯罪傾向時,佛羅裡達州執法機構使用的算法對非洲裔的評分更高。
有關這類機器學習算法存在偏見的例子不勝枚舉,包括谷歌算法將非洲裔標註為大猩猩,廣告投放引擎更少向女性展示高薪職位,新聞算法推廣假新聞和粗俗故事等。
在傳統軟體中,確定某個失誤是用戶錯誤還是設計缺陷非常簡單。但是機器學習並不那麼透明,最大的挑戰之一就是難以確定責任。開發機器學習軟體與傳統編碼完全不同,訓練算法與編寫代碼同樣重要。即使開發者也無法精確預測機器將會做出何種決定,有時候也會對結果感到驚訝。
當Facebook被譴責在「趨勢主題」模塊中存在政治偏見時,事情變得更加複雜,因為這個模塊部分由機器學習驅動。
當關鍵決定權被賦予AI時,事情將會變得更加敏感。舉例來說,如果無人駕駛汽車撞倒1個行人,誰將被追究責任?司機(更精確地說車主)還是機器學習算法的開發者?
從資料庫中根除這些偏見是開發公正的機器學習算法的關鍵,但是開發平衡資料庫是非常複雜的任務。目前還沒有任何相關規則或標準,可以用於評估用於訓練機器學習算法的數據。有時候,研究人員利用和分享現成的框架和資料庫,儘管裡面存在各種偏見。
一個解決方案就是創造可共享的、受到監管的資料庫,它不歸任何單一實體所有,從而可預防任何人單方面操作數據。在這方面的顯著努力就是AI合作組織(Partnership on Artificial Intelligence)的成立,Facebook、亞馬遜、谷歌、IBM、微軟以及機器學習創新領域的其他公司嘗試解決AI和機器學習增長帶來的恐懼。這個組織的目標包括,解決AI的倫理問題,確保AI被公開應用前接受多元化審視。
另一個有趣的努力是伊隆·馬斯克(Elon Musk)創建的AI公司OpenAI,其目標是令AI研究變得更透明,防止它變成作惡工具。
將來有一天,或許機器人會變得足夠聰明,可以解釋自己的行為,並糾正它們的錯誤。但我們據此目標依然有很長的路要走。到那時,人類的責任將是預防訓練AI的人類負面傾向被無限擴大。