都在用的報告小程序
寫文章、做研究、查資料【必備】
「如果一個高級外星文明向地球發送信息說『我們幾十年後就會到達』,人類會不會只是回覆:『好的,你來的時候記得打電話通知一聲,我們開著燈迎接』?可能不會,但這正是人類對待AI的態度」——霍金。
或許沒人能想到,於2018年3月去世,葬在牛頓旁邊的物理學家霍金,對人類未來最擔心的,竟然是人類對AI缺乏警惕的態度,這可能會成為人類最偉大、也是最後一項發明。他在遺願中告訴世人:「我們應該提前做好計劃。」
霍金生前分析道:「雖然到目前為止,AI的初始形式已經被證明是非常有用的,但我擔心的是創造出與人類匹敵或超越人類的東西的後果。在未來,AI可以發展出自己的意志,一種與我們相衝突的意志。人類受到緩慢的生物進化的限制,無法與之競爭,或許會被取代。」
簡而言之,他總結道:「超級AI要麼是人類有史以來最好的,要麼是最壞的發明。人工智慧真正的風險不是惡意,而是能力。一個超級AI會非常善於實現它的目標,如果這些目標與我們的不一致,我們就有麻煩了。就像你可能平時並不仇恨螞蟻,不會以踩死螞蟻來取樂,但如果讓你負責一個水電綠色能源項目,代價是淹沒一個蟻丘,你恐怕也不會在乎什麼。這對螞蟻來說太糟糕了,請不要把人類擺放在那些螞蟻的位置上。」
比爾·蓋茨也表達了相近的擔憂。每年,比爾、梅林達·蓋茨基金會都會發布年度《守門員報告》,用圖片、表格、指標和統計數據展示人類發展狀況。通常情況下,這是樂觀的——近年來,全球貧困、嬰兒死亡率以及其他一系列關鍵數據都在朝著好的方向發展,但是今年,報告的基調有了一些變化。
在記者訪談中,比爾·蓋茨提到了AI的問題,他認為,在現階段,人類除了要進一步發展AI技術,同時也應該開始處理AI造成的風險。然而,「這些人中的大多數都沒有研究AI風險,只是在不斷加速AI發展。」
事實上,即便在現在的發展初期,AI也已經逐漸暴露出了一些隱患,最典型的就是被認為無偏見的AI算法,已經產生了「偏見」。早在1982年,聖喬治醫院醫學院使用的招生評估算法就出現了種族偏見,荒誕的是,這種算法偏差依據的居然是學生名字——但凡聽起來像外國名字,學生就會被拒收。
而在去年,Facebook發生了著名的算法風波。他們原本推出了一種算法來刪除網站上的仇恨言論,然而,其內部文件顯示,該算法具有明顯的「精英主義」傾向,為草根和少數族裔說的話更容易被刪;同年,美國司法部門用AI為監獄犯人打分時,判斷那些人會「二進宮」時,黑人群體錯誤地出現了過高的可能性。
本文來源前瞻網,轉載請註明來源。本文內容僅代表作者個人觀點,本站只提供參考並不構成任何投資及應用建議。(若存在內容、版權或其它問題,請聯繫:service@qianzhan.com) 品牌合作與廣告投放請聯繫:0755-33015062 或 hezuo@qianzhan.com