發表於 2018-03-28 14:24:39
如果把對人工智慧的態度分為樂觀派和憂慮派,近日去世的著名理論物理學家霍金一定屬於後者。最近幾年,他頻頻提醒人們注意人工智慧的威脅,批評人工智慧的無節制發展。
九三學社中央科技委委員張妍也深以為然。「人工智慧發展的腳步無法阻擋,『安全』就顯得尤為重要。」她說,「我們不是杞人憂天,要知道,防範的成本比補救的成本低很多。」
2018年兩會期間,九三學社向全國政協十三屆一次會議提交了《關於推動人工智慧安全發展》的中央提案,提出應著力構建安全發展戰略,將人工智慧安全發展提升到與人工智慧科技研發、成果應用、市場推廣同等重要的位置。
沒有藩籬,發展或會失控
安全是個寬泛的概念,在九三學社中央科技委委員王仕看來,它指的是「可控性」。 他們提出了「五橫一縱」的概念:「五橫」指的是法律、倫理、標準、科技創新和產業應用;「一縱」指的是科普。「安全」應該滲透在這經緯網中。
「推薦系統是人工智慧的重要應用場景。資訊類APP可以無限制向你推薦你感興趣的內容,強化你的固有觀點,無論對錯;電商類APP可以無限制誘導你去『剁手』,就算超出你的消費能力也無所謂。」王仕舉的例子,公眾已並不陌生。如果算法只是一味迎合人的需求,沒有法律或道德的約束與引導,那麼最終結果,很可能並不利於個人或社會的健康發展。
王仕也從事人工智慧相關工作。他告訴記者,做語音開發時,如果產品要進入美國市場,所有代碼就必須遵守美國兒童隱私保護法律。「這是為了防止智能音箱傳播兒童色情等不良內容。」但在國內,目前尚無相關硬性規定。
全國人大代表、科大訊飛董事長劉慶峰也認為,「人工智慧領域的頂尖科學家和頂尖企業的價值觀,對人工智慧的未來發展至關重要」。比如,科大訊飛的語音合成技術已經可以逼真合成出不同人的聲音,但他們至今不敢隨便對外公布這一技術,「就是怕出現各種詐騙」。
當數據成為重要資源,如果對掌握數據的人沒有明確約束,對可以自我學習的人工智慧沒有明確邊界,張妍憂慮道,「會不會讓壞人更『壞』?」
有了規矩,前路方是坦途
去年國務院公布《新一代人工智慧發展規劃》,但並沒有將安全作為基本原則之一。九三學社中央建議,應制定《人工智慧安全發展綱要》,有序制定人工智慧安全發展的法律法規和倫理道德準則。採取「政府主導、專家主體、公眾參與、社會協同」方式,深入研究人工智慧安全發展戰略,針對不同環節和應用場景,明晰不同主體的責任、權利和義務,制定有關的政策、措施和法規、標準,劃定人工智慧安全發展的邊界。
「對人工智慧的科研人員,也要進行知識普及,用倫理道德加以約束。」張妍說,「在市場推廣和應用環節,還要建立安全評估和市場準入機制。」
在法律方面,劉慶峰也專門從數據角度給出了自己的建議。他指出,應該制定《數據安全保護法》,實行大數據分級安全保護機制,加強對各行業領域大數據安全治理,並規範大數據運營企業的資質要求。「涉及到國計民生的敏感數據,一定要設置嚴格安全等級。這些數據一旦洩露,對人工智慧和大數據產業的發展就是極大的衝擊和毀滅。」
除了倫理和法律,九三學社中央還在建議中指出,應該加快科學普及。
神化人工智慧,會讓公眾產生不必要的恐慌;貶低人工智慧,又讓公眾對人工智慧不敢信任。做好科普和引導,消除誤解,才可讓人類與人工智慧和諧相處。
「人工智慧是造福還是為禍,核心就是要看社會法律體系能否迅速健全,在法律體系框架下,人工智慧倫理和人文引導能否到位。」劉慶峰強調。
打開APP閱讀更多精彩內容
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容圖片侵權或者其他問題,請聯繫本站作侵刪。 侵權投訴