來源:澎湃新聞
原標題:網絡爬蟲怎麼管?最新研究報告在滬發布,強調場景化治理
被稱為「網絡爬蟲」的自動數據採集技術該如何管理?11月28日,在CIS 2019網絡安全創新大會上發布的一份《數據爬取治理報告》提供了思路。
CIS 2019網絡安全創新大會現場
《數據爬取治理報告》是上海數據治理與安全產業發展專業委員會的最新研究成果。報告指出,數據爬取作為數據採集的一種高效實現形式,是國內外諸多網際網路企業極為通常甚至賴以生存的手段。但是隨著圍繞數據自動化技術進行爬取和挖掘行為急劇增多,帶來了數據權屬、智慧財產權和商業機密保護、個人信息隱私界限、不正當競爭、計算機信息系統安全等方面巨大爭議。尤其是近期在金融、內容、電商等各類場景的數據爬取案件頻發,這一「灰色地帶」必將被提上數據治理議程,已成為非常緊迫的現實問題。
《報告》根據現實法律環境剖析了數據爬取在訪問進入、數據類型和數據使用三個環節可能的法律風險,總結髮現數據爬取治理的七大難點,並針對性提出五項治理原則,包括重視場景化治理、消除過度的數據壁壘等具備實操性的建議。最後,《報告》梳理了九個近年國內外較為典型的數據爬取司法判例,旨在給政府相關產業和監管部門、大數據企業和廠商、法律界以及社會公眾提供全面客觀的認知支持。
上海數據治理與安全產業發展專業委員會今年在上海市經信委和上海市委網信辦等部門的指導下,由上海信息服務業行業協會、上海社會科學院網際網路研究中心等機構共同發起成立。
上海市經信委軟體和信息服務業處處長劉山泉表示,上海智慧城市建設高度重視大數據技術和產業的發展,公共數據開放水平居於國內前列,大數據技術生態初步形成,未來高水平、高質量的數據產業將成為上海信息服務業高質量發展的重要引擎。
對此,上海數據治理專委會應在原有工作基礎上,重點做好三個方面的工作:第一,密切關注全球和國內數據治理發展的新動態;第二,重點關註上海社會經濟和產業發展核心領域的數據治理問題;第三,高度關注人工智慧、5G、工業網際網路、區塊鏈等技術發展中可能帶來的數據安全治理問題。
中共上海市委網絡安全和信息化委員會網絡安全處處長王靜認為,數據時代面臨的各種安全風險和挑戰不斷凸顯,從公民個人隱私數據被違法收集、洩露到關鍵信息技術設施數據遭受勒索、盜竊,甚至到大國之間的博弈,數據安全已經不單單是網絡安全問題,而且成為關係社會穩定發展的全局性問題。