作為引領新一代科技革命和產業變革的戰略性技術,人工智慧正深刻影響社會生活、改變世界。在引發巨大變革的同時,人工智慧如何健康發展也成為了全世界的關注焦點。近日,科技部高新技術司司長秦勇就在國新辦新聞發布會上介紹了我國在人工智慧倫理治理方面的部署。他表示,科技部正通過成立國家新一代人工智慧治理專業委員會、發布新一代人工智慧治理八項原則等措施發展負責任的人工智慧,推進我國人工智慧健康發展。事實上,作為全球治理的重要議題,不僅政府有關部門在密切關注,曠視等人工智慧企業也早已開始了AI治理領域的探索,並提出了自己的見解。
在2019年,曠視推出了基於企業自身管理標準的《人工智慧應用準則》,並成立了AI創業公司中的第一個AI治理委員會——曠視人工智慧道德委員會,希望以此推進AI應用合理性工作,幫助行業構建一個可持續、負責任、有價值的人工智慧生態。
隨後,在2020年初,曠視又在人工智慧道德委員會下設新增了AI治理研究院,回溯全球十大AI治理事件,希望就全球人工智慧治理的共性問題與社會各界廣泛溝通研究,推動人工智慧健康發展。同時,曠視還針對大眾尤為關心的AI發展所涉及的數據安全與隱私保護問題,聯合北京智源人工智慧研究院開展研究,預期將針對採集、傳輸、存儲和使用四個環節的AI基礎平臺形成一套面向數據全生命周期保護,建立一套相關的AI數據安全與隱私保護機制。
曠視在這一領域的不斷探索源自其對企業參與AI治理重要性的前瞻性認知。此前曠視聯合創始人兼CEO印奇在《全球人工智慧治理年度觀察2019》發布的署名文章中就提到,AI治理不僅是政府及相關機構的責任,企業作為AI技術研發與應用的主要力量和一線實踐者應當有所作為,有所擔當,要主動開展企業自治的工作,只有「躬身入局」地去體察產業應用中的痛點,做到知行合一,才能夠掌握AI的「馭火之術」,做好人工智慧治理。
圖:曠視印奇在《全球人工智慧治理年度觀察2019》英文版發表署名文章
為此,曠視開始理性關注AI治理並開展建設性討論、對重點議題進行深度研究、成立固定組織監督協同等,探索人工智慧的治理,並希望通過曠視的實踐,一同推進AI治理工作。
曠視在AI治理方面的探索取得了一定的成績,但就全球來看,AI治理仍然是一個面臨巨大挑戰的新課題。如何加強人工智慧治理邊發展邊規範,保證人工智慧的健康發展考驗著各國管理部門的智慧,也是行業可持續發展不得不面臨的問題,這需要全球範圍內政府、企業、學界的共同關注和積極參與。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。