9月2日起,一段人工智慧監控學生在課堂上一舉一動的技術展示視頻,在網上引發了熱議。這段視頻顯示,由曠視科技出品的人工智慧產品,能夠通過攝像頭實時識別學生舉手、玩手機、睡覺、聽講等具體行為。這種能夠實現對學生「精準監控」的技術一經曝光,就激起了強烈的爭議,而南京市某高校即將試水採用該公司人臉識別技術的消息,更是放大了相關爭議。
事發後,曠視科技對媒體澄清稱:網傳內容僅是概念性的技術展示,並未落地應用。涉事高校也表示:在推進智慧校園建設的過程中會堅持「以生為本」的理念,尊重和保護師生隱私權和數據安全。至此,這起事件似乎僅僅是「虛驚一場」,但這起事件引發的關於技術、隱私與倫理問題的討論與思考,卻不應就此止息,而有著進一步深入的價值。
曠視科技的回應,無疑令關心此事的許多人都「鬆了一口氣」。知道這樣一項令人感到有些「可怕」的技術並未投入使用,確實是一件令人欣慰的事情。然而,儘管這項技術在目前僅僅是一種概念性的展示,但其昭示出的人工智慧技術的發展方向,卻依然令人難免感到些許不安。
純粹就技術論技術,人工智慧與人臉識別技術能在短短幾年時間裡,從連最基本的「認人」都常常出錯,發展到能夠實現如此精密的行為識別,自然是一項了不起的科技成就。但是,我們卻必須意識到:技術的進步,並非總是能夠讓這個世界變得更加美好,而是常常也會給人帶來意想不到的負面困擾。
在歷史長河當中,技術進步就像是一柄雙刃劍,可能帶來光明與福祉,也可能帶來黑暗與毀滅。炸藥的發明讓人類得以更加高效地建設工程,同時也讓戰爭變得更加血腥與殘酷;微生物方面的研究讓人類克服了數不清的疾病,但也創造出了生化武器這個恐怖的噩夢;克隆技術的出現大大推進了生物學的發展,但與之相伴的複製人爭議卻至今未能在全球範圍內取得共識……這些例子說明:技術本身或許沒有善惡,但對技術的具體應用,卻有善也有惡,因此應當受到特定倫理規範的約束。
其實,各種各樣的監控與識別技術,自誕生以來就伴隨著巨大的爭議。在某種意義上,此類技術的本質,其實就是 「以隱私換便利」。當我們默許各種各樣的攝像頭出現在我們的生活當中時,其實就是在出讓自己的部分隱私,從而換取安全或是其他對我們更加重要的利益。但隨著相關技術不斷發展、迭代,這種「以隱私換便利」的交易,難免會遭遇「邊際成本升高」「邊際效益遞減」的局面。
每當這種監控與識別技術擴張到一個新領域的時候,人們都不免要問:這究竟需要被監控者付出多少隱私,又到底能為社會帶來多少好處?如果一項技術需要被監控者付出的代價過多,而給社會帶來的好處又相對有限,我們恐怕很難說這項技術的存在有多少正面意義可言。
這次在網上掀起爭議的「課堂監控」技術,正是將「以隱私換便利」的交易推向極端的一種表現,也正因如此,這項技術才激發了許多人的強烈反感。教室確實具有一定的公共場所屬性,人們也普遍接受在教室內安裝監控攝像頭,確保教室內財物安全、防範學生作弊的做法。但這種將學生的每個動作、表情都作為分析對象的做法,卻無疑大大突破了人們心中的「隱私底線」。這項技術倘若成真,固然可能給教學者帶來一定的方便,但以如此激進的方式追求這點方便,從社會整體效益上看,顯然是得不償失的。
從這個角度上看,曠視科技及時澄清這項技術並未真正投入使用,說明作為技術開發者,他們也意識到了這項技術存在一定的倫理隱患,這一點值得肯定。對此,社會也應有強烈的警惕意識,防止這類存在倫理隱患的技術在未來的其他地方投入現實應用,如此方能給相關領域的技術發展紮緊倫理規範的「籬笆」。