AI是否會濫用我們的隱私和個人數據?我們該如何防止這些濫用

2021-01-10 騰訊網

我們知道,AI已經在繪畫和音樂領域取得了不錯的成果。美國認知科學家侯世達,曾經寫過一篇文章來討論AI的作曲,他說,「一旦音樂最終不可避免地被歸約為語法模式,那會是非常黑暗的一天。」

但這種發展是難以避免的。人工智慧已經能寫出類似巴赫和蕭邦的作品,而且作曲的速度比人類作曲家要快得多。以現有的趨勢來類推,也許未來有一天,內容創作領域將會被AI佔據。少數幾個IT企業,會以人類遠不能及的速度生產出大量內容,佔滿我們的注意力和時間。

當小說、音樂之類的內容可以用AI大量生產的時候,顯然會導致這些產品的價格大幅度降低。這會讓這些領域的創作者們難以維持生計,不得不離開這個行業。那些留在這個行業的人,也只能大量生產粗製濫造的內容,以量取勝而非精雕細琢;因為只有以這種方式,才能在和AI的競爭中勉強獲得足以餬口的報酬。這會進一步導致信息過剩,破壞創作的生態環境。

那麼在法律上,將如何看待這種狀況呢?比如,AI創作的內容,智慧財產權應該歸誰?是這個AI的使用者嗎?還是AI的開發者?又或者,AI生產的內容不應該受智慧財產權保護呢?這個問題,將會決定我們未來所接觸到的精神產品,會具有怎樣的品味和質量。

上世紀70到90年代,就有一些對這個問題的討論。聯合國教科文組織、美國和日本都認為,如果是人類以電腦為工具生產的內容,比方說你現在聽到的這篇聽書稿,是我在電腦上一個字一個字敲出來的,那麼它就可以看成是著作,享有著作權。但如果人的作用只是按下一個按鈕,剩下的工作都是由計算機自動完成的,那麼則不算著作。而英國在1998年修改了著作權法,認定後一種情況也可以屬於著作。也就是說,對計算機創作的作品是否享有著作權,仍然存在爭議。

這是因為,在擬訂著作權法時,沒有考慮過某個企業會壟斷數百萬種作品的情況,這是在AI出現後才會出現的新的可能性。按照目前的法律,AI生產的作品很可能不受保護。這對於我這樣的內容創作者來說,是個好消息。

也許你覺得智慧財產權問題和自己的關係不大,但接下來的一個問題,必定會影響你的正常生活,那就是AI網絡化對個人隱私的掌控。比如,你將來很可能會購買一個擁有人工智慧的家用機器人,它會收集你日常生活中的種種細節;當你在網上購物或者使用社交網絡時,人工智慧推薦系統會分析你的偏好,並且掌握那些甚至連你自己都沒有意識到的個人傾向。這些隱私和個人數據本來只屬於你自己,但是在AI面前,你的一切都將無所遁形。

在上世紀末就有研究者提出,應該將隱私保護放在系統設計的各個環節,最大程度地尊重使用者的隱私。2016年,歐盟確立了一般數據保護規則,要求信息系統在設計階段和初始設定中加入數據保護,讓個人隱私僅可以被使用者個人查詢。但是總的來說,直到今天,個人隱私保護的相關技術,並沒有獲得足夠重視,如果我們想保護隱私,那只能在生活中時刻注意。

而個人數據方面所面臨的問題,甚至比隱私還要大。谷歌曾經開發過一種眼鏡,會持續拍攝面前的景象,並且在網絡上查詢相關信息。這個項目最後被關閉了,但是,市場上還有各種各樣帶攝像頭的眼鏡,而且,我們還時刻處於監控攝像頭、無人機和自動駕駛汽車的攝錄畫面中。這些個人信息沒有經過我們的允許就被收集起來,而它們是否會被濫用,我們並不知道。

今天的網際網路巨頭們,都掌握了大量用戶的個人數據,並且將這些數據作為企業競爭力的重要組成部分。比方說,已經有電子商務企業開始嘗試新的AI定價機制,當判斷你對商品的價格不太在意時,就會給你正在瀏覽的商品顯示較高的價格。這顯然是一種歧視。這應該歸結為企業對個人數據的使用範疇,而這個領域,目前還處在法律的灰色地帶。

日本在2013年修正了《個人信息保護法》,來應對這些不確定的問題。在修正後的法律中,制定規則來強化個人信息保護,要求企業履行儘可能消除客戶個人數據的義務,並規定未經當事人同意,不得向其他人提供數據。這些規定,是為保護個人數據安全採取的措施。但是,類似的規定,要得到國際社會的統一認可,成為所有企業的行事標準,成為每個網際網路和AI用戶的基本守則,還有很長的路要走。

相關焦點

  • 刷臉時代 該如何護好我們的「面子」
    刷臉時代 該如何護好我們的「面子」  一個人的手指指紋只有10個,虹膜只有兩個,掌紋只有兩個,聲紋只有一套,臉也就只有一個。生物認證是不可撤銷的,一旦其信息洩漏了,就沒有什麼補救措施。  從某種程度上說,缺乏安全保障的刷臉,與把身份證和銀行卡密碼隨便交給他人,沒什麼區別。
  • 杜絕濫用!多地下線違規人臉識別系統 個人信息保護我們還需要做些啥
    保護個人信息,保護好我們的臉,國家在行動。多地出臺政策 防止人臉識別技術被濫用針對人臉識別技術被濫用的問題,包括天津、南京、杭州在內的多地出臺了相應的政策:昨天(12月1日),《天津市社會信用條例》表決通過,並將自2021年1月1日起施行。
  • 「刷臉」被濫用,生物信息安全如何捍衛?
    在信息技術日益發達的今天,在商場、住宅小區、遊樂場所,甚至一些售樓處和賓館等地方,打著科技讓生活更安全的幌子收集個人信息的事例並非鮮見。但與此同時,哪些場所適合利用刷臉等技術,個人隱私與社區安全如何平衡,收集個人生物信息之後用在哪裡,信息是否會被洩露,洩露之後該承擔什麼責任等問題,很難找到明晰和統一的答案,這也是引發擔憂和爭議的關鍵所在。
  • 如何防止手機內的個人信息被洩露?智能時代 信息安全和隱私保護極...
    如何防止手機內的個人信息被洩露?手機是我們個人信息的載體,承載了很多我們比較隱私的數據,一旦這些數據被不法分子盜取,後果將不堪設想,很多小夥伴以為,將手機中存儲的信息,照片等數據刪除之後,手機內的信息就不會被洩露。但是這樣真的能徹底刪除手機裡的信息內容嗎?我們一起往下看就一目了然了!
  • 怎樣徹底清理手機內的隱私信息防止第三方恢復?個人隱私保護指南!
    怎樣徹底清理手機內的隱私信息防止第三方恢復?隨著網際網路技術的飛速發展,整個社會被強行推入「大數據」時代。不管你是否願意,我們手機裡的個人數據正在不經意間被動地被搜集並使用。個人數據的網絡化和透明化已經成為不可阻擋的大趨勢。面對個人信息被洩露的風險,我們是被動的接受,還是主動的去保護我們的個人隱私不被洩露,當然是選擇後者。
  • 汽車定位追蹤器濫用折射監管盲區 應強化隱私權觀念
    長沙四人安裝定位儀跟蹤偷拍官員被逮捕記者調查發現  汽車定位追蹤器濫用折射監管盲區  □ 本報記者 阮佔江 帥標  如果突然被告知愛車被人安裝了GPS定位跟蹤設備,自己的行蹤隱私被他人一覽無遺,只怕大多數人在氣憤之餘都會感到恐慌後怕。在湖南長沙就有這麼一伙人,專門在他人車上安裝定位儀,跟蹤偷拍伺機敲詐。
  • 許哥筆記:賣家遇到亞馬遜濫用變體店鋪被關,該如何申訴?
    根據您為發布商品選擇的類別,變體主題也會有所不同。例如,在「服裝、配飾和箱包」分類中,子商品因尺寸、顏色或包裝數量不同而相互區別;「寵物用品」分類中的子商品在口味、氣味、數量等方面也有所不同。 比如有人賣衣服,然後大部分的變體都是衣服,但是也將褲子的加到了同一個父體中了,從而被系統判定濫用變體規則。
  • 為什麼阿里飛豬、滴滴、攜程都被質疑濫用大數據殺熟?
    打車的費用是由路程、每公裡的單價、行車速度以及是否有優惠券決定的。而且,每個用戶的規劃路徑不一樣,打車的費用也會不一樣。攜程同樣是今年 5 月,攜程被網友詬病,在相同條件下,對用戶展示了同房不同價的現象。基於此,攜程於微博上發布一篇《攜程「大數據殺熟」了嗎?並沒有》的長文以澄清。
  • 濫用合成類固醇 危害很難逃脫
    教練員和其他人可以通過教育運動員們關於促合成類固醇使用的有害結果來抵制這些藥物的吸引力。 損害肝臟 幾乎所有口服促合成代謝類固醇的使用都會導致肝功能異常。這些異常可從常見的無害表現(如從受損的肝組織滲出少量的酶到血液中)到嚴重損害(如肝癌和肝出血)。
  • 多地下線違規人臉識別系統 個人信息保護我們還需做啥_新聞中心...
    杜絕濫用!多地下線違規人臉識別系統 個人信息保護我們還需要做些啥上個月,一名男子「戴著頭盔看房」的短視頻在網上流傳。視頻字幕顯示,為保護個人信息,只能戴著頭盔去看房。一時間,保護好個人信息的話題引發網友廣泛討論。這也引了一些地方政府部門的重視。
  • 我們被狂犬病騙了多少年?至少1/3狂犬疫苗可能屬於濫用
    99.8%的接種者在理論上原本可以不接種,其中至少1/3可能屬於濫用。導讀在中國,狂犬病疫苗更是被濫用。中國狂犬疫苗使用量達每年1500萬人份,超過全球總用量的80%,中間產生了非常可觀的利潤。99.8%的接種者在理論上原本可以不接種,其中至少1/3可能屬於濫用。被諮詢最多的問題就是:「被貓撓(咬)了,需要打狂犬病疫苗嗎?
  • 紮緊制度籬笆,龍貓數據全方位保障數據安全與用戶隱私
    面對這些風險和挑戰,龍貓數據強化責任意識,基於深厚的服務經驗積累,打造出數據安全「一二三」的保障體系。「一」就是安全第一,預防為主,實行第一責任人負責制。龍貓數據嚴格遵守國家相關部門的管理規定,參照國際數據安全和隱私保護條例,結合國內的客觀事實,設置了公司專業的數據和隱私保護組織,以對項目合規性進行審查,組織內設有專門的數據保護官(DPO)。
  • 「遠見」個人信息保護法將出臺 揭開數據算法的神秘「面紗」
    本期話題:揭開數據大算法的「面紗」。從「大數據殺熟」到「外賣員困在系統裡」,大數據算法愈發受到關注。從手機購物的「千人千面」,到金融放貸的「用戶畫像」,「算法」究竟是什麼?它是如何影響人的?從網絡安全法,到個人信息保護法、數據安全法,法規能否有效控制算法的「濫用」?如何讓算法更好地服務人,而不是侵犯人?未來,自然人和算法究竟是怎樣的關係?
  • 畜牧養殖業濫用抗生素 專家籲提高基層獸醫水平
    讓人擔憂的是,如果在養殖業濫用抗生素,不僅會給動物性食品的安全帶來潛在隱患,也會對人類的健康及生存環境造成危害。因此,對動物合理使用抗生素已經成為食品安全和畜牧業健康發展中一個不容忽視的問題。
  • 知道這些後,再也不會「濫用」彈窗了
    彈窗的類型有非常多種,所以在使用時很容易被濫用,這樣不僅會對用戶帶來困擾,也會讓我們的設計中出現細枝末節的問題。本篇文章分析和總結了不同彈窗的使用場景及工作中的實際應用,知道這些後,以後再也不會「濫用」彈窗啦!
  • 狂犬病死亡率很低,疫苗被濫用?聽專家怎麼說
    我們都被它騙了多少年?「狂犬病恐懼症」是中國特有的現象。世界上再沒有第二個國家像中國這樣,舉國上下對狂犬病如此「重視」。在中國,狂犬病疫苗更是被濫用。實際上,狂犬病是死亡率非常低的病。狂犬病的宣傳在中國是一個巨大騙局,是疫苗公司與某些不良媒體和所謂「專家」合作的成果!
  • 我們該怎麼保護隱私?
    職場中也不乏一些侵犯勞動者的個人隱私權的案例。很多員工都有過電腦、手機被用人單位監控的經歷,那麼,在職場中遇到這樣的情況,我們該如何應對呢?本文整理了一些案例,跟大家分享下。「我們公司總共40多個人,內網上登的都是某某有哪些疾病,如果沒得病的就寫個正常。連婦科病都公布出來了。我們覺得這是侵犯隱私。」該公司員工紛紛對此表示不滿。而單位領導回覆說,此舉是為了讓員工及公司雙方都重視健康問題。事後,公司將體檢結果從內網中刪掉,表示尊重員工的想法,今後不再如此操作。張同說,自己落下了心理問題:上廁所要等到沒人時才敢進去,就怕同事問起自己的病。
  • 數據隱私的重建:重構人機互動中的「知情同意」
    這些疑問如下:目前的流程是否有效地向人們述明收集和使用其個人數據的相關問題?是否為人們提供了有意義的選擇?以及現有的機制是否滿足公眾的需求?  歐盟通用數據保護條例(GDPR)的頒布以及美國加利福尼亞州消費者隱私法案(CCPA)的提出,大大增加了完善當前數據保護和隱私規範中缺陷的緊迫性。
  • 濫用類固醇,健身房的增肌毒藥
    僅美國FDA數據中,就有38萬名在校高中生濫用類固醇,國內雖然沒有數據統計,但獲取類固醇的途徑遠遠不限於醫用處方藥。 增肌欲望無限膨脹,有人盲目注入類固醇,但已有人付出生命代價。 比如說,攻擊性和狂躁程度明顯上升,是注射類固醇數周后的反應。甚至說,在類固醇破壞內部性激素平衡後,所導致的男性乳房發育,會進一步加劇心理損傷。 濫用類固醇,固然能塑造一副完美肌肉軀體。但掩藏在皮囊之下的千瘡百孔,似乎背離「健、美」二字的初衷。
  • 十句老外日常最愛濫用的電影臺詞
    【濫用情況】從包裡掏出隨便什麼東西,向旁人顯擺   「Houston, we have a problem。」Apollo 13   《阿波羅13號》「休斯頓,我們有麻煩了。」   【濫用情況】開車的時候不過顛了一下,非要誇張成航空事故   「I see dead people。」