性取向被識別後,AI倫理的邊界又在哪裡?

2021-01-15 虎嗅APP


八卦,似乎一直是人類茶餘飯後的一個永恆的話題,怎麼辨別一個人與另一個人的關係?比如是好朋友還是好基友?



但是,這一切私密的問題,AI已經能夠做到精確識別了,這也著實引起了一波恐慌。就在此前,史丹福大學兩名研究人員開發了一個神經網絡,可以通過研究一個面部圖像來檢測一個人的性取向。


研究人員訓練了超過35,000張面部圖像的神經網絡,在同性戀和異性戀之間平均分配。該算法的追蹤涉及了遺傳或激素相關的特徵。


這項研究的關鍵在於影響性取向的產前激素理論。這個理論具體講的是,在子宮中,對性分化負責的主要是雄性激素,也是以後生活中同性戀取向的主要驅動力。研究還指出,這些特定的雄性激素會在一定程度上影響面部的關鍵特徵,這意味著某些面部特徵可能與性取向有關。


研究發現,男女同性戀傾向於具有「非典型性別特徵」,也就是說男同性戀通常趨向於女性化,而女同性戀反之亦然。此外,研究人員發現男同性戀通常擁有比直男更窄的下巴、更長的鼻子以及更大的前額,而女同性戀會擁有更大的下巴和更小的前額。



隨機選擇一對圖像,一名同性戀男子和一名異性戀男子,機器挑選受試者的性取向準確率高達80%。而當與同一人的五張圖像同時呈現對比時,精確度高達91%。不過,對於女性而言,預測準確率相對較低,一幅圖像準確率為71%,有5幅圖像,則上升至83%。


這一切都讓人們感到了恐懼,AI識別人類性取向,無疑是涉及到了隱私部分,這確實是讓人有所畏懼。而存儲在社交網絡和政府資料庫中的數十億公共數據將有可能在未獲得本人許可的情況下被用來進行性取向識別,這也是有待商榷的。


除了識別性取向,還可以辨別人物關係


但是,這類型的研究還在繼續。中山大學的一個團隊可以通過數據集來識別人物關係。比如是這樣:

又或者是這樣:


而這一切,基於研究者們訓練了的圖推理模型,由該模型結合門控圖神經網絡對社會關係進行處理。


基於此,AI能夠識別圖片中三者之間的關係,根據圖上人物區域的特徵來初始化關係節點,然後用預先訓練的Faster-RCNN探測器搜索圖像中的語義對象,並提取其特徵,初始化相應的對象節點;通過圖傳播節點消息以充分探索人與上下文對象的交互,並採用圖注意機制自適應地選擇信息量最大的節點,以通過測量每個對象節點的重要性來促進識別。


但是,在實際表現中,AI識別並未盡如人意。如警方在歐冠決賽採用AI面部識別匹配潛在犯罪圖像,其錯誤率高達92%,而在人物關係和性取向識別領域,其應用表現也並不優秀。


性取向被識別後,AI倫理的邊界又在哪裡?


《紐約客》曾有這樣一期封面:機器人已經成為了地球的主角,人類只能蹲在地上接受機器人的施捨。每一個新技術都會引發大家的擔心,但以往更多是人的體力的延伸,而如若是腦力的延伸、人類隱私的延伸,這種擔憂將會更加嚴重。智能相對論分析師柯鳴認為,性取向識別前,AI還需要解決倫理上的幾大問題。


1.僅靠面部識別太草率


《人格與社會心理學》雜誌曾對斯坦福的這個研究,指出深層神經網絡比人類在通過圖像檢測性取向判斷中更準確,研究涉及建立一種計算機模型,以識別研究人員將其稱作為同性戀者的「非典型」特徵。


在摘要中,研究人員寫道,「我們認為人們的臉部特徵包涵了更多人腦所無法判斷的性取向特徵。根據一張圖片,系統可以以81%的準確率區分男性同性戀者,74%的準確率區分女性同性戀者,這比人腦可以完成的判斷準確率都要高。」


但是,在距離應用過程中,僅以面部構造識別似乎並沒有那麼「靠譜」。技術無法識別人們的性取向,所謂的技術未來只是識別出網絡中同性戀者頭像存在相似的某種模式。


而且,此研究存在的一個問題在於,研究的機制是通過兩張圖片二選一其中最讓機器覺得「更可能是同性戀」的照片,這種對比判斷其實是從 50% 的隨機機率開始計算的,因此與單純對一張圖的分析有著很大的區別。


這其實就造成了一個問題,在真正人類識別的時候,其準確率有多少,而這種非此即彼的識別方式,其評判標準仍有許多地方需要商榷。


2.算法歧視依然是個「大問題」


算法歧視,一直是人工智慧應用過程中的一大問題,以搜索為例,在谷歌上搜索「CEO」,搜索結果中沒有一個是女性,也沒有一個是亞洲人,這是一種潛在的偏見。


顯然,人工智慧也並不是真的純「人工」。 機器學習的方式和人類學習一樣,從文化中提取並吸收社會結構的常態,因此其也會再建、擴大並且延續我們人類為它們設下的道路,而這些道路,一直都將反映現存的社會常態。


而無論是根據面容來判斷一個人是否誠實,或是判斷他的性取向,這些算法都是基於社會原有生物本質主義,這是一種深信人的性取向等本質是根植於人身體的理論。畢竟,一個AI工具通過數據積累和算法模型可以通過照片判斷一個人的性取向,系統準確率高達91%,這其中所帶來的性取向偏見是不能低估的。


今年年初,來自巴斯大學和普林斯頓大學的計算機科學家就曾用類似IAT的聯想類測試來檢測算法的潛在傾向性,並發現即使算法也會對種族和性別帶有偏見。甚至,連Google 翻譯也難逃偏見,算法「發現」並「學習」了社會約定俗成的偏見。當在特定語言環境中,一些原本是中性的名詞,如果上下文具有特定形容詞,它會將中性詞轉而翻譯為「他」或「她」。


如今的人工智慧還基本局限於完成指定任務,而有時候許多實際應用內容不是非此即彼的,在許多抉擇中,人類選擇依然存在道德困境,如若將決定權交與算法,其存在的詬病之處更是不言而喻。


3.數據使用,掌握「火候」是關鍵


如果說讓AI野蠻生長是為了解決人們工作效率的問題,那麼當人工智慧逐漸落地於各行業後,「體面」已經逐漸取代效率,成為AI應用的關鍵詞。


當然,如果企業能夠全方位的保護用戶隱私,這既有著技術上難度,也缺乏一定商業驅動力,因此,目前來看,如果平衡兩者之間的關係才是關鍵。


實際上,在牽制巨頭破壞用戶隱私方面,歐洲國家已經走得很遠,這體現在這些年他們與Facebook、Google等巨頭對抗的一個個集體訴訟案例中:


2014年8月,Facebook在歐洲遭6萬人起訴,一位奧地利隱私保護人士發起了一項針對Facebook歐洲子公司的大範圍集體訴訟,指控Facebook違背了歐洲數據保護法律,FB被質疑參與了美國國家安全局的「稜鏡」項目,收集公共網際網路使用的個人數據。


今年1月初,德國政府一家數據保護機構周三表示,該機構已針對Facebook採取法律行動,指控Facebook非法讀取並保存不使用該社交網站的用戶的個人信息。德國漢堡數據保護辦公室專員表示,由於Facebook在未經許可的情況下收集並保存不使用該社交網站的用戶個人信息,這有可能導致Facebook被罰款數萬歐元。


顯然,目前用戶對於自身數據的保護意識正在不斷加強,其在不斷保護自身數據的同時也加強隱私防範。畢竟,AI識別性取向目前只是研究而沒有落地產品。


而且,從網站上扒圖並不是什麼技術活,讓機器做選擇題的概念,也像極了十多年前哈佛某個宅男做的校園選美網站。其中滋味,冷暖自知吧。


相關焦點

  • 性取向被識別後 AI倫理的邊界又在哪裡?
    而存儲在社交網絡和政府資料庫中的數十億公共數據將有可能在未獲得本人許可的情況下被用來進行性取向識別,這也是有待商榷的。除了識別性取向,還可以辨別人物關係但是,這類型的研究還在繼續。中山大學的一個團隊可以通過數據集來識別人物關係。
  • 可辨別性取向的人工智慧引發爭議,專家稱應用需符合倫理道德
    可辨別性取向的人工智慧引發爭議,專家稱應用需符合倫理道德 澎湃新聞記者 於瀟清 劉樂凱 2017-09-14 17:54 來源:澎湃新聞
  • 刷臉識別性取向,AI 有這麼可怕嗎?
    史丹福大學的兩位研究員發布了一個研究報告,他們用數十萬張約會網站的照片來訓練一個面部識別系統,嘗試讓 AI 學會通過照片來判斷一個人是否是同性戀。但著名科技媒體 The Verge 指出,其實這類報導出現了偏差,史丹福大學研究員們的這個研究並不是像諸多文章中寫的那樣,只要一張照片就能看出來性取向,事實上,該研究是通過兩張圖片二選一的機制讓機器選出「更可能是同性戀」的圖片。這種對比判斷其實是從 50% 的隨機機率開始計算的,因此與單純對一張圖的分析有著很大的區別。
  • 性取向如何,現在AI掃描一下你的臉就知道了
    斯坦福有一個看臉預測性取向的AI,如同相面一般,根據面部特徵就能判斷一個人是直是彎,而且準確度喜人:男生81%,女生74%因為是約會網站,這些照片還會帶有年齡、性別、性取向等標籤信息。然後作者根據面部特徵訓練了一個回歸模型來預測性取向。2017年史丹福大學的研究就是這麼做的。當時,Kosinski教授把人臉所有相同性取向的臉合成了4張圖片:
  • 人工智慧同性戀雷達通過照片判斷你的性取向,靠譜嗎?
    速遞原因:1.目前很多人對於人工智慧倫理的了解可能是基於對電視劇《西部世界》,《黑鏡》的觀看。這些電視劇描繪的倫理場景未來可能會出現,但是在目前相對離我們生活較遠。這個系列會提供一系列現在人工智慧算法下真實的倫理道德場景。
  • 好用≠濫用,人臉識別的公共應用邊界在哪裡?
    編輯導語:如今人臉識別在很多場合都可以見到,比如超市買單、進園刷臉、學校、乘坐交通工具等等;隨著科技的發展,人臉識別隨之用途變多,但安全性以及隱私性就不得而知了;本文作者分享了關於人臉識別的公共應用邊界,我們一起來看一下。人臉識別技術的廣泛普及應用,已經是現在不爭的事實了;我們對人臉識別在相關安防、出行、金融、安全等領域的產業現狀也有過諸多介紹。
  • 新冠疫情與人工智慧倫理準則面臨的新挑戰
    然而,為應對突發流行病而迅速實施的技術性解決方案也向技術應用的倫理層面提出了全新的挑戰。我們迫切需要形成新的倫理依據,以確保在後疫情時代人工智慧得以安全而有益地應用於社會的各個領域。疫情中健康碼的普及、人臉識別技術被濫用的擔憂,引起數據保護問題的廣泛關注。如何在利用技術治病救人與保護隱私之間保持平衡,是醫療AI發展之路無法繞開的問題,是技術與倫理的博弈。其次是診療決策的自主性問題。在危機面前,人們總會面臨各種權衡與取捨,但這些決定必須是透明的。
  • 人工智慧黑科技 AI能判斷你的性取向
    如何判斷一個陌生人的性取向?你可能只能靠猜的。不過,人工智慧或許看一眼照片就能告訴你答案。 最近,史丹福大學的一項研究引起了人們的關注。 通過初步試驗,這項算法判斷男士性取向的準確率到達81%,而對於女士性向判斷要低一些,為74%。不過,如果能夠提供一個人5張不同的頭像,那麼準確率將會大大提高,對於男女性向判斷的準確率將達到91%和83%。 根據不同性向人群所表達出不同的臉部特徵,男同性戀相比男異性戀,臉部表情更柔和、有精神、更潔淨,具有女性化特徵,下巴更窄、鼻子更長、前額更大。
  • 心理學揭秘「流動的性取向」:64種性取向,你是哪一種?
    民謠女歌手陳粒曾公開出櫃,和女友甜甜蜜蜜,後又分手與某樂隊男主唱相戀;  皇后樂隊(Queen)的主唱弗萊迪·摩克瑞,和交往6年的女友分手後,開始和男性交往;  《Eat Pray Love》的作者伊莉莎白·吉爾伯特,已經再次離婚,宣布和自己最好的同性朋友Rayya Elias在一起……  你可能會說,他們是雙性戀。
  • 通過一張照片,這套AI系統就能判斷你是不是同性戀
    【AI星球(微信ID:ai_xingqiu)】9月9日報導 (編譯:小白)根據最新研究,人工智慧可以基於人們臉部照片準確猜測出他們的性取向
  • 除了菊紋識別,AI還有哪些奇奇怪怪的識別能力
    因為研究人員細心地發現智能馬桶並不只是由一個人使用,儘管在衝水按鈕上安裝了指紋識別,但也可能存在便後不衝水的可能,這樣會出現「人便不一」的情況。 那菊紋識別就完美地解決了這一問題,畢竟排便的同時就做到身份識別,那自然是百分百準確無誤了。為斯坦福研究人員的機智點讚,並配上一張美圖來衝淡下大家腦補出的畫面!
  • 你的性取向,其實全寫在臉上了
    然後,神經網絡對這些圖片進行學習和提取特徵,然後把這些特徵輸入到一個旨在對性取向進行分類的邏輯回歸中。邏輯回歸(Logistic Regression)是一種模型,和用於解決二分類(0 or 1)問題的機器學習方法,用於估計某種事物的可能性。在該模型對足夠多的數據進行「學習」後,就可以將結果應用於對新樣本的計算和判斷之中。
  • 性取向看臉就知道!美國研發AI同志雷達,準確度高達9成
    性取向的決定因素認為性取向是先天形成不可改變的理論,大多是從生物學角度出發。生物學認為一個人的性取向,是在母體時所接觸的雌雄激素偏重度,以及出生後個體體內的雌雄激素決定的,因此,性取向具有先天性。性取向是一個複雜的問題,各種性取向並無優劣之分。
  • 地球的邊界在哪裡?
    作為一個三維球體,地球上是找不到邊界的!當年麥哲倫、達伽馬在茫茫的大洋上飄蕩的時候,最擔心的就是出現一道萬丈深淵,船就往下掉了,再無回天之力!但事實證明地球就是一個球體,走著走著就走回原來的地方了!當然在我們地球上,還有很多可愛的民眾依然相信地球是扁平的!
  • 解密同性戀:是什麼決定了你的性取向?
    同性戀跟安樂死及死刑一樣,這是一個極具爭議性的道德倫理課題。 究竟性取向是天生的還是後天的?是不可變的還是可選擇的?
  • 人臉識別引發道德倫理擔憂!你的臉被監視了嗎?
    然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。  近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。
  • 人臉識別「熱」的冷思考:道德倫理問題發人省
    從厄瓜多的基多到肯亞的奈洛比,從俄羅斯的莫斯科到美國的底特律,數百個城市安裝了有人臉識別系統的攝像頭,有時該系統可提供數據,作為應對犯罪的「安全城市」或「智能城市」解決方案的一部分。人臉識別系統已經給我們的城市帶來諸多方便。然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興起的困擾。
  • 微觀和宏觀的邊界在哪裡
    似乎存在一個明顯的邊界,微觀世界的規律結束,宏觀世界的規律開始。那麼微觀和宏觀的邊界在哪裡?一個人到一群人的邊界在哪裡?是三個人還是五個人,抑或更多。所謂三人成虎、三個和尚沒水吃,三人就可以成為一個小群體,三個人就是這個邊界,從這個邊界開始,個體的心理消失了,隨之而來的是群體心理。最典型的例子就是股市,股市可以說就是群體心理在一個特定金融平臺上的反映,它完全不符合個體心理學規律,所以個體試圖理解股市總是徒勞無功。
  • 人臉識別「熱」中的冷思考:道德倫理問題值得深思
    然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。 近期,《自然》雜誌的一系列報導對人臉識別系統背後的道德倫理學進行了探討。一些科學家正在分析人臉識別技術固有的不準確和偏見,對其背後存在的歧視發出警告,並呼籲加強監管、提高技術透明度。
  • 人臉識別「熱」中的冷思考:道德倫理問題值得深思
    然而,在許多國家,對人臉識別的抵抗聲也在不斷高漲。研究人員、公民自由倡導者和法律學者都受到人臉識別技術興起的困擾。他們正在跟蹤其使用,揭露其危害並開展運動以尋求保障甚至是徹底禁止技術的使用。然而,技術發展的潮流浩浩蕩蕩,更多人認為該技術的存在是「不可避免的」,但是其背後存在的道德倫理問題值得我們深思。