【新智元導讀】近日,有消息稱,400多名谷歌員工已經成立了自己的工會Alphabet Workers Union,工會成立的目的主要是為少數族裔群體發聲,上個月,Timnit Gebru的離職引發了員工對谷歌少數族裔員工待遇的批評風暴。其實在工會成立消息放出的前幾天,Timnit Gebru的谷歌前同事、谷歌AI倫理部門的高級研究員Alex Hanna和另一名曾經幫助領導谷歌勞工組織的NYU教授Meredith Whittaker就在寫給《連線雜誌》的一篇文章中透露了谷歌工會的信息。
在秘密組織了大半年之後,上個月,400多名谷歌員工選出了一個7人組成的委員會,最終成立了他們自己的工會Alphabet Workers Union.
這個工會與傳統工會有所不同,它無法與公司就合同問題進行談判,但這也不是他們成立的初衷,他們的初衷就是要為少數族裔群體發聲。
上個月,Timnit Gebru的離職引發了對谷歌少數族裔員工待遇的批評風暴。
其實在工會成立的消息放出來的前幾天,Timnit Gebru的谷歌前同事、谷歌AI倫理部門的高級研究員Alex Hanna和另一名曾經幫助領導谷歌勞工組織的NYU教授Meredith Whittaker就在寫給《連線雜誌》的一篇文章中透露了谷歌工會的信息。
技術行業需要工會
文章指出了Timnit Gebru離職暴露了人工智慧存在的危機,並提出三點建議,第一點就是成立工會。文中說:
首先,技術員工需要一個工會。員工需要有組織,這是變革和問責的關鍵,也是少數能夠反擊大公司的力量之一。在科技行業尤其如此,因為許多員工都是炙手可熱的專業人才,可替代性也很低,他們的力量非常強大。
工會可以起到制止報復和歧視的作用,也可以成為反對違背道德使用技術做法的重要力量。
例如,亞馬遜員工對氣候變化的抗爭,以及谷歌員工對人工智慧用於軍事用途(Project Maven)的抵制,這些都改變了公司的政策,展示了自發組織的技術員工的力量。
要想有成效,工會組織必須建立在反種族主義和跨階層團結的基礎之上,對哪一類人才算是技術工作者要有全面的認識,並致力於將保護和提升所有BIPOC(黑人、原住民和有色人種)技術工作者的地位放在第一位。
其他建議:資金支持、立法保護
第二點建議是:技術員工需要保護和資金,這樣技術員工可以在公司之外的地方不受公司影響地從事重要研究。
不是每個公司都有一個站出來反擊所謂的研究審查的「Timnit Gebru」.要保證研究人員在公司以外的地方做研究時有更大的權限使用目前被稱為「公司機密」的技術,比如訓練集的使用權限,數據標註和內容審核的規定和步驟。
公司以外進行的研究也必須要把支持BIPOC,女性以及其他曾經被排除在外的研究人員和觀點放在首位,要認識到種族和性別同質性是造成AI領域內傷害的源頭。
而要做到這些就需要大量資金,可以通過向公司「徵稅」來籌集。
最後一點是呼籲相關政府部門對人工智慧領域加強監管。 聯邦、州及地方政府的立法部門要通過立法在數據收集和AI的應用方面來保護隱私並保證徵得當事人的同意。
還要加強對員工、吹哨人的保護,保護BIPOC員工不受歧視,保證最容易受到AI系統風險傷害的弱勢群體能夠做出反抗。
Timnit Gebru事件反應出的人工智慧行業的危機
在列舉建議之前,兩位作者就Timnit Gebru的離職做了分析,指出Timnit Gebru的遭遇揭示了AI研究領域存在的「雙重危機」。
AI領域由一群精英主導,主要是白人男性;主要由行業內的大公司控制和資助,比如微軟, Facebook,亞馬遜,IBM,當然還有谷歌。Gebru 被解僱,組織年青一代圍繞AI樹立必要的護欄的「文明政治」被撕裂,人工智慧行業打工人的種族同質性和企業無效的多樣性項目成為討論的核心話題。
但這種情況也清楚地表明,「無論谷歌的承諾看上去多麼誠懇,企業資助的研究永遠不能脫離權力的現實,也不能脫離收入和資本的流動。」
這些問題和我們每個人都息息相關。現在AI應用擴大到醫療、刑事司法、教育等領域,研究人員和倡導者提出了緊迫的擔憂。這些制度作出的決定直接影響到生活,同時又植根於加強種族歧視歷史的組織中。
人工智慧系統的權力也集中在那些設計和使用它們的人手中,而隱藏在複雜計算表面之後的責任(和義務)卻被模糊化了。風險是巨大的,動機是決然錯誤的。
文中還指出了限制AI研究人員的能力和建立有效保護的結構性障礙。因為由於AI預測和決定而受害的主要是BIPOC,婦女,宗教和性別少數群體,以及窮人。而受益於AI的主要是企業和白人男性研究人員和開發人員。
以「面部識別」為例,對深色皮膚的人更不容易識別,而這些面部識別系統主要出現在黑人社區,相反在識別率高的白人社區,這些系統已經成功禁止和抵制了面部識別系統。
而我們需要關注這些因為AI技術應用而受到傷害的人們。
谷歌對待 Gebru 的方式越來越清楚地表明,當關鍵工作阻礙其商業激勵時,該公司的「優先事項」是什麼。這就可以看出來,確保人工智慧系統對弱勢群體負責幾乎是不可能的。
科技公司與「表面上獨立」的學術機構之間的密切聯繫,進一步削弱了對該行業的監督。
來自企業和學術界的研究人員一起發表論文,並在同一個會議上接觸,一些研究人員甚至在科技公司和大學身兼兩職。這模糊了學術研究和企業研究之間的界限,並掩蓋了支持此類工作的激勵措施。
這也意味著,這兩個群體看起來非常相似ーー學術界的人工智慧研究與企業研究一樣,面臨著有害的種族和性別同質化問題。此外,頂級的計算機科學部門接受大量來自Big Tech的研究資金。
Gebru的離職表明,這種做法再次出現了。像谷歌這樣強大的公司有能力收集、最小化或壓制對其大規模人工智慧系統的批評,這些系統是其利潤動機的核心。
事實上,根據路透社最近的一份報告,谷歌的領導層甚至指示研究人員,在研究對谷歌底線敏感的技術和問題時,要「採取積極的態度」。
Gebru的離職也凸顯了其他公眾所面臨的危險,如果我們允許一個精英的、同質的研究隊伍由那些不太可能經歷人工智慧負面影響的人組成,從企業內部驅動和塑造關於人工智慧的研究。
少數從人工智慧擴散中獲益的人正在塑造學術界和公眾對這些系統的理解,而那些最有可能受到傷害的人卻被排除在知識創造和影響之外。這種不平等遵循可預測的種族、性別和階級界限。
文章最後寫到,這場危機清楚地表明,儘管受到企業影響力的制約,並且受到一群特權研究人員的支配,當前的人工智慧研究生態系統,無法提出和回答對於那些承受人工智慧系統危害的人來說最重要的問題。
「公眾意識的研究和知識創造」本身就很重要,除此之外,它還為人工智慧的民主監督和治理決策制定者提供了基本信息,也為那些能夠反擊有害技術和掌握這些技術的人提供了基本信息。
支持和保護有組織的技術工人,擴大對人工智慧的研究領域,在企業影響的陰影之外培育資源充足和包容性強的研究環境,這些都是為解決這些緊迫問題提供空間的重要步驟。
關於作者
Alex Hanna和Timnit Gebru之前同為谷歌AI倫理部門的員工,此前Hanna曾代表AI倫理部門向谷歌管理層發聯名信,要求副總裁Megan Kacholia和Jeff Dean向Timnit Gebru道歉,並讓Gebru以更高職級回歸谷歌。
另一名作者Meredith Whittaker是紐約大學 Minderoo研究教授,紐約大學AI Now研究所主任,長期從事技術工作,曾幫助領導谷歌的勞工組織。
參考連結:
https://www.wired.com/story/timnit-gebru-exit-google-exposes-crisis-in-ai/