當傳統聯邦學習面臨異構性挑戰,不妨嘗試這些個性化聯邦學習算法

2021-01-08 機器之心Pro

機器之心分析師網絡

作者:仵冀穎

編輯:H4O

本文選擇了三篇關於個性化聯邦學習的文章進行深入分析。

經典的機器學習方法基於樣本數據(庫)訓練得到適用於不同任務和場景的機器學習模型。這些樣本數據(庫)一般通過從不同用戶、終端、系統中收集併集中存儲而得到。在實際應用場景中,這種收集樣本數據的方式面臨很多問題。一方面,這種方法損害了數據的隱私性和安全性。在一些應用場景中,例如金融行業、政府行業等,受限於數據隱私和安全的要求,根本無法實現對數據的集中存儲;另一方面,這種方法會增加通信開銷。在物聯網等一些大量依賴於移動終端的應用中,這種數據匯聚的通信開銷成本是非常巨大的。

聯邦學習允許多個用戶(稱為客戶機)協作訓練共享的全局模型,而無需分享本地設備中的數據。由中央伺服器協調完成多輪聯邦學習以得到最終的全局模型。其中,在每一輪開始時,中央伺服器將當前的全局模型發送給參與聯邦學習的客戶機。每個客戶機根據其本地數據訓練所接收到的全局模型,訓練完畢後將更新後的模型返回中央伺服器。中央伺服器收集到所有客戶機返回的更新後,對全局模型進行一次更新,進而結束本輪更新。通過上述多輪學習和通信的方法,聯邦學習消除了在單個設備上聚合所有數據的需要,克服了機器學習任務中的隱私和通信挑戰,允許機器學習模型學習分散在各個用戶(客戶機)上存儲的數據。

聯邦學習自提出以來獲得了廣泛的關注,並在一些場景中得以應用。聯邦學習解決了數據匯聚的問題,使得一些跨機構、跨部門的機器學習模型、算法的設計和訓練成為了可能。特別地,對於行動裝置中的機器學習模型應用,聯邦學習表現出了良好的性能和魯棒性。此外,對於一些沒有足夠的私人數據來開發精確的本地模型的用戶(客戶機)來說,通過聯邦學習能夠大大改進機器學習模型和算法的性能。但是,由於聯邦學習側重於通過分布式學習所有參與客戶機(設備)的本地數據來獲得高質量的全局模型,因此它無法捕獲每個設備的個人信息,從而導致推理或分類的性能下降。此外,傳統的聯邦學習需要所有參與設備就協作訓練的共同模型達成一致,這在實際複雜的物聯網應用中是不現實的。研究人員將聯邦學習在實際應用中面臨的問題總結如下[2]:(1)各個客戶機(設備)在存儲、計算和通信能力方面存在異構性;(2) 各個客戶機(設備)本地數據的非獨立同分布(Non-Idependently and Identically Distributed,Non-IID)所導致的數據異構性問題;(3)各個客戶機根據其應用場景所需要的模型異構性問題。

為了解決這些異構性挑戰,一種有效的方法是在設備、數據和模型級別上進行個性化處理,以減輕異構性並為每個設備獲得高質量的個性化模型,即個性化聯邦學習(Personalized Federated Learning)。針對 Non-IID 的聯邦學習,機器之心之前有專門的分析文章,感興趣的讀者可以閱讀。針對設備異構性的問題,一般可以通過設計新的分布式架構(如 Client-Edge-Cloud[5])或新的聯邦學習算法( Asynchronous Fed[6])來解決。

針對模型異構性的問題,作者在文獻 [1] 中將不同的個性化聯邦學習方法分為以下幾類:增加用戶上下文(Adding User Context )[8]、遷移學習(Transfer Learning)[9]、多任務學習(Multi-task Learning)[10]、元學習(Meta-Learning)[3]、知識蒸餾(Knowledge Distillation )[11]、基本層 + 個性化層( Base + Personalization Layers)[4]、混合全局和局部模型(Mixture of Global and Local Models )[12] 等。

本文選擇了三篇關於個性化聯邦學習的文章進行深入分析。其中,第一篇文章關於設備異構性的問題[6],作者提出了一種新的異步聯邦優化算法。對於強凸和非強凸問題以及一類受限的非凸問題,該方法能夠近似線性收斂到全局最優解。第二篇文章重點解決模型異構性的問題[7],作者提出了一種引入 Moreau Envelopes 作為客戶機正則化損失函數的個性化聯邦學習算法(pFedMe),該算法有助於將個性化模型優化與全局模型學習分離開來。最後,第三篇文章提出了一個協同雲邊緣框架 PerFit,用於個性化聯邦學習,從整體上緩解物聯網應用中固有的設備異構性、數據異構性和模型異構性[2]。

一、Asynchronous Federated Optimization

隨著邊緣設備 / 物聯網(如智慧型手機、可穿戴設備、傳感器以及智能家居 / 建築)的廣泛使用,這些設備在人們日常生活中所產生的大量數據催生了 「聯邦學習」 的方法。另一方面,對於人工智慧算法中所使用的的樣本數據隱私性的考慮,進一步提高了人們對聯邦學習的關注度。然而,聯邦學習是同步優化(Synchronous)的,即中央伺服器將全局模型同步發送給多個客戶機,多個客戶機基於本地數據訓練模型後同步將更新後的模型返回中央伺服器。聯邦學習的同步特性具有不可擴展、低效和不靈活等問題。這種同步學習的方法在接入大量客戶機的情況下,存在同時接收太多設備反饋會導致中央伺服器端網絡擁塞的問題。此外,由於客戶機的計算能力和電池時間有限,任務調度因設備而異,因此很難在每個更新輪次(epoch)結束時精準的同步接入的客戶機。傳統方法會採取設定超時閾值的方法,刪除無法及時同步的客戶機。但是,如果可接入同步的客戶機數量太少,中央伺服器可能不得不放棄整個 epoch,包括所有已經接收到的更新。

為了解決同步聯邦學習中出現的這些問題,本文提出了一種新的異步聯邦優化算法,其關鍵思想是使用加權平均值來更新全局模型。可以根據陳舊性函數(A Function of the Staleness)自適應設定混合權重值。作者在文中證明,這些更改結合在一起能夠生成有效的異步聯邦優化過程。

1.1 方法介紹

給定 n 個客戶機,經典聯邦學習表示為:

其中,z^i 為第 i 個客戶機設備中的數據採樣。由於不同的客戶機設備之間存在異構性,所存儲的資料庫也不同,從不同設備中提取的樣本具有不同的期望值:

聯邦學習的一次完整的更新過程由 T 個全局 epochs 組成。在第 t 個 epoch 中,中央伺服器接收任意一個客戶機發回的本地訓練的模型 x_new,並通過加權平均來更新全局模型:

其中,α∈(0,1),α為混合超參數 (mixing hyperparameter)。在任意設備 i 上,在從中央伺服器接收到全局模型 x_t(可能已經過時)後,使用 SGD 進行局部優化以解決以下正則化優化問題:

中央伺服器和客戶機設備的工作線程執行異步更新。當中央伺服器接收到本地模型時,會立即更新全局模型。中央伺服器和客戶機線程之間的通信是非阻塞的。完整算法具體見算法 1。在中央伺服器端,有兩個線程異步並行運行:調度線程和更新線程。調度器定期觸發一些客戶機設備的訓練任務。更新線程接收到客戶機設備本地訓練得到的模型後更新全局模型。全局模型通過多個具有讀寫鎖的更新線程來提高吞吐量。調度器隨機化訓練任務的時間,以避免更新線程過載,同時控制各個訓練任務的陳舊性(更新線程中的 t-τ)。更新全局模型時,客戶端反饋的陳舊性越大(過時越久),錯誤就越大。

針對模型中的α混合超參,對於具有大滯後性的局部模型(t-τ)可以通過減小α來減小由陳舊性引起的誤差。作者引入一個函數 s(t-τ)來控制α的值。具體的,可選函數格式如下:

本文提出的異步聯邦優化方法的完整結構見圖 1。其中,0:調度進程通過協調器觸發訓練任務。1、2:客戶機設備接收中央伺服器發來的延遲的全局模型 x_(t-τ)。3:客戶機設備按照算法 1 中的描述進行本地更新。工作進程可以根據客戶機設備的可用性在兩種狀態之間切換:工作狀態和空閒狀態。4、5、6:客戶機設備通過協調器將本地更新的模型推送到中央伺服器。調度程序對 5 中接收到的模型進行排隊,並在 6、7、8 中按順序將它們提供給更新進程:中央伺服器更新全局模型並使其準備好在協調器中讀取。在該系統中,1 和 5 異步並行運行,中央伺服器可以隨時觸發客戶機設備上的訓練任務,而客戶機設備也可以隨時將本地更新的模型推送到中央伺服器。

圖 1. 異步聯邦優化系統總覽

1.2 實驗分析

本文在基準 CIFAR-10 圖像分類數據集上進行了實驗,該數據集由 50k 個訓練圖像和 10k 個測試圖像組成。調整每個圖像的大小並將其裁剪為(24, 24, 3)的形狀。使用 4 層卷積層 + 1 層全連接層結構的卷積神經網絡(CNN)。實驗中,將訓練集劃分到 n=100 個客戶機設備上。其中,n=100 的每個分區中有 500 個圖像。對於任何客戶機設備,SGD 處理的小批量大小是 50。使用經典 FedAvg 聯邦學習方法和單線程 SGD 作為基準方法。本文所提出的異步聯邦優化方法記作 FedAsync。其中,根據α定義方式的不同,將選擇多項式自適應α的方法定義為 FedAsync+Poly,將採用 Hinge 自適應α的方法記作 FedAsync+Hinge。

圖 2. 指標與梯度,陳舊性為 4

圖 3. 指標與梯度,陳舊性為 16

圖 2 和圖 3 給出了梯度值增加時 FedAsync 如何收斂。可以看到,當整體陳舊性較小時,FedAsync 收斂速度與 SGD 一樣快,比 FedAvg 快。當陳舊性較大時,FedAsync 收斂速度較慢。在最壞的情況下,FedAsync 的收斂速度與 FedAvg 相似。當 α值非常大時,收斂可能不穩定。使用自適應 α,收斂性對較大的 α 是魯棒的。當最大陳舊性狀態為 4 時,FedAsync 和 FedAsync+Hinge (b=4)是相同的。

1.3 論文小結

與經典聯邦學習相比,本文提出的異步聯邦優化方法具有下述優點:

效率:中央伺服器可以隨時接收客戶機設備的更新。與 FedAvg 不同,陳舊性(延時反饋)的更新不會被刪除。當陳舊性很小時,FedAsync 比 FedAvg 收斂的快得多。在最壞的情況下,當陳舊性很大時(延時嚴重),FedAsync 仍然具有與 FedAvg 相似的性能。

靈活性:如果某些設備不再能夠執行訓練任務(設備不再空閒、充電中或連接到不可用的網絡),可以將其暫時掛起,等待繼續訓練或稍後將訓練模型推送到中央伺服器。這也為中央伺服器上的進程調度提供了很大的靈活性。與 FedAvg 不同,FedAsync 可以自行安排訓練任務,即使設備當前不合格 / 不能夠工作,因為中央伺服器無需一直等待設備響應,也可以做到令當前不合格 / 不能工作的客戶機設備稍後開始訓練任務。

可伸縮性:與 FedAvg 相比,FedAsync 可以處理更多並行運行的客戶機設備,因為中央伺服器和這些設備上的所有更新都是非阻塞的。伺服器只需隨機化各個客戶機設備的響應時間即可避免網絡擁塞。

作者在文章中通過理論分析和實驗驗證的方式證明了 FedAsync 的收斂性。對於強凸問題和非強凸問題,以及一類受限制的非凸問題,FedAsync 具有近似線性收斂到全局最優解的能力。在未來的工作中,作者計劃進一步研究如何設計策略來更好的調整混合超參數。

二、Personalized Federated Learning with Moreau Envelopes

隨著手持設備、移動終端的快速發展和推廣應用,這些手持設備 / 移動終端產生的大量數據推動了聯邦學習的發展。聯邦學習以一種保護隱私和高效通信的方式通過分散在客戶端(客戶機設備)中的數據構建一個精確的全局模型。在實際應用中,經典聯邦學習面臨了這樣一個問題:* 如何利用聯邦學習中的全局模型來找到一個針對每個客戶端數據進行個性化適配處理的「個性化模型」*?

參考個性化模型在醫療保健、金融和人工智慧服務等領域中應用的模式,本文提出了一種個性化聯邦學習方案,該方案引入了基於客戶端損失函數的 Moreau envelopes 優化。通過該方案,客戶端不僅可以像經典聯邦學習一樣構建全局模型,而且可以利用全局模型來優化其個性化模型。從幾何的角度分析,該方案中的全局模型可以看作是所有客戶端一致同意的「中心點」,而個性化模型是客戶端根據其異構數據分布來構建的遵循不同方向的點。

2.1 方法介紹

首先,作者回顧了經典聯邦學習:

(1)

其中,ω 表示全局模型,函數 f_i 表示客戶端 i 中數據分布的預期損失。

其中,ξ_i 為根據客戶端 i 的分布隨機抽取數據樣本,f_i(ω;ξ _i)表示對應於該樣本和ω的損失函數。在聯邦學習中,由於客戶端的數據可能來自不同的環境、上下文和應用程式,因此客戶端具有 Non-IID 數據分布,不同客戶端的ξ_i 不同。

不同於經典聯邦學習,本文對每個客戶端使用 L_2 範數的正則化損失函數,如下所示:

(2)

其中,θ_i 表示客戶端 i 的個性化模型,λ表示控制個性化模型的ω強度的正則化參數。雖然較大的λ可以從豐富的數據聚合中受益於不可靠的數據,但是較小的λ可以幫助擁有足夠多有用數據的客戶端優先進行個性化設置。總之,本文方法的目的是 * 允許客戶端沿不同的方向更新本地模型,同時不會偏離每個客戶端都貢獻所得到的「參考點」ω*。個性化聯邦學習可以表述為一個雙層問題:

通過在外部層(outer level)利用來自多個客戶端的數據聚合來確定ω,在內部層(inner level)針對客戶端 i 的數據分布優化θ_i,並使其與ω保持一定距離。F_i(ω)定義為 Moreau envelope。最優個性化模型是解決 pFedMe 內部層問題的唯一解決方案,在文獻中也被稱為鄰近算子(proximal operator),其定義如下:

(3)

為了進行比較,作者討論了 Per-FedAvg[13],它可以說是最接近 pFedMe 的公式:

(4)

Per-FedAvg 是一個元學習方法,基於經典元學習的與模型無關的元學習(MAML)框架,Per-FedAvg 的目標是找到一個全局模型ω,可以用它作為初始化全局模型,進一步對損失函數執行梯度更新(步長為 α)來得到它的個性化模型θ_i(ω)。

與 Per-FedAvg 相比,本文的問題具有類似於 「元模型」 的考慮,但是沒有使用ω作為初始化,而是通過解決一個雙層問題來並行地求得個性化和全局模型,這種方式有幾個好處:首先,雖然 Per-FedAvg 針對其個性化模型進行了一步梯度更新的優化,但 pFedMe 對內部優化器是不可知的,這意味著公式(3)可以使用任何具有多步更新的迭代方法來求解。其次,可以將 Per-FedAvg 的個性化模型更新重寫為:

(5)

使用 < x,y > 作為兩個向量 x 和 y 的內積,可以看到除了相似的正則化項外,Per-FedAvg 只優化了 f_i 的一階近似,而 pFedMe 直接最小化了公式(3)中的 f_i。第三,Per-FedAvg(或通常基於 MAML 的方法)需要計算或估計 Hessian 矩陣,而 pFedMe 只需要使用一階方法計算梯度。

此外,作者還給出了 Moreau envelope 的一些數學特性證明,這些數學特性能夠保證引入 Moreau envelope 的聯邦學習方法的收斂性。

假設 1(強凸性和光滑性):f_i 分別是(a)μ- 強凸或(b)非凸和 L - 光滑的(即 L-Lipschitz 梯度),如下所示:

假設 2(有界方差):每個客戶端的隨機梯度方差是有界的:

假設 3(有界多樣性):局部梯度對全局梯度的方差是有界的

最後,作者回顧了 Moreau envelope 的一些有用的性質,例如平滑和保持凸性。

命題 1:如果 f_i 與 L-Lipschitz-▽f_i 是凸的或非凸的,那麼▽f_i 是 L_F - 光滑的,L_F=λ(對於非凸 L - 光滑 f_i,條件是λ>2L),並且有:

此外,如果 f_i 是μ強凸的,那麼 f_i 是 F_i - 強凸的μ_F=λ_μ/(λ+μ)。

最後,作者介紹本文提出的 pFedMe 完整流程如下:

首先,在內部層,每個客戶端 i 求解公式(3)以獲得其個性化模型,其中 w^t_(i,r)表示客戶端 i 在全局輪次 t 和局部輪次 r 的局部模型。與 FedAvg 類似,本地模型的目的是幫助構建全局模型,減少客戶端和伺服器之間的通信輪數。其次,在外部層面,使用隨機梯度下降的客戶端 i 的局部更新是關於 F_i(而不是 f_i)的,如下所示

其中,η表示學習速率,使用當前個性化模型和公式 (6) 計算▽F_i。

此外,作者還提出在實際場景中應用時,一般採用滿足下面約束的δ近似的個性化模型:

對應的,使用下式完成逼近▽F_i 的計算:

這樣處理的原因有兩個:第一,使用公式(3)計算個性化模型需要計算▽F_i(θ_i),這種計算依賴於ξ_i 的分布。實際上,可以通過對 D_i 的小樣本採樣來計算▽F_i(θ_i)的無偏估計:

第二,獲取封閉形式的個性化模型是很困難的,相反,通常使用迭代一階方法來獲得高精度的近似值:

選擇λ,令 h_i 是條件數為 k 的強凸,然後可以應用梯度下降(例如,奈斯特羅夫加速梯度下降(Nesterov’s accelerated

gradient descent)))以獲得個性化模型:

pFedMe 中每個客戶端的計算複雜度是 FedAvg 的 K 倍。

2.2 實驗分析

本文實驗考慮了一個使用真實(MNIST)和合成數據集的分類問題。MNIST 是一個手寫數字數據集,包含 10 個標籤和 70000 個實例。由於 MNIST 數據量的限制,作者將完整的 MNIST 數據集分發給 N=20 個客戶端。為了根據本地數據大小和類別對異構設置進行建模,每個客戶端都被分配了一個不同的本地數據大小,範圍為 [1165;3834],並且只有 10 個標籤中的 2 個。對於合成數據,作者採用數據生成和分布過程,使用兩個參數 α=0.5 和β=0.5 來控制每個客戶端的本地模型和數據集的差異。具體來說,數據集使用 60 維實值數據為 10 類分類器提供服務。每個客戶端的數據大小在[250;25810] 範圍內。最後,將數據分發給 N=100 個客戶端。

作者對 pFedMe、FedAvg 和 Per-FedAvg 進行了比較。MNIST 數據集中的實驗結果見圖 4。pFedMe 的個性化模型在強凸設置下的準確率分別比其全局模型 Per-FedAvg 和 FedAvg 高 1.1%、1.3% 和 1.5%。非凸設置下的相應數據為 0.9%、0.9% 和 1.3%。

圖 4. 使用 MNIST 的 pFedMe、FedAvg 和 Per-FedAvg 在μ- 強凸和非凸設置下的性能比較

對於合成數據集,利用相同參數和微調參數的比較結果見圖 5。在圖 5 中,儘管 pFedMe 的全局模型在測試準確率和訓練損失方面表現不如其他模型,但 pFedMe 的個性化模型仍然顯示出它的優勢,因為它獲得了最高的測試準確率和最小的訓練損失。圖 5 顯示,pFedMe 的個性化模型比其全局模型 Per-FedAvg 和 FedAvg 的準確率分別高出 6.1%、3.8% 和 5.2%。

圖 5. 使用合成數據集的 pFedMe、FedAvg 和 Per-FedAvg 在μ- 強凸和非凸設置下的性能比較

從實驗結果來看,當客戶端之間的數據是非獨立同分布(Non-IID)時,pFedMe 和 Per-FedAvg 都獲得了比 FedAvg 更高的測試準確度,因為這兩種方法允許全局模型針對特定客戶端進行個性化處理。通過多次梯度更新近似優化個性化模型從而避免計算 Hessian 矩陣,pFedMe 的個性化模型在收斂速度和計算複雜度方面比 Per-FedAvg 更具優勢。

2.3 論文小結

本文提出了一種個性化聯邦學習方法 pFedMe。pFedMe 利用了 Moreau envelope 函數,該函數有助於將個性化模型優化從全局模型學習中分解出來,從而使得 pFedMe 可以類似於 FedAvg 更新全局模型,但又能根據 t 每個客戶端的本地數據分布並行優化個性化模型。理論結果表明,pFedMe 可以達到最快的收斂加速率。實驗結果表明,在凸和非凸環境下,使用真實和合成數據集,pFedMe 的性能都優於經典 FedAvg 和基於元學習的個性化聯邦學習算法 Per-FedAvg。

三、Personalized Federated Learning for Intelligent IoT Applications: A Cloud-Edge based Framework

複雜物聯網環境中固有的設備、統計和模型的異構性給傳統的聯邦學習帶來了巨大挑戰,使其無法直接部署應用。為了解決物聯網環境中的異構性問題,本文重點研究個性化聯邦學習方法,這種方法能夠減輕異質性帶來的負面影響。此外,藉助邊緣計算的能力,個性化聯邦學習能夠滿足智能物聯網應用對快速處理能力和低延遲的要求。

邊緣計算的提出主要是為了解決設備異構性中的高通信和計算成本問題,從而為物聯網設備提供了按需計算的能力。因此,每個物聯網設備可以選擇將其計算密集型學習任務卸載到邊緣,以滿足快速處理能力和低延遲的要求。此外,邊緣計算可以通過在本地就近存儲數據的方式(例如,在智能家庭應用的智能邊緣網關中)解決隱私問題,而無需將數據上傳到遠程雲。還可以採用差分隱私和同態加密等隱私和安全保護技術來提高隱私保護水平。

本文提出了一個用於個性化聯邦學習的協同雲邊緣框架 PerFit,該框架能夠從整體上緩解物聯網應用中固有的設備異構性、統計異構性和模型異構性問題。對於統計和模型的異構性,該框架還允許終端設備和邊緣伺服器在雲邊緣範例中的中心雲伺服器的協調下共同訓練一個全局模型。在對全局模型進行學習訓練後,在客戶端設備中可以採用不同的個性化聯邦學習方法,根據不同設備的應用需求對其進行個性化模型部署。

3.1 方法介紹

本文提出了一個針對智能物聯網應用的個性化聯邦學習框架,以整體的方式應對設備異構性、數據異構性和模型異構性挑戰。如圖 6 所示,本文提出的 PerFit 框架採用雲邊緣架構,為物聯網設備提供必要的按需邊緣計算能力。每個物聯網設備可以選擇通過無線連接將其密集的計算任務轉移到邊緣設備中(即家中的邊緣網關、辦公室的邊緣伺服器或室外的 5G MEC 伺服器),從而滿足物聯網應用的高處理效率和低延遲的要求。

圖 6. 智能物聯網應用的個性化聯邦學習框架,支持靈活選擇個性化的聯邦學習方法

具體來說,PerFit 中的協作學習過程主要包括以下三個階段,如圖 6 中所述:

卸載階段(Offloading stage)。當邊緣設備是可信的(例如,家中的邊緣網關),物聯網設備用戶可以將其整個學習模型和數據樣本卸載到邊緣設備中以進行快速計算。否則,設備用戶將通過將輸入層及其數據樣本本地保存在其設備上並將剩餘的模型層卸載到邊緣設備中以進行設備邊緣協作計算來執行模型劃分。

學習階段(Learning stage)。邊緣設備根據個人數據樣本協同計算本地模型,然後將本地模型信息傳輸到雲伺服器。雲伺服器將各個邊緣設備所提交的本地模型信息聚合起來,並將它們平均化為一個全局模型,然後發送回各個邊緣設備中。這樣的模型信息交換過程不斷重複,直到經過一定次數的迭代後收斂為止。因此,可以實現一個高質量的全局模型,然後傳輸到邊緣設備以進行進一步的個性化設置。

個性化階段(Personalization stage)。為了捕捉特定的個人特徵和需求,每個邊緣設備都基於全局模型信息和自身的個人信息(即本地數據)訓練一個個性化模型。這一階段的具體學習操作取決於採用的個性化聯邦學習機制。例如,遷移學習、多任務學習、元學習、知識蒸餾、混合模型等。

進一步,在邊緣設備上進行本地模型聚合,也有助於避免大量設備通過昂貴的主幹網帶寬與雲伺服器直接通信,從而降低通信開銷。通過執行個性化處理,可以在一些資源有限的設備上部署輕量級的個性化模型(例如,通過模型修剪或傳輸學習)。這將有助於減輕設備在通信和計算資源方面的異構性。此外,也可以很好的支持統計異構性和模型異構性,因為該框架可以根據不同邊緣設備的本地數據特性、應用程式需求和部署環境利用個性化的模型和機制。

PerFit 通過在邊緣設備和雲伺服器之間交換不同類型的模型信息,能夠靈活地集成多種個性化的聯邦學習方法,包括我們在這篇文章中分析的兩種個性化聯邦學習方法。通過解決複雜物聯網環境中固有的異構性問題並在默認情況下確保用戶隱私,PerFit 可以成為大規模實際部署的理想選擇。

3.2 個性化聯邦學習機制

作者在文章中回顧並簡述了幾個個性化聯合學習機制,這些機制可以與 PerFit 框架集成用於智能物聯網應用程式。文中重點分析了以下幾種類型:聯邦遷移學習,聯邦元學習,聯邦多任務學習、聯邦蒸餾和數據增強。

3.2.1 聯邦遷移學習

聯邦遷移學習的基本思想是將全局共享模型遷移到分布式物聯網設備上(客戶端設備),通過針對各個物聯網設備實現個性化處理,以減輕聯邦學習中固有的數據異構性問題(Non-IID 數據分布)。考慮到深度神經網絡的結構和通信過載問題,通過聯邦轉移學習實現個性化的方法主要有兩種。具體可見圖 7。

圖 7(a)中為 Chen 在文獻 [14] 中提出的聯邦遷移學習方法。首先通過經典的聯邦學習訓練一個全局模型,然後將全局模型發送至每個客戶端設備。每個設備都能夠通過使用其本地數據來改進、細化全局模型從而構建個性化模型。為了減少訓練開銷,只對指定層的模型參數進行微調,而不是對整個模型進行再訓練。由圖 7(a)可見,由於深度網絡的底層側重於學習全局(公共的)和底層特徵,因此,在全局模型中的這些底層參數可以傳輸到局部模型中後直接復用。而傳入的更高層的全局模型參數則應該根據本地數據進行微調,以便學習到針對當前設備定製的更具體的個性化特性。

Arivazhagan 等在文獻 [15] 中提出了另一類聯邦遷移學習方法 FedPer。FedPer 主張將深度學習模型視為基礎 + 個性化層,如圖 7(b)所示。其中,將基本層作為共享層,使用現有的聯邦學習方法(即 FedAvg 方法)以協作方式進行訓練。而個人化層在本地進行訓練,從而能夠捕獲物聯網設備的個人信息。在聯邦學習一個階段的訓練過程之後,可以將全局共享的基礎層轉移到參與的物聯網設備上,以其獨特的個性化層構建自己的個性化深度學習模型。因此,FedPer 能夠捕捉到特定設備上的細粒度信息,以進行更好的個性化推理或分類,並在一定程度上解決數據異構性問題。此外,由於只需要上傳和聚合部分模型,FedPer 需要較少的計算和通信開銷,這在物聯網環境中是至關重要的。

圖 7. 兩種聯邦遷移學習架構

3.2.2 聯邦元學習

在元學習中,模型是由一個能夠學習大量相似任務的元學習者(a Meta-Learner)來訓練的,訓練模型的目標是從少量的新數據中快速適應新的相似任務。聯邦元學習是指將元學習中的相似任務作為設備的個性化模型,將聯邦學習與元學習相結合,通過協作學習實現個性化處理。Jiang 等在文獻 [16] 中提出了一種改進的個性化 FedAvg。該方法通過引入一個精細化調整階段,該精細化調整階段使用模型不可知的元學習算法(model agnostic meta learning,MAML)。通過聯邦學習訓練得到的全局模型可以個性化地捕捉單個設備中的細粒度信息,從而提高每個物聯網設備的性能。MAML 可以靈活地與任何模型表示相結合,以適應基於梯度的訓練。此外,它只需少量的數據樣本就可以快速學習和個性化適應處理。

由於聯邦元學習方法通常使用複雜的訓練算法,因此,與聯邦遷移學習方法相比,聯邦元學習方法實現的複雜度較高。不過,聯邦元學習方法的學習模型更健壯,這一特性對於數據樣本很少的設備是非常有用的。

3.2.3 聯邦多任務學習

由前兩節的分析可知,聯邦遷移學習和聯邦元學習的目的是通過個性化微調處理,在物聯網設備上學習相同或相似任務的共享模型。與這種思路不同的是,聯邦多任務學習的目標是同時學習不同設備的不同任務,並試圖在沒有隱私風險的情況下捕捉它們之間的模型關係(Model Relationships)。利用這種模型關係,每個設備的模型可以獲取其他設備的信息。此外,為每個設備學習的模型總是個性化的。

由圖 8 所示,在聯邦多任務學習訓練過程中,雲伺服器根據物聯網設備上傳的模型參數,學習多個學習任務之間的模型關係。然後,每個設備可以用其本地數據和當前模型關係更新自己的模型參數。聯邦多任務學習通過交替優化雲伺服器中的模型關係和每個任務的模型參數,使參與其中的物聯網設備能夠協同訓練其本地模型,從而減輕數據異構性,獲得高質量的個性化模型。

文獻 [17] 中提出了一種分布式優化方法 MOCHA。為了應對高通信成本的問題,MOCHA 具有一定的計算靈活性,從而通過執行額外的本地計算的方式造成在聯邦環境下的通信輪次更少。為了減少最終結果的離散程度,作者建議在計算資源有限的情況下近似計算設備的本地更新。此外,異步更新方案也是避免離散問題的一種替代方法。此外,通過允許參與設備周期性地退出,MOCHA 具有健壯的容錯性。由於複雜物聯網環境中固有的設備異構性對聯邦學習的性能至關重要,聯邦多任務學習對於智能物聯網應用具有重要意義。

圖 8. 聯邦多任務學習

3.2.4 聯邦蒸餾方法

在經典聯邦學習框架中,所有的客戶機(例如參與的邊緣設備)都必須同意在全局伺服器和本地客戶機上訓練得到的模型的特定體系結構。然而,在一些現實的商業環境中,如醫療保健領域和金融領域等,每個參與者都有能力和意願設計自己獨特的模型,並且可能出於隱私和智慧財產權的考慮而不願意分享模型細節。這種模型異構性對傳統的聯邦學習提出了新的挑戰。

Li 等在文獻 [18] 中提出了一個新的聯邦學習框架 FedMD,使參與者能夠利用知識蒸餾的方法獨立地設計自己的模型。在 FedMD 中,每個客戶機獨立的將所學知識轉化為標準格式,在不共享數據和模型體系結構的情況下確保其他人可以理解該格式。中央伺服器收集這些知識來計算全局模型,並將其進一步分發給參與的客戶機。知識轉換步驟可以通過知識蒸餾來實現,例如,使用客戶模型產生的類概率作為標準格式,如圖 9 所示。通過這種方式,雲伺服器聚合併平均每個數據樣本的類概率,然後分發到客戶機以指導其更新。

Jeong 等在文獻 [19] 中提出一種聯邦蒸餾方法,其中每個客戶機將自己視為學生,並將所有其他客戶機的平均模型輸出視為其教師的輸出。教師與學生的產出差異為學生提供了學習的方向。這裡值得注意的是,為了在聯邦學習中進行知識提煉,需要一個公共數據集,因為教師和學生的輸出應該使用相同的訓練數據樣本進行評估。

圖 9. 聯邦蒸餾

3.2.5 數據增強

Zhao 等提出了一種數據共享策略,將一些均勻分布的全局數據從雲端(中央伺服器)分發到邊緣客戶端[20],從而在一定程度上緩解客戶數據高度不平衡的分布狀況,從而提高個性化模型的性能。然而,直接將全局數據分發到邊緣客戶端會帶來很大的隱私洩露風險,這種方法需要在數據隱私保護和性能改進之間進行權衡。此外,全局共享數據與用戶本地數據的分布差異也會導致性能下降。

為了在不損害用戶隱私的前提下糾正不平衡的 Non-IID 局部數據集問題,研究人員採用了一些具有生成能力的過採樣技術和深度學習方法。Jeong 等提出了一種聯邦擴充方法(Federated Augmentation,FAug)[21],其中每個客戶機共同訓練一個生成模型,從而擴充其本地數據以生成 IID 數據集。具體地說,每個邊緣客戶機識別其數據樣本中缺少的標籤(稱為目標標籤),然後將這些目標標籤的少數種子數據樣本上載到伺服器。伺服器對上傳的種子數據樣本進行過採樣,然後訓練一個生成性對抗網絡(Generative Atterial Network,GAN)。最後,每個設備可以下載經過訓練的 GAN 發生器來補充其目標標籤,直到得到一個平衡的數據集。通過數據擴充,每個客戶機可以根據生成的數據集訓練出一個更加個性化和精確的用於分類或推理任務的模型。值得注意的是,FAug 的伺服器應該是可信的,這樣用戶才願意上傳他們的個人數據。

3.3 實驗分析

本文實驗基於一個名為 MobiAct 的可公開訪問的數據集完成,該數據集重點研究人類活動識別任務。每個參與構建 MobiAct 數據集的志願者都戴著三星 Galaxy S3 智慧型手機,帶有加速計和陀螺儀傳感器。志願者在進行預定活動時,三軸線性加速度計和角速度信號由嵌入式傳感器記錄。使用 1 秒的滑動窗口進行特徵提取,因為一秒鐘就足夠執行一個活動。MobiAct 中記錄了 10 種活動,如步行、上下樓梯、摔倒、跳躍、慢跑、踏車等。為了實際模擬聯邦學習的環境,本文實驗隨機選擇了 30 名志願者,並將他們視為不同的客戶端。對於每個客戶端,為每個活動隨機抽取若干個樣本,最後,每個客戶端有 480 個樣本用於模型訓練。這樣,不同客戶端的個人數據可能呈現出 Non-IID 分布(統計異質性)。每個客戶端的測試數據由分布均衡的 160 個樣本組成。

使用兩種模型進行客戶端中的個性化學習。1) 多層感知器網絡由三個完全連接的層組成,有 400 個、100 個和 10 個神經單元(總參數 521510 個),記作 3NN。2) 卷積神經網絡(CNN),有三個 3×3 的卷積層(第一層有 32 個通道,第二個有 16 個通道,最後一個有 8 個通道,前兩層每個都有一個 2×2 最大池化層),一個有 128 個單元和 ReLu 激活的全連接層,以及一個最終的 Softmax 輸出層(總參數為 33698)。採用交叉熵損失和隨機梯度下降(SGD)優化算法訓練 3NN 和 CNN,學習率為 0.01。

作者選擇集中式學習、經典聯邦學習方法作為基準方法。對於集中式方法,採用了支持向量機(SVM)、k - 最近鄰(kNN)和隨機森林(RF)等常用的機器學習方法。此外,還採用了集中式 3NN(c3NN)和集中式 CNN(cCNN)進行比較。對於個性化聯邦學習,作者選擇了兩種被廣泛採用的方法:聯邦遷移學習(Federated Transfer Learning ,FTL)和聯邦蒸餾(Federated Distillation,FD)。對於 FTL,每個客戶端設備將使用其個人數據對從雲伺服器下載的模型進行微調。而在 FD 中,每個客戶端可以根據自己的需求定製自己的模型。

圖 10 給出了 30 個客戶端在不同學習方法下的測試準確度。對於集中式方法,基於深度學習的方法(c3NN、cCNN)可以比傳統的基於機器學習的方法(SVM、kNN 和 RF)獲得更高的準確度。經典聯邦學習(FL-CNN)中的邊緣客戶端在中央雲伺服器的協調下,能夠在不損害數據隱私的前提下改進識別性能,並達到與 cCNN 類似的 85.22% 的識別率。FL-3NN 和 FL-CNN 與集中式模式相比性能略有下降,這是由於聯邦學習環境中固有的統計異質性造成的。通過個性化的聯邦學習,FTL 和 FD 都可以捕捉到用戶細粒度的個人信息,並為每個參與者獲得個性化的模型,從而獲得更高的測試準確度。例如,FTL-3NN 識別率可達 95.37%,比 FL3NN 高 11.12%。

圖 10. 不同學習方法在人體活動識別中的準確性研究

3.4 論文小結

本文提出了一個雲邊緣架構中的個性化聯邦學習框架 PerFit,用於具有數據隱私保護的智能物聯網應用。PerFit 能夠通過聚合來自分布式物聯網設備的本地更新並利用邊緣計算的優點來學習全局共享模型。為了解決物聯網環境中的設備、統計和模型的異構性,PerFit 可以自然地集成各種個性化聯邦學習方法,從而實現物聯網應用中設備的個性化處理並增強性能。通過一個人類活動識別任務的案例研究,作者證明了 PerFit 的有效性。

4、總結

在這篇文章中,我們聚焦了個性化聯邦學習的問題。聯邦學習是一個有效的處理分布式數據訓練的解決方案,它能夠通過聚集和平均本地計算的更新來協作訓練高質量的共享全局模型。此外,聯邦學習能夠在不損害用戶數據隱私的情況下學習得到令人滿意的全局模型。然而,由於分布式處理方式的固有弊端,聯邦學習面臨設備異構性、數據異構性和模型異構性等問題,在實際推廣應用中存在無法直接部署的風險。

個性化聯邦學習的目的是根據不同設備的應用需求對其進行個性化模型部署,以解決各類異構性問題。本文選擇了專門針對於設備異構性和模型異構性問題的兩篇文章進行詳細分析,最後還選擇了一篇文章介紹在物聯網應用的雲邊緣架構中使用的個性化聯邦學習框架。由我們選擇的幾篇論文中作者進行的理論分析和實驗給出的結果可以看出,個性化聯邦學習確實可以改進經典聯邦學習方法的效果,能夠有效應對客戶端設備中的各種異構性情況,甚至能夠處理一些設備宕機 / 存儲空間已滿等臨時性失效的問題。聯邦學習在各類實際場景中都有著巨大的應用需求,我們會繼續關注個性化聯邦學習的技術發展和部署應用方法。

本文參考引用的文獻:

[1] Kulkarni, Viraj,Kulkarni, Milind,Pant, Aniruddha, Survey of personalization techniques for federated learning, http://arxiv.org/abs/2003.08673?context=cs.LG

[2] Q. Wu, K. He, and X. Chen, 「Personalized federated learning for intelligent iot applications: A cloud-edge based framework,」 arXiv preprint arXiv:2002.10671, 2020.

[3] Y. Jiang, J. Konecny, K. Rush, and S. Kannan, 「Improving federated learning personalization via model agnostic meta learning,」 arXiv preprint arXiv:1909.12488, 2019.

[4] M. G. Arivazhagan, V. Aggarwal, A. K. Singh, and S. Choudhary, 「Federated learning with personalization layers,」 arXiv preprint arXiv:1912.00818, 2019.

[5] Liu L , Zhang J , Song S H , et al. Client-Edge-Cloud Hierarchical Federated Learning. 2019. https://arxiv.org/pdf/1905.06641.pdf.

[6] Xie C , Koyejo S , Gupta I . Asynchronous Federated Optimization. 2019. https://arxiv.org/pdf/1903.03934.pdf.

[7] Dinh, Canh T.,Tran, Nguyen H.,Nguyen, Tuan Dung, Personalized federated learning with moreau envelopes.http://arxiv.org/abs/2006.08848?context=stat

[8] Y. Mansour, M. Mohri, J. Ro, and A. T. Suresh, 「Three approaches for personalization with applications to federated learning,」 arXiv preprint arXiv:2002.10619, 2020.

[9] J. Schneider and M. Vlachos, 「Mass personalization of deep learning,」 arXiv preprint arXiv:1909.02803, 2019.

[10] V. Smith, C.-K. Chiang, M. Sanjabi, and A. S. Talwalkar, 「Federated multi-task learning,」 in Advances in Neural Information Processing Systems, pp. 4424– 4434, 2017.

[11] D. Li and J. Wang, 「Fedmd: Heterogenous federated learning via model distillation,」 arXiv preprint arXiv:1910.03581, 2019

[12] F. Hanzely and P. Richtarik, 「Federated learning of a mixture of global and local models,」 arXiv preprint arXiv:2002.05516, 2020.

[13] A. Fallah, A. Mokhtari, and A. Ozdaglar, 「Personalized Federated Learning: A Meta-Learning Approach,」

arXiv:2002.07948 [cs, math, stat], Feb. 2020. [Online]. Available: http://arxiv.org/abs/2002.07948

[14] Yiqiang Chen, Jindong Wang, Chaohui Yu, Wen Gao, and Xin Qin. Fedhealth: A federated transfer learning framework for wearable healthcare. arXiv preprint arXiv:1907.09173, 2019.

[15] Manoj Ghuhan Arivazhagan, Vinay Aggarwal, Aaditya Kumar Singh, and Sunav Choudhary. Federated learning with personalization layers. arXiv preprint arXiv:1912.00818, 2019.

[16] Yihan Jiang, Jakub Koneˇcn`y, Keith Rush, and Sreeram Kannan. Improving federated learning personalization via model agnostic meta learning. arXiv preprint arXiv:1909.12488, 2019.

[17] Virginia Smith, Chao-Kai Chiang, Maziar Sanjabi, and Ameet S Talwalkar. Federated multi-task learning. In Advances in Neural Information Processing Systems, pages 4424–4434, 2017.

[18] Daliang Li and Junpu Wang. Fedmd: Heterogenous federated learning via model distillation. arXiv preprint arXiv:1910.03581, 2019.

[19] Eunjeong Jeong, Seungeun Oh, Hyesung Kim, Jihong Park, Mehdi Bennis, and Seong-Lyun Kim. Communication-efficient on-device machine learning: Federated distillation and augmentation under non-iid private data. arXiv preprint arXiv:1811.11479, 2018.

[20] Yue Zhao, Meng Li, Liangzhen Lai, Naveen Suda, Damon Civin, and Vikas Chandra. Federated learning with non-iid data. arXiv preprint arXiv:1806.00582, 2018.

[21] Eunjeong Jeong, Seungeun Oh, Hyesung Kim, Jihong Park, Mehdi Bennis, and Seong-Lyun Kim. Communication-efficient on-device machine learning: Federated distillation and augmentation under non-iid private data. arXiv preprint arXiv:1811.11479, 2018.

分析師介紹:

本文作者為仵冀穎,工學博士,畢業於北京交通大學,曾分別於香港中文大學和香港科技大學擔任助理研究員和研究助理,現從事電子政務領域信息化新技術研究工作。主要研究方向為模式識別、計算機視覺,愛好科研,希望能保持學習、不斷進步。

關於機器之心全球分析師網絡 Synced Global Analyst Network

機器之心全球分析師網絡是由機器之心發起的全球性人工智慧專業知識共享網絡。在過去的四年裡,已有數百名來自全球各地的 AI 領域專業學生學者、工程專家、業務專家,利用自己的學業工作之餘的閒暇時間,通過線上分享、專欄解讀、知識庫構建、報告發布、評測及項目諮詢等形式與全球 AI 社區共享自己的研究思路、工程經驗及行業洞察等專業知識,並從中獲得了自身的能力成長、經驗積累及職業發展。

相關焦點

  • 聯邦學習算法綜述
    從3個層面系統闡述聯邦學習算法。首先通過聯邦學習的定義、架構、分類以及與傳統分布式學習的對比來闡述聯邦學習的概念;然後基於機器學習和深度學習對目前各類聯邦學習算法進行分類比較和深入分析;最後分別從通信成本、客戶端選擇、聚合方式優化的角度對聯邦學習優化算法進行分類,總結了聯邦學習的研究現狀,並提出了聯邦學習面臨的通信、系統異構、數據異構三大難題和解決方案,以及對未來的期望。
  • 聯邦學習 OR 遷移學習?No,我們需要聯邦遷移學習
    關於 FL 中的異構性問題,機器之心之前也有過專門報導,感興趣的讀者可以閱讀相關文章。微眾銀行 (WebBank) 進一步提出了聯邦遷移學習(Federated Transfer Learning,FTL)[1,6]。
  • NeurIPS 2019聯邦學習國際研討會引關注,聯邦學習技術應用再拓邊界
    Talwalkar,中國科學院計算技術研究所泛在計算系統研究中心主任陳益強等國內外頂尖學者,深入探討了聯邦學習的個性化和普適性問題,以及貝葉斯方法、分布式學習、去中心化等技術要素在聯邦學習中的影響。在聯邦學習的實際應用方面,微眾銀行首席人工智慧官楊強教授著重分享了聯邦學習技術在推薦系統中的應用,谷歌的研究員Daniel Ramage則講述了谷歌在聯邦學習系統、算法和實際應用方面的探索,Francoise Beaufays更是以谷歌輸入法為例,深入細緻地分析了聯邦學習在實踐中的最新進展,中科院陳益強主任則揭示了聯邦學習在醫療領域輔助帕金森診斷方面的應用。
  • 聯邦學習:你可以有
    目前,推薦系統是消費領域最常見的機器學習算法之一[1]。以網絡新聞為例,由於每天都有大量的新聞文章發布在網上,在線新聞服務的用戶面臨著嚴重的信息過載。不同的用戶通常喜歡不同的新聞信息。因此,個性化新聞推薦技術被廣泛應用於用戶的個性化新聞展示和服務中。關於新聞的推薦算法 / 模型研究已經引起了學術界和產業界的廣泛關注。
  • 想了解風頭正勁的聯邦學習?這篇400多個參考文獻綜述論文滿足你
    聯邦學習使用局部數據收集和最小化的原則,能夠降低使用傳統中心化機器學習和數據科學方法帶來的一些系統性隱私風險和成本。近期社區對聯邦學習的研究出現爆發式增長,這篇論文探討了聯邦學習的近期進展,並展示了該領域所面臨的開放性問題和挑戰。本論文作者來自澳大利亞國立大學、CMU、康奈爾大學、谷歌、香港科技大學等機構。原論文篇幅較長,機器之心進行了摘要編譯。
  • 微眾銀行與星雲Clustar大牛解讀聯邦學習中的同態運算與密文傳輸
    面對的這些問題,可以通過一些技術手段來解決,這裡提出方案就是聯邦學習。聯邦學習可以讓不同的組織,比如說醫院、銀行、終端設備或公司,通過聯邦學習建立成一個聯邦網絡,來共同挖掘數據中的價值。相比於傳統的方案有什麼優勢?傳統方法最典型的是通過網絡去共享具體的樣本數據;還有一種是通過加密的移動硬碟去拷貝,相關人員在一個布滿攝像頭的操作室,也叫安全沙箱裡進行建模。
  • 楊強:應對對抗攻擊、結合AutoML,是聯邦學習接下來的研究重點 |...
    今天我的題目是《聯邦學習的數據價值和模型安全》。一、聯邦學習研究背景首先看一下聯邦學習的研究背景。我們知道AI的力量來自大數據,但我們面臨的實際問題往往只有小數據,比方說我經常舉的例子,一個是法律,一個是金融,一個是醫療,這些跟國計民生和大產業都相關。
  • 微眾銀行楊強教授:聯邦學習的最新發展及應用丨CCF-GAIR 2019
    不過這些應用同樣也遇到很多挑戰,以至於我們有必要發明一些新的算法。主要有哪些挑戰呢?概括來講有三點:第一,「對抗學習」的挑戰。即針對人工智慧應用的作假,比如人臉識別就可以做假,針對面部進行合成。如何應對這種「對抗學習」的挑戰,這是金融場景下人工智慧安全領域的重大題目。第二,小數據的挑戰。
  • 兩位專家詳解TEE聯邦學習與開源向量...
    其中富數科技首席科學家陳立峰的講解主題為《基於TEE增強的聯邦學習與多方安全計算平臺解析》,Zilliz 數據工程師李晴的講解主題為《開源向量相似搜尋引擎Milvus的框架與應用》。數據的隱私問題一直是人們所關心的焦點問題。尤其是工業界來說,隨著對數據安全的重視和隱私保護法案的出臺,以前粗放式的數據共享受到挑戰,各個數據擁有者重新回到數據孤島的狀態。
  • 楊強:應對對抗攻擊、結合AutoML,是聯邦學習接下來的研究重點|CCF...
    今天我的題目是《聯邦學習的數據價值和模型安全》。一、聯邦學習研究背景首先看一下聯邦學習的研究背景。我們知道AI的力量來自大數據,但我們面臨的實際問題往往只有小數據,比方說我經常舉的例子,一個是法律,一個是金融,一個是醫療,這些跟國計民生和大產業都相關。
  • 模型攻擊:魯棒性聯邦學習研究的最新進展
    在聯邦學習的應用場景中,訓練數據集被分散在多個客戶端設備(如桌面、手機、IoT 設備)之間,這些設備可能屬於不同的用戶 / 組織。這些用戶 / 組織雖然不想分享他們的本地訓練數據集,但希望共同學習得到一個全局最優的機器學習模型。由於聯邦學習框架的這種分布式性質,在使用安全聚合協議(Secure Aggregation)的情況下,針對機器學習算法的故障和攻擊的檢測糾正更加困難。
  • 京東數科首度公開聯邦學習戰略全布局,薄列峰詳解兩大算法突破
    兩個典型的聯邦學習算法,分別是橫向聯邦學習和縱向聯邦學習,橫軸表示特徵維度,豎軸表示用戶維度。橫向聯邦學習,看兩方的數據和標籤,用戶重合度非常低,特徵重合度比較大。這裡顯示的是用戶無重合的極端情況,實際情況中它可能僅僅重合90%用戶特徵,5%用戶重合,到時進行對齊即可。縱向聯邦學習,兩方用戶重合較多,可對用戶的部分對齊。
  • 從概念到技術,再到國際標準和開源社區,聯邦學習只用兩年時間
    「聯邦學習」(Federated Learning)就是為解決傳統機器學習方法所面臨的數據困境的一種新的嘗試。這是一種在保護數據隱私、滿足合法合規要求的前提下,多參與方或多計算結點之間開展高效率的機器學習的新型人工智慧基礎技術。
  • FATE1.0重磅發布:首個可視化聯邦學習產品與聯邦pipeline生產服務...
    作為全球首個聯邦學習工業級技術框架,FATE支持聯邦學習架構體系與各種機器學習算法的安全計算,實現了基於同態加密和多方計算(MPC)的安全計算協議,能夠幫助多個組織機構在符合數據安全和政府法規前提下,有效和協作地進行數據使用和聯合建模。
  • 富數科技安全計算首席專家卞陽:隱私計算江湖與聯邦學習的「上帝...
    當然,TEE跟聯邦學習關聯度較低,但也不排除某些聯邦學習解決方案能與TEE有所結合。除此之外,還有像盲籤名、隱私信息檢索、零知識證明等這些相對更小的密碼學協議分支,同樣非常有用,好比泰山派峨眉派,它們共同組成了豐富多彩的隱私計算江湖。
  • 聯邦學習+風控,會是信貸業務的N95嗎?
    這三大群體介於傳統C端消費客群和企業客戶,規模體量大,抗風險能力弱,授信情況和企業主個人息息相關。而這些情況最直接的關聯影響,其中之一就是小微企業貸和個人借貸的逾期大幅攀升,放貸機構顯著承壓。有業內人士透露,國內一些放貸平臺的首次逾期率環比增長7-8個百分點;更有甚者,首逾率相較於過往平均數暴增了四、五倍。
  • 星雲Clustar和微眾銀行達成戰略合作,推動聯邦學習新發展
    據悉,此次星雲Clustar和微眾銀行雙方的合作主要圍繞人工智慧新技術「聯邦學習」展開,重點解決聯邦學習需要大量算力以進行加密數據計算的挑戰。技術研發上,星雲Clustar和微眾銀行雙方將在高性能異構計算、加速計算軟硬體開發、分布式高性能通信技術、分布式遠距離通信優化技術等進行深度研究和開發。
  • 7篇ICLR論文,遍覽聯邦學習最新研究進展
    局部目標函數的優化處理過程為:其中,n_k 為第 k 個客戶端局部樣本數據數量,可以令 p_k=n_k/n,n 為整個聯邦學習網絡的數據集中符合經驗最小化目標的樣本總數。傳統方法通過以下方式實現全局目標最優化:每一輪選擇概率與 n_k 成正比的設備子集執行這些本地更新方法通過在每個設備上本地運行可變數量的迭代的優化器(例如 SGD)來實現靈活高效的通信。
  • 星雲Clustar主持聯邦學習工作組投票,正式標準預年中出臺
    近日,IEEE P3652.1(聯邦學習基礎架構與應用)標準工作組第五次(線上)會議順利召開。此次會議結束後,標準工作組宣布:聯邦學習IEEE標準草案已完成並通過標準工作組表決。星雲Clustar 作為標準工作組重要成員之一,參與了草案撰寫及投票環節。
  • 聯邦學習:Tensorflow中的逐步實現
    在本教程中,我將實現聯邦學習(FL)的構建塊,並從頭開始對MNIST機器學習數據集進行訓練。介紹FL架構的基本形式包括一個位於中心的管理員或伺服器,負責協調訓練活動。客戶端主要是邊緣設備,可以達到數百萬的數量。這些設備在每次訓練迭代中至少與伺服器通信兩次。