螞蟻金服核心技術:百億特徵實時推薦算法揭秘

2021-02-21 阿里技術

阿里妹導讀:本文來自螞蟻金服人工智慧部認知計算組的基礎算法團隊,文章提出一整套創新算法與架構,通過對TensorFlow底層的彈性改造,解決了在線學習的彈性特徵伸縮和穩定性問題,並以GroupLasso和特徵在線頻次過濾等自研算法優化了模型稀疏性,在支付寶核心推薦業務獲得了uvctr的顯著提升,並較大地提升了鏈路效率。

0.綜述

在線學習(Online learning)由於能捕捉用戶的動態行為,實現模型快速自適應,進而成為提升推薦系統性能的重要工具。然而它對鏈路和模型的穩定性,訓練系統的性能都提出了很高的要求。但在基於原生TensorFlow,設計Online推薦算法時,我們發現三個核心問題:

一些資訊推薦場景,需要大量長尾詞彙作為特徵,需使用featuremap對低頻特徵頻次截斷並連續性編碼,但耗時且方法aggressive。

使用流式數據後,無法預知特徵規模,而是隨訓練逐漸增長。因此需預留特徵空間訓練幾天後重啟,否則會越界。

模型稀疏性不佳,體積達到數十GB,導致上傳和線上加載耗時長且不穩定。

更重要的是,在線學習如火如荼,當流式特徵和數據都被打通後,能按需增刪特徵,實現參數彈性伸縮的新一代訓練平臺成為大勢所趨。為了解決這些問題,從2017年底至今,螞蟻金服人工智慧部的同學,充分考慮螞蟻的業務場景和鏈路,對TensorFlow進行了彈性改造, 解決了以上三大痛點,簡化並加速離線和在線學習任務。其核心能力如下:

在與業務線團隊的共同努力下,目前已在支付寶首頁的多個推薦場景全流量上線。其中某推薦位的個性化online learning桶最近一周相比線上多模型融合最優桶提升4.23% , 相比隨機對照提升達34.67% 。 某個性化資訊推薦業務最近一周,相比DNN基準uv-ctr提升+0.77%,pv-ctr提升+4.78%,模型體積壓縮90%,鏈路效率提升50%。

1. 彈性改造及優勢

背景:在原生TensorFlow中,我們通過Variable來聲明變量,若變量超過了單機承載的能力,可使用partitioned_variables來將參數分配到不同機器上。 但必須指定shape,聲明後即不可改變,通過數組索引查找。

由於推薦系統中大量使用稀疏特徵,實踐中一般採取embedding_lookup_sparse一類的方法在一個巨大的Dense Variable中查找向量並求和,來代替矩陣乘法。開源Tensorflow限定了Variable使用前必須聲明維度大小,這帶來了兩個問題:

1)需要預先計算特徵到維度範圍內的int值的映射表,這一步操作通常在ODPS上完成。因為需要掃描所有出現的特徵並編號,計算非常緩慢;

2)在online learning場景下,為了容納新出現的特徵,需要預留一部分維度空間,並在線上不斷修改映射表,超過預留空間則需要重新啟動在線任務。

為了突破固定維度限制,實現特徵的動態增加和刪除,最樸素的優化想法是在TensorFlow底層實現模擬字典行為的Variable,並在此基礎上重新實現Tensorflow上層API。由此我們進行了優化,在server新增了基於HashMap的HashVariable,其內存結構如下:

在聲明該變量時,只需增加一句,其他訓練代碼皆不需改動:

每個特徵都通過hash函數映射到一個2的64次方大小的空間內。當需要計算該特徵時,PS會按需惰性創建並返回之。但其上層行為與原生TF一致。由於去掉了featuremap轉ID的過程,我們內部形象地將其稱為「去ID化」。在此之上我們實現了Group Lasso FTRL,頻次過濾和模型壓縮等一系列算法。

備註:彈性特徵帶來一個顯著的優勢:只要用足夠強的L1稀疏性約束,在單機上就能調試任意大規模的特徵訓練,帶來很多方便。我們的hashmap實現是KV化的,key是特徵,value是vector的首地址。

離線訓練優化

經過這樣的改造後,在離線批量學習上,帶來了以下變化:


在線訓練優化

online learning上,能帶來如下變化:

 

除了性能有明顯的提升之外,其最大的優勢是不需提前申請空間,訓練可以無縫穩定運行。

2. 特徵動態增刪技術

彈性架構,主要目的就是特徵優選,讓模型自適應地選擇最優特徵,進而實現稀疏化,降低過擬合。本節介紹特徵優選的兩個核心技術:


2.1 Group  Lasso 優化器

稀疏化是算法追求的重要模型特性,從簡單的L1正則化和Truncated Gradient[9], 再到討論累積梯度平均值的RDA(Regularized Dual Averaging)[10], 再到目前常見的 FTRL[2] 。 然而它們都是針對廣義線性模型優化問題提出的稀疏性優化算法,沒有針對sparse DNN中的特徵embedding層做特殊處理。把embedding參數向量當做普通參數進行稀疏化,並不能達到在線性模型中能達到的特徵選擇效果,進而無法有效地進行模型壓縮。

例如:當包含新特徵的樣本進入時,一個特徵對應的一組參數(如embedding size為7,則參數數量為7)被激活,FTRL判定特徵中的部分參數無效時,也不能安全地將該特徵刪除。如圖:

因此,在L1和L2正則的基礎上,人們引入L21正則(group lasso)和L2正則(exclusive sparsity),分別表示如下:

L21早在2011年已經引入,它最初目的是解決一組高度關聯特徵(如男\女)應同時被保留或刪除的問題,我們創新地擴展到embedding的表示上,以解決類似的問題。

在L21中,由於內層L2正則將一個特徵的所有參數施加相同的約束,能將整組參數清除或保留,由此決定embedding層中的某些特徵對應的embedding向量是否完全刪除,提升模型泛化性。因此稱為group lasso。

而L12則正好相反,它迫使每組參數中的非0參數數量一致但值又儘可能不同,但使輸出神經元互相競爭輸入神經元,進而使特徵對目標更具區分性。

對於DNN分類網絡,底層表示要求有足夠的泛化性和特徵抽象能力,上層接近softmax層,需要更好的區分性。因此我們通常在最底層的embedding層使用group lasso。即如下的優化目標:

直接將L21正則項懲罰加入loss,模型最終也能收斂,但並不能保證稀疏性。因此Group lasso優化器參考了FTRL,將梯度迭代分成兩個半步,前半步按梯度下降,後半步微調實現稀疏性。通過調節L1正則項(即公式中的λ),能有效地控制模型稀疏性。

Group lasso是彈性計算改造後,模型性能提升和壓縮的關鍵。值得指出:

在我們實現的優化器中,Variable,以及accum和linear兩個slot也是KV存儲。

L12和L21正則相結合的方法也已經有論文討論[8],但我們還未在業務上嘗試出效果。

由於篇幅限制,本節不打算詳細介紹Group lasso的原理和推導


2.2 流式頻次過濾

討論完特徵動態刪除的方法後,我們再分析特徵的準入策略。

2.2.1 頻次過濾的必要性

在Google討論FTRL的文章1中提到, 在高維數據中大部分特徵都是非常稀疏的,在億級別的樣本中只出現幾次。那麼一個有趣的問題是,FTRL或Group FTRL優化器能否能刪除(lasso)極低頻特徵?

在RDA的優化公式中,滿足以下條件的特徵會被置0:

若在t步之前,該特徵只出現過幾次,未出現的step的梯度為0,隨著步數增大,滿足上述條件變得越來越容易。由此RDA是可以直觀處理極稀疏特徵的。 但對於FTRL,要滿足:

其中, 不僅和歷史梯度有關,還與歷史學習率和權重w有關。 因此FTRL雖然也能處理極稀疏特徵,但並沒有RDA那麼aggressive(此處還待詳細地分析其下界,Group FTRL與此類似)。

由於FTRL在設計和推導時並未明確考慮極低頻特徵,雖然通過增大λ,確實能去除大量極低頻特徵,但由於約束太強,導致部分有效特徵也被lasso,在離線實驗中被證明嚴重影響性能。其次,對這些巨量極低頻特徵,保存歷史信息的工程代價是很高昂的(增加幾倍的參數空間和存儲需求),如下圖:

因此我們提出,能否在實時數據流上模擬離線頻次過濾,為特徵提供準入門檻,在不降低模型性能的基礎上,儘量去除極低頻特徵,進一步實現稀疏化?

2.2.2 頻次過濾的幾種實現

注意: 由於默認的embedding_lookup_sparse對特徵執行了unique操作(特徵歸一化以簡化計算),因此在PS端是不可能獲取真實特徵和label頻次的。需要Python端對placeholder統計後,上傳給server端指定的Variable,優化器通過slot獲得該Variable後作出聯合決策。

最naive的思路是模擬離線頻次過濾,對特徵進行計數,只有達到一定閾值後再進入訓練,但這樣破壞了數據完整性:如總頻次6,而閾值過濾為5,則該特徵出現的前5次都被忽略了。為此我們提出了兩種優化方案:

在離線shuffle後的特徵滿足均勻分布,但對在線數據流,特徵進入訓練系統可看做泊松過程,符合泊松分布:

其中n為當前出現的次數,t為當前的步數,λ為單位時間發生率,是泊松分布的主要參數,T為訓練總步數。為特徵最低門限(即最少在T時間內出現的次數)。

因此我們能通過前t步的特徵出現的次數n,將t時刻當做單位時間,則。 根據泊松分布,我們可以算出剩餘時間內事件發生大於等於次的概率。 每次該特徵出現時,都可按該概率做伯努利採樣,特徵在t步進入系統的概率用下式計算:

通過真實線上數據仿真,它能接近離線頻次過濾的效果,其λ是隨每次特徵進入時動態計算的。它的缺陷是:

當t越小時,事件發生在t內的次數的variance越大,所以會以一定概率誤加或丟棄特徵。

未來總的訓練步數T在在線學習中是未知的。

頻次過濾與優化器相分離,導致不能獲得優化器的統計信息。

在經典的FTRL實現中,L1正則對每個特徵都是一致的。這導致了2.2.1 中提到的問題:過大的L1雖然過濾了極低頻特徵,但也影響的了模型的性能。參考各類優化器(如Adam)對learning_rate的改進,我們提出:通過特徵頻次影響L1正則係數,使得不同頻次的特徵有不同的lasso效果。

特徵頻次和基於MLE的參數估計的置信度相關,出現次數越低置信度越低。如果在純頻率統計基礎上加入一個先驗分布(正則項),當頻率統計置信度越低的時候,越傾向於先驗分布,相應的正則係數要更大。我們經過多個實驗,給出了以下的經驗公式:

其中c是懲罰倍數,為特徵最低門限,這兩者皆為超參,是當前特徵出現的頻次。

我們在線上環境,使用了動態調節L1正則的方案 。在uvctr不降甚至有些微提升的基礎上,模型特徵數比不使用頻次過濾減少75%,進而從實驗證明了頻次過濾對稀疏化的正向性。它的缺點也很明顯:特徵頻次和正則係數之間的映射關係缺少嚴謹證明。

頻次過濾作為特徵管理的一部分,目前還少有相關論文研究,亟待我們繼續探索。

3. 模型壓縮和穩定性3.1 模型壓縮

在工程上,由於做了優化,如特徵被優化器lasso後,只將其置0,並不會真正刪除;在足夠多步數後才刪除。同時引入內存池,避免特徵的反覆創建和刪除帶來的不必要的性能損失。 這就導致在訓練結束後,模型依然存在大量0向量。導出時要進一步做模型壓縮。

由於引入了HashPull和HashPush等非TF原生算子,需要將其裁剪後轉換為原生TF的op。 我們將這些步驟統稱圖裁剪(GraphCut), 它使得線上inference引擎,不需要做任何改動即可兼容彈性改造。由於有效特徵大大減少,打分速度相比原引擎提升50%以上。

我們將圖裁剪看做TF-graph的靜態優化問題,分為3個步驟:

第一遍遍歷Graph,搜索可優化子結構和不兼容的op。

第二遍遍歷,記錄節點上下遊和元數據,裁剪關鍵op,並將Variable的非0值轉存至Tensorflow原生的MutableDenseHashTable。本步驟將模型體積壓縮90%。

拼接新建節點,重建依賴關係,最後遞歸回溯上遊節點,去除與inference無關的子圖結構

我們實現了完整簡潔的圖裁剪工具,在模型熱導出時調用, 將模型從原先的8GB左右壓縮到幾百兆大小,同時保證模型打分一致。

3.2 模型穩定性和監控

online learning的穩定性非常重要。我們將線上真實效果,與實時模型生成的效果,進行了嚴密的監控,一旦樣本偏差過多,就會觸發報警。

由於需捕捉時變的數據變化,因而不能用固定的離線數據集評估模型結果。我們使用阿里流式日誌系統sls最新流入的數據作為評估樣本,以滑動窗口先打分後再訓練,既維持了不間斷的訓練,不浪費數據,同時儘可能高頻地得到最新模型效果。

我們對如下核心指標做了監控:

樣本監控: 正負比例,線上打分值和online-auc(即線上模型打分得到的auc),產出速率,消費速率。

訓練級監控: AUC, User-AUC(參考備註),loss, 模型打分均值(與樣本的正負比例對齊),異常信息。

特徵級管理: 總特徵規模,有效/0/刪除特徵規模,新增/插入/刪除的速率。

整體模型和調度:模型導出的時間,大小,打分分布是否正常,是否正常調度。

業務指標:uvctr,pvctr(小時級更新,T+1報表)。

線上與訓練指標之間的對應關係如下表:

通過http接口,每隔一段時間發送監控數據,出現異常會及時產生釘釘和郵件報警。下圖是對9月20日到27號的監控,從第二張圖表來看,模型能較好的適應當前數據流的打分分布。

User-AUC:傳統的AUC並不能完全描述uvctr,因為模型很可能學到了不同用戶間的偏序關係,而非單個用戶在不同offer下的點擊偏序關係。為此,我們使用了User-AUC,它儘可能地模擬了線上uvctr的計算過程,在真實實驗中,監控系統的uvctr小時報表,與實時模型輸出的User-AUC高度一致。

4. 工程實現和效果

目前算法已經在支付寶首頁的多個推薦位上線。推薦系統根據用戶的歷史點擊,融合用戶畫像和興趣,結合實時特徵,預估用戶CTR,進而提升系統整體點擊率。

我們以推薦位業務為例說明,其採用了經典的wide&deep的網絡結構,其sparse部分包含百級別的group(見下段備註1)。 一天流入約百億樣本,label的join窗口為固定時長。由於負樣本佔大多數,上遊鏈路對正負樣本做了1:8的降採樣(見下文備註2)。

訓練任務採用螞蟻統一訓練平臺構建,並使用工作流進行定時調度,離線和在線任務的其他參數全部一致。Batchsize為512,每200步(即20萬樣本)評估結果,定時將模型通過圖裁剪導出到線上系統。當任務失敗時,調度系統會自動拉起,從checkpoint恢復。

該推薦業務的online learning桶最近一周相比線上多模型融合最優桶提升4.23% , 相比隨機對照提升達34.67% 。 另一資訊推薦業務其最近一周,相比DNN基準uv-ctr提升+0.77%,pv-ctr提升+4.78%。實驗效果相比有較大的提升。

備註1: group embedding是將相似emb特徵分組,各自lookup求和後再concat,使得特徵交叉在更高層進行。其設計是考慮到不同group的特徵差異很大(如user和item),不應直接對位求和。

備註2: inference打分僅做pointwise排序,採樣雖改變數據分布但不改變偏序關係,因此並未在訓練上做補償。


5. 未來工作

彈性特徵已經成為螞蟻實時強化深度學習的核心要素。它只是第一步,在解決特徵空間按需創建問題後,它會帶來一個充滿想像力的底層架構,眾多技術都能在此基礎上深挖: 在工程上,可繼續從分鐘級向秒級優化,進一步提升鏈路實時性並實現模型增量更新; 在算法上,我們正在探索如樣本重要性採樣,自動特徵學習,在線線性規劃與DNN的結合,實現優化器聯合決策等技術。

由於在線學習是個複雜的系統工程,我們在開發和調優時遇到了大量的困難,涉及樣本回流,訓練平臺,模型打分,線上評估等一系列問題,尤其是穩定性,但基本都一一克服。為了保證線上結果穩定可信,我們在觀察和優化兩三個月後才發布這篇文章,希望和業界同仁一起交流探討。

本文作者為螞蟻金服人工智慧部認知計算組的基礎算法團隊,團隊涉及圖像、NLP、推薦算法和知識圖譜等領域,擁有定損寶和理賠寶等核心業務。

參考文獻:

[1] McMahan, Brendan. "Follow-the-regularized-leader and mirror descent: Equivalence theorems and l1 regularization." Proceedings of the Fourteenth International Conference on Artificial Intelligence and Statistics. 2011.

[2] McMahan, H. Brendan, et al. "Ad click prediction: a view from the trenches." Proceedings of the 19th ACM SIGKDD international conference on Knowledge discovery and data mining. ACM, 2013.

[3]Yuan, Ming, and Yi Lin. "Model selection and estimation in regression with grouped variables." Journal of the Royal Statistical Society: Series B (Statistical Methodology) 68.1 (2006): 49-67.

[4] Andrew, Galen, and Jianfeng Gao. "Scalable training of L 1-regularized log-linear models." Proceedings of the 24th international conference on Machine learning. ACM, 2007.

[5]Scardapane, Simone, et al. "Group sparse regularization for deep neural networks." Neurocomputing 241 (2017): 81-89.

[6] Yang, Haiqin, et al. "Online learning for group lasso." Proceedings of the 27th International Conference on Machine Learning (ICML-10). 2010.

[7]Zhou, Yang, Rong Jin, and Steven Chu–Hong Hoi. "Exclusive lasso for multi-task feature selection." Proceedings of the Thirteenth International Conference on Artificial Intelligence and Statistics. 2010.

[8] Yoon, Jaehong, and Sung Ju Hwang. "Combined group and exclusive sparsity for deep neural networks." International Conference on Machine Learning. 2017.

[9] Langford, L. Li, and T. Zhang. Sparse online learning via truncated gradient.JMLR, 10, 2009.

[10]L. Xiao. Dual averaging method for regularized stochastic learning and online optimization. In NIPS, 2009.

你可能還喜歡

點擊下方圖片即可閱讀

首次公開!《阿里計算機視覺技術精選》揭秘前沿落地案例

周博通 | 阿里開源首個 DL 框架、4000臺伺服器真實數據集;明年1月開源Blink

萬字長文揭秘:阿里如何實現海量數據實時分析?

關注「阿里技術」

把握前沿技術脈搏

相關焦點

  • 從WWW2020看螞蟻金服:深入AI前沿技術與應用實踐
    創辦於1994年的WWW會議,是CCF-A類會議,每年有大批的學者、研究人員、技術專家、政策制定者等參與。據悉,受COVID-19疫情影響,WWW2020將在線上舉行。此次會議共收到了1129篇論文投稿,錄用217篇,錄取率僅為19.2%。其中螞蟻金服有多篇論文入選,圍繞智能服務、認知計算等課題,向行業分享自身沉澱的金融智能應用成果。
  • 螞蟻金服副CTO胡喜:螞蟻金服技術崗已佔員工總數的63%
    螞蟻金服80後副CTO胡喜被「挑戰」的第一個問題就是:作為一家估值達1500億美元的超級獨角獸,大家爭論得最熱烈的問題是,螞蟻金服到底是一家金融公司,還是一家科技公司?你怎麼看?這位阿里巴巴最年輕合伙人用一組數據表明了觀點:螞蟻技術崗同學佔員工比例的63%;從事核心技術自主研發的技術同學佔23%;螞蟻躋身阿里合伙人的6位高管中,3位是工程師出身;螞蟻目前最核心的支付寶事業群和國際事業群,總裁及營運長都是技術出身。「應該沒有哪家金融公司會長成這樣。」胡喜進一步闡釋,螞蟻在商業上一次又一次的變革,背後都是技術驅動使然。
  • 「去IOE化」十年後,螞蟻金服的金融技術發展如何?
    自建道路螞蟻金服的技術發展,源於支付寶的「業務倒逼」。與所有傳統銀行一樣,起初,支付寶基於IOE架構而運作。IOE包括IBM伺服器、甲骨文Oracle資料庫和EMC高端存儲組成的IT技術架構,長久以來,成為銀行業的標準配置和唯一選擇。
  • 螞蟻金服CTO程立:從Fintech到Techfin,未來十年有九大重要挑戰
    ,作者為螞蟻金服CTO程立。過去只有20%的企業能夠得到金融機構的服務,螞蟻金服的使命就是讓80%的金融需求得到滿足。在內部馬雲先生針對新金融提出要將「Fintech「發展為」Techfin「,表面看來這似乎是個文字遊戲,仔細思考其實是一種思想轉變。Fintech代表的是基於現有的金融業務模式通過技術來降低成本,提升用戶體驗,而Techfin指的是利用金融技術去創新金融服務。
  • 萬億獨角獸:螞蟻金服案例研究
    追溯其產品發展歷程,螞蟻金服起步於2004年阿里巴巴推出的支付寶。從產品模式來看,支付寶的擔保交易並沒有實現很大的創新,只是對交易流程進 行了調整。儘管如此,支付寶的出現仍成為了中國電子商務的轉折點,支付業務也成為支付寶乃至螞蟻金服的最基礎和最核心的業務。
  • 分布式事務:螞蟻金服核心金融場景下的演進
    尹博學,螞蟻金服資深技術專家,目前負責數據中間件技術方向。此前在百度負責資料庫內核及集群技術方向。在分布式事務、資料庫高性能/高可靠架構、資料庫內核等領域有較為深入的研究和豐富的工程實踐。  在螞蟻金服核心系統提出微服務化時,曾遇到了非常大的技術難題。首先是在服務拆分以後,面臨跨服務的一致性問題;其次,支付寶當時的峰值交易量已經非常高了,在解決一致性問題的同時,還需要兼顧性能。  然而,在當時最常見的還是基於XA協議的分布式事務解決方案,雖然該方案能夠實現跨服務一致性,但是在熱點數據的處理上,卻不能滿足性能需求。
  • 螞蟻金服合作的RISE實驗室到底有多牛?
    此前,螞蟻金服和清華大學、同濟大學等高校就基礎科研進行了合作,此次和美國加州伯克利大學的合作向國際高校基礎科研合作邁出了新的一步,螞蟻金服董事長彭蕾曾在內部講話中表明螞蟻金服對大數據技術的人才將「不拘一格,不遺餘力」。螞蟻金服方面對雷鋒網表示,和RISE實驗室合作,除了表面對基礎技術深度研究之外,更深層次是對人才長期的持續投資。
  • 螞蟻金服:雙十一背後,人工智慧怎樣「精打細算」|硬創公開課
    2015年加入螞蟻金服,主要負責智能服務、智能運營、運營基礎相關技術產品的規劃和落地。曾就職於ask.com公司任資深研發經理,長期從事搜索相關技術的研發管理,擁有豐富的關於數據、搜索、個性化、流量相關的產品與技術研發管理經驗。以下是本次公開課的分享內容,雷鋒網整理。
  • 跨境支付大戰在即:螞蟻金服出手後,Visa盯上了Earthport
    目前,從螞蟻金服和Visa對兩家英國跨境支付的收購皆處於談判階段,若這兩次收購都能以成功收尾,未來螞蟻金服與Visa在英國的跨境支付市場上必有一戰。文/王美文 億歐專欄作者繼螞蟻金服被曝出擬5.5億英鎊收購WorldFirst後,美國支付巨頭Visa也被曝出將收購英國跨境支付公司Earthport。
  • 論文解讀|微信看一看實時Look-alike推薦算法
    基於這篇文章(見參考文獻1)的描述,再結合自己的理解,我來帶大家一起解讀一下這篇基於look-alike模型的實時推薦算法的核心亮點。在本篇文章中,我會從RALM算法背景介紹、RALM模型架構和工程實踐、RALM算法原理介紹等三個部分來介紹RALM算法,希望我的解讀可以幫助大家更好地理解這篇論文,進而學習到一些做實時個性化推薦的思路和方法。
  • 阿里巴巴雲原生實時數倉核心技術揭秘
    值此之際,我們也將首次對外公開Hologres的核心底層技術,揭秘Hologres為何能支撐阿里巴巴核心場景的落地。 用戶畫像,常用在廣告推薦場景中,通過更詳細的算法給用戶貼上標籤,使得營銷活動更加有針對性,更加有效的投放給目標人群。 預警監控大屏,比如對網站、APP進行流量監控,在達到一定閾值的時候可以進行報警。
  • 銀行業金融科技專題報告:螞蟻金服,見證螞蟻成為大象之路
    鑄造「螞蟻金融生態系統」,為用戶提供一站式金融服務:集團產品不斷完善,輻射各方各面。集結技術、產品和場景等方式,打造螞蟻生態圈。加強外部戰略合作,構建新生態。提供一站式金融服務,盈利模式實現從1.0向3.0不斷升級。螞蟻金服旨在為用戶提供一站式的服務平臺。螞蟻金服1.0階段:專注支付、不斷創新、拾荒「無人區」:螞蟻金服的支付系統主要是以支付寶為主。
  • 「看一看」推薦模型揭秘!微信團隊提出實時Look-alike算法,解決推薦系統多樣性問題
    論文作者 |  Yudan Liu, Kaikai Ge, Xu Zhang, Leyu Lin,騰訊微信事業群 AI 前線導讀:Look-alike 是廣告領域經典的推薦算法,擁有定向能力強、用戶擴展精準等優點。本文在微信看一看的推薦場景下對傳統 look-alike 進行了改造,使之更適合高時效性的資訊推薦系統。
  • 李開復回應:口誤給螞蟻金服等公司帶來困擾,深感歉意
    IT之家9月12日消息 今日晚間,創新工場董事長兼執行長李開復對今日演講中的一些爭議言論(螞蟻提供人臉數據給曠視)發表了評論並對受影響三家企業(美圖、曠視科技、螞蟻金服)表示抱歉。
  • 螞蟻金服:支付寶核心帳務去Oracle實踐
    【IT168 評論】國內最受關注的資料庫技術盛會——2017第八屆中國資料庫技術大會(DTCC2017)將於2017年5月11-13日如約而至。本屆大會以「數據驅動?
  • 新華社聯手螞蟻區塊鏈「媒體大腦3.0」正式發布
    據了解,這是國內第一個面向融媒中心的智能化解決方案,「媒體大腦3.0」以區塊鏈技術和AI審核為顯著特徵,基於「媒體大腦」已有的30餘款媒體機器人,為內容工作者提供「策、採、編、發、審、存」全流程賦能,能為媒體機構、宣傳部門、企業單位各類融媒體中心提供服務。
  • 李開復微博回應:我的口誤給螞蟻金服等公司帶來困擾,深感歉意
    IT之家9月12日消息 今日晚間,創新工場董事長兼執行長李開復對今日演講中的一些爭議言論發表了評論並對受影響三家企業(美圖、曠視科技、螞蟻金服)表示抱歉。今日上午,李開復在 HICOOL 全球創業者峰會上表示,曾在早期幫助曠視科技公司找了包括美圖和螞蟻金服等合作夥伴,讓他們拿到了大量的人臉數據,並在隨後的摸索過程中找到了有價值的商業化方向。IT之家了解到,螞蟻集團隨後否認了與李開復有過合作且目前雙方已無相關業務合作。
  • 螞蟻金服發動金融業"土地革命"
    是為了推出螞蟻金服的維他命平臺,服務於更多的金融機構。螞蟻金服一直強調的是「賦能」,是指將螞蟻金服的數據、技術和渠道開放出來,將傳統的金融機構插上網際網路渠道和技術的翅膀,從而開發出新的產品。螞蟻金服跟阿里巴巴之間的協議關係,讓螞蟻金服可以掌握含金量很高的電商交易數據,這些數據是全網數據,真實反映了電商運營情況。從技術上來講,一般的基金公司即便擁有大數據資源,也沒有足夠的技術人員能夠分析駕馭大數據。讓本來不擅長於技術的金融公司去紮根技術,成本高周期長而且不現實。
  • 官方否認螞蟻金服計劃A+H同時上市
    有媒體報導,螞蟻金服計劃A+H兩地同時上市,其上市團隊已於近日開始在港接觸部分機構投資人。對此,螞蟻金服通過官方微博回應稱「每次都有熱心的朋友幫我們做計劃。但是,這個真沒有。」這並不是第一次螞蟻金服被曝將A股與H股同時上市。2019年12月,據自媒體「開柒」爆料稱,螞蟻金服也許要上市了,計劃是在內地A股和香港H股同時上市。當時,螞蟻金服向新浪科技表示,不評價市場傳言。2019年以來,螞蟻金服對股權和整體架構進行了調整。2019年12月,螞蟻金服宣布,全面提速全球化、內需、科技三大戰略。
  • 蘇寧易購拆分金融業務,蘇寧金服估值460億元
    據了解,今年11月2日,央行發布《中國金融穩定報告2018》,正式對外披露了模擬監管試點的5家金融控股公司名單,蘇寧集團在列,其他四家分別為招商局集團、螞蟻金服、上海國際集團、北京金控。而具體的金融控股公司監管辦法可能將在明年上半年推出。