自從2017年具有劃時代意義的Transformer模型問世以來,短短兩年多的時間內,如雨後春筍般的出現了大量的預訓練模型,比如:Bert,Albert,ELECTRA,RoBERta,T5,GPT3等等。然而之前的基準評測體系存在兩個缺陷:評測強度不夠,模型不通用。評測強度不夠指的是選手只提交結果,不提交inference的代碼。模型不通用指的是預訓練模型不能保證在相同超參數情況下在所有任務上都獲得比較好的性能。以上兩點極大限制了預訓練技術的應用和發展。如果我們能通過算法實現泛化能力強的中文預訓練模型,這將提高下遊業務的準確性,從而提升企業的核心競爭力,並為企業創造更多的價值。
為此阿里雲計算平臺PAI團隊聯合CLUE中文語言理解評測組織和上海樂言信息科技有限公司,共同推出中文預訓練模型泛化能力挑戰賽,邀請業內算法高手、愛好者一起促進自然語言處理預訓練技術的發展。
1本賽題精選了以下3個具有代表性的任務,要求選手提交的模型能夠同時預測每個任務對應的標籤:任務1:OCNLI–中文原版自然語言推理
任務2:OCEMOTION–中文情感分類
任務3:TNEWS–今日頭條新聞標題分類
競賽組隊交流群
魚佬,武漢大學碩士,2020騰訊廣告算法大賽冠軍
阿水,北航計算機碩士,CV領域Top選手
傑少:南京大學碩士,DCIC冠軍選手
報名地址(如果群滿後臺回復 天池 進新群):
https://tianchi.aliyun.com/s/47420d202909774a1960635ac9d29aea
點擊【閱讀原文】直接報名↓