Sparse Deep Neural Networks Through L_{1,\infty}-Weight...

2020-12-13 吉大新聞網

報告人:中國科學技術大學楊周旺教授

報告時間:10月20日 上午9:30-10:30

報告地點:數學樓一樓第一報告廳

報告題目:Sparse Deep Neural Networks Through L_{1,\infty}-Weight Normalization

報告摘要:

We study L_{1,\infty}-weight normalization for deep neural networks to achieve the sparse architecture. Empirical evidence suggests that inducing sparsity can relieve overfitting, and weight normalization can accelerate the algorithm convergence. In this paper, we theoretically establish the generalization error bounds for both regression and classification under the L_{1,\infty}-weight normalization. It is shown that the upper bounds are independent of the network width and sqrt(k)-dependence on the network depth k, which are the best available bounds for networks with bias neurons. These results provide theoretical justifications on the usage of such weight normalization. We also develop an easily implemented gradient projection descent algorithm to practically obtain a sparse neural network. We perform various experiments to validate our theory and demonstrate the effectiveness of the resulting approach.

報告人簡介:

楊周旺,中國科學技術大學數學科學學院教授,博士生導師,現任大數據學院副院長。本科、碩士、博士(分別是1997年、2000年、2005年)畢業於中國科學技術大學數學系。曾在韓國首爾國立大學從事博士後研究,在美國喬治亞理工學院工業與系統工程系進行學術訪問研究。長期從事應用數學領域的研究,綜合運用計算幾何、統計學、最優化等理論為解決相關問題建立新的數學模型,發展新方法。主要研究方向包括:數據驅動的最優化建模、稀疏優化、機器學習理論、宏觀經濟大數據建模分析、視頻智能解析算法等。曾主持和參加國家自然科學基金項目8項,授權和申請發明專利20多項,在國際學術期刊發表論文60多篇。2012年入選教育部新世紀優秀人才支持計劃。2014年獲得教育部自然科學獎二等獎(第三完成人)。2016年榮獲中國運籌學會科學技術獎運籌應用獎(每四年頒發一屆)。2017年榮獲中國數學會計算數學分會第二屆「青年創新獎」。楊周旺教授所在的數據科學團隊與企業機構開展了多項大數據聯合研究項目,已有部分成果產業化並進入實際工業應用。

相關焦點

  • 論文解讀 Channel pruning for Accelerating Very Deep Neural Networks
    參考文獻[1]  J. M. Alvarez and M. Salzmann. Learning the number of neurons in deep networks. In Advances in Neural Informa- tion Processing Systems, pages 2262–2270, 2016.[3] S.
  • Deep Learning & Neural Network 免費學習資源【譯】
    1.2.Neural Network Course on Coursera連結地址<https://www.coursera.org/learn/neural-networks>    該課程在神經網絡領域得到很高的讚譽,雖然課程開始於2013年,但運用神經網絡於聲音、圖像識別,模擬自然語言等,仍然是一個基礎教程。
  • Learning Deep Neural Networks for Hard Natural Language...
    The talk will cover some recent advances in deep learning for NLP, including embeddings, encoder-decoder architecture, attentions and language modelling.
  • 愛可可AI前沿推介(1.8)
    Along with the great success of deep neural networks, there is also growing concern about their black-box nature.
  • Recurrent Neural Networks及NLP ——集智NLP讀書會筆記
    當然,這裡所說的RNN是recurrent neural networks,而不是recursive,當然,這兩類RNN在訓練算法上有相通的地方。I. RNN的發展歷程1982年,J.Hopfield提出了Hopfield networks,這個網絡的結構如圖1所示。從這個結構中,我們可以看出,Hopfield 網絡其實是一個單層的循環網絡。
  • Deep learning與Neural Network
    Deep learning本身算是machine learning的一個分支,簡單可以理解為neural network的發展。大約二三十年前,neural network曾經是ML領域特別火熱的一個方向,但是後來確慢慢淡出了,原因包括以下幾個方面:1)比較容易過擬合,參數比較難tune,而且需要不少trick;2)訓練速度比較慢,在層次比較少(小於等於3)的情況下效果並不比其它方法更優; 所以中間有大約20多年的時間,神經網絡被關注很少,這段時間基本上是SVM和boosting算法的天下
  • 乾貨 你真的了解 Convolutional Neural Networks 麼
    在過去的工作中,大家普遍認為,pooling 層有三種可能的功效:(1)提取更 invariant 的 feature;(2)抽取更廣範圍的(global)的 feature——即 spatially dimension reduction;(3)更方便優化。這篇作者認為,其中(2)是對 CNN 最重要的。
  • NeuralProphet:基於神經網絡的時間序列建模庫
    git clone https://github.com/ourownstory/neural_prophet cd neural_prophet pip install .