雷鋒網 AI 科技評論按:機器學習頂會 ICML 2019 近期公布了接收論文清單,多家企業研究院也按慣例介紹了自己的錄用論文。不過新鮮的是,今年卡耐基梅隆大學(CMU)也專門發博客列出了來自 CMU 師生的錄用論文,一共有 33 篇之多。其實 UC 伯克利、斯坦福、CMU 等計算機領域實力很強的高校每年都有許多頂會論文,多樣性和深度也都很好,但是宣傳力度往往比不上企業級 AI 研究機構。所以 CMU 這篇博客也提醒了各位不要忘了頂級高校的學術實力,到時參會的研究人員也可以到他們的海報前一期討論這些前沿研究進展。
雷鋒網 AI 科技評論把論文列表簡單介紹如下。
Statistical Foundations of Virtual Democracy「虛擬民主」算法的統計學基礎http://procaccia.info/papers/virtual.pdfTarMAC: Targeted Multi-Agent CommunicationTarMAC:有目標的多智能體通訊https://arxiv.org/abs/1810.11187A Kernel Theory of Modern Data Augmentation現代數據擴增的一種核理論https://arxiv.org/abs/1803.06084Myopic Posterior Sampling for Adaptive Goal Oriented Design of Experiments用於適應性目標向的實驗設計的短視後驗抽樣Nearest neighbor and kernel survival analysis: Nonasymptotic error bounds and strong consistency rates最近鄰以及核生存方法的分析:非漸近性的錯誤邊界以及強相關性率Policy Certificates: Towards Accountable Reinforcement Learning策略證書:向著可靠的強化學習https://arxiv.org/abs/1811.03056Deep Counterfactual Regret Minimization深度反事實後悔最小化方法https://arxiv.org/abs/1811.00164Domain Adaptation with Asymmetrically-Relaxed Distribution Alignment通過非對稱釋放的分布對齊進行的領域適應https://arxiv.org/abs/1903.01689(有趣的是,這篇論文第一作者的名字是 Yifan Wu)Provably efficient RL with Rich Observations via Latent State Decoding通過潛狀態編碼實現豐富觀察,得到可證明的高效強化學習https://arxiv.org/abs/1901.09018A Baseline for Any Order Gradient Estimation in Stochastic Computation Graphs可以用於任意階的隨機計算圖的梯度估計的基線方法Gradient Descent Finds Global Minima of Deep Neural Networks梯度下降可以找到深度神經網絡的局部極小值https://arxiv.org/abs/1811.03804Stable-Predictive Optimistic Counterfactual Regret Minimization穩定預測的樂觀反事實後悔最小化方法https://arxiv.org/abs/1902.04982Regret Circuits: Composability of Regret Minimizers後悔循環:不同後悔最小化方法的可組合性https://arxiv.org/abs/1811.02540Provable Guarantees for Gradient-Based MetaLearning基於梯度的元學習方法的可證明的保證https://arxiv.org/abs/1902.10644Dimensionality Reduction for Tukey Regression土耳其回歸方法的降維Certified Adversarial Robustness via Randomized Smoothing通過隨機平滑達到可證明的對抗性魯棒性https://arxiv.org/abs/1902.02918Provably Efficient Imitation Learning from Observation Alone證明僅僅從觀察就可以實現高效的模仿學習SATNet: Bridging deep learning and logical reasoning using a differentiable satisfiability solverSATNet:通過可微分可滿足性解算器連接深度學習和邏輯推理Collective Model Fusion for Multiple Black-Box Experts多個黑盒專家的群體模型融合方法http://kingsfordlab.cbd.cmu.edu/publication/hoang-2019-fusion/Fine-Grained Analysis of Optimization and Generalization for Overparameterized Two-Layer Neural Networks過參數化的雙層神經網絡的優化及泛化性的細粒度分析https://arxiv.org/abs/1901.08584Width Provably Matters in Optimization for Deep Linear Neural Networks在深度線性神經網絡中證明寬度也有作用https://arxiv.org/abs/1901.08572Causal Discovery and Forecasting in Nonstationary Environments with State-Space Models在非固定環境下用狀態空間模型進行因素發現和預測Uniform Convergence Rate of the Kernel Density Estimator Adaptive to Intrinsic Volume Dimension讓核密度估計器的統一化收斂速度適應本徵體積維度https://arxiv.org/abs/1810.05935Faster Algorithms for Boolean Matrix Factorization更快的布爾矩陣分解算法Contextual Memory Trees背景記憶樹https://arxiv.org/abs/1807.06473Fault Tolerance in Iterative-Convergent Machine Learning迭代收斂機器學習方法的錯誤容忍度的研究https://arxiv.org/abs/1810.07354Wasserstein Adversarial Examples via Projected Sinkhorn Iterations通過投影 Sinkhorn 迭代生成 Wasserstein 對抗樣本https://arxiv.org/abs/1902.07906Learning to Explore via Disagreement通過不一致學習探索What is the Effect of Importance Weighting in Deep Learning?深度學習中重要性權重的效果是什麼?https://arxiv.org/abs/1812.03372Adversarial camera stickers: A physical camera-based attack on deep learning systems對抗性相機貼紙:針對深度學習系統的基於物理攝像機的攻擊https://arxiv.org/abs/1904.00759On Learning Invariant Representation for Domain Adaptation關於為領域適應學習不變的表徵https://arxiv.org/abs/1901.09453Finding Options that Minimize Planning Time尋找能夠減少規劃時間的方法https://arxiv.org/abs/1810.07311Tight Kernel Query Complexity of Kernel Ridge核嶺回歸的核查詢複雜度分析ICML 2019 將於今年 6 月 10 日至 15 日在美國加州長灘舉行。雷鋒網 AI 科技評論到時也會進行多方位的報導,敬請繼續關注。