不到現場,照樣看最乾貨的學術報告!嗨,大家好。這裡是學術報告專欄,讀芯術小編不定期挑選並親自跑會,為大家奉獻科技領域最優秀的學術報告,為同學們記錄報告乾貨,並想方設法搞到一手的PPT和現場視頻——足夠乾貨,足夠新鮮!話不多說,快快看過來,希望這些優秀的青年學者、專家傑青的學術報告 ,能讓您在業餘時間的知識閱讀更有價值。
人工智慧論壇如今浩如煙海,有硬貨、有乾貨的講座卻百裡挑一。「AI未來說·青年學術論壇」系列講座由中國科學院大學主辦,百度全力支持,讀芯術作為合作自媒體。承辦單位為中國科學院大學學生會,協辦單位為中國科學院計算所研究生會、網絡中心研究生會、人工智慧學院學生會、化學工程學院學生會、公共政策與管理學院學生會、微電子學院學生會。「AI未來說·青年學術論壇」第五期「量子計算」專場已於2019年5月18日下午在中科院舉行。清華大學翟薈教授為大家帶來報告《Discovering Quantum Mechanics with Machine Learning》。
翟薈,清華大學高等研究院教授。主要從事冷原子物理等量子物質的理論研究以及機器學習方法在物理學中的運用等。翟薈教授於 2002 年本科畢業於清華大學物理系首屆基礎科學班,2005 年初在清華大學高等研究中心獲物理學博士學位。2005-2009 年先後在美國俄亥俄州立大學和加州大學伯克利分校做博士後。2009 年起任清華大學高等研究院研究員,2012 年獲得長聘,2013 年獲得國家自然科學傑出青年基金支持,2015 年任高等研究院教授,2016 年受聘教育部長江特聘教授。
報告內容:神經網絡在學習來自物理系統的實驗數據時,能否提煉出其背後的物理規律其?本次報告將展示了一個具有自省能力的機器學習架構(Introspective Learning Architecture)。為驗證這一架構的有效性,我們將展示這一架構可以從模擬實驗數據中發現薛丁格方程。這種具有自省能力的機器學習架構的特點是將用於執行任務的部分和提取本質信息分開。這種雙層機器學習架構賦於機器提取簡潔規律的能力,可以更廣泛地用於未來物理學問題的研究。
Discovering Quantum Mechanics with Machine Learning
翟薈教授首先介紹了理論物理學家的思維方式和機器學習的思維方式之間很大的相似之處。他以經典力學即牛頓力學開篇,用克卜勒從第谷·布拉赫記錄下的大量數據中發現行星三大定律的例子,說明了經典力學起源於機器學習式的思考。發現量子力學的一個重要實驗觀察是一百年前的光譜學數據,而量子力學的發現者們正是從這些光譜學大數據中提煉出了量子力學中最重要的量子化規律,這也是機器學習式的思考。
物理學本質上是實驗科學,而理論物理學家就是從這些實驗數據中提煉出規律,比如經典力學中克卜勒從第谷的實驗中提煉規律,量子力學從光譜數據中提煉規律。此外新的規律不能與其它已知的規律相矛盾,因此需要與其他實驗進行一致性檢驗。然後需要進行理論預言,並進一步接受實驗的驗證。
類似地,對於機器學習而言,也是基於大數據,用一個神經網絡去擬合數據背後的規律。神經網絡中也需要有驗證集,避免數據學到的東西與其他東西相矛盾。然後用發現的規律進行預測,這種預測也是可以被檢驗的。基於上述相似性,翟薈教授認為現代機器學習發展出來的算法及最新進展可以和量子力學的科學探索密切結合。
翟薈教授然後談論了神經網絡和理論物理學家的工作方式兩者之間雖然有很多共通性,但是仍存在一個很重要的不同之處:即機器學習學到的東西往往是經驗擬合,而現代科學對物理規律則是通過簡潔的數學來表達的。這就涉及到機器學習的可解釋性問題,即背後支持神經網絡作出判斷的規律到底是什麼。這也是人工智慧研究自身需要面對的非常重要的問題。
眾所周知,量子力學當中最重要、最核心的物理規律就是薛丁格方程,它支配了量子事件中所有運動的規律。每給定一個勢能,就會得到一個粒子的密度分布。因此,翟薈教授團隊提出這樣一個問題:假如使用原子顯微鏡等實驗手段產生不同的勢能,然後測量其中粒子的密度分布,假設人們積累了足夠多的這樣的數據之後,但不知道其背後是什麼物理規律,能不能利用機器學習的算法把量子力學的薛定爾方程發現出來?
於是,翟薈教授團隊提出了這個具有自省能力的機器學習架構(Introspective Machine Learning Architecture)。簡單地說,該架構分為兩層:第一層是幹活的,第二層是思考的。採用兩層結構是為了解決神經網絡的可表達性與可解釋性之間存在的矛盾:一方面,為了利用神經網絡強大可表達性對大量的數據進行擬合,因為通常網絡越深,可表達性越強,因此希望有一個較深的網絡來做這件事;另一方面,為了對網絡學到的東西進行解釋,網絡越深就意味著越複雜,可解釋性越差。
因此,在這個工作中提出的兩層結構,第一層採用了遞歸神經網絡,將實驗數據作為輸入和輸出來進行訓練,第二層採用了遞歸自編碼器,將訓練後第一層網絡的神經元中產生的大量參數作為輸入,將網絡壓縮到最簡潔的表達方式。最後他們發現這樣得到的最本質的遞歸關係可以表達為兩個變量的方程組的形式,而這個方程組正是我們已知的薛丁格方程的離散表達形式。
接著翟薈教授指出該雙層網絡結構是普適性的。用它發現薛丁格方程的例子只是一個例子,它的要點是解決了擬合和反思的矛盾:擬合的時候希望網絡越深越好,反思的時候需要提取網絡最本質的自由度。把擬合和思考兩個網絡結構分開,既能幹活又能思考,裝備這種結構的神經網絡更有效地為現代科學研究服務。
對這一工作具體細節感興趣的讀者可以查閱翟薈教授和他的學生王策博士,加州大學聖地牙哥分校助理教授尤亦莊教授一起合作的文。
留言 點讚 關注
我們一起分享AI學習與發展的乾貨
歡迎關注全平臺AI垂類自媒體 「讀芯術」