陳天奇|機器學習科研的十年

2021-02-08 風控圈子

點擊 風控圏子 關注並星標


每天早上8點半


一起實現自我增值


這篇文章我私心看了很多遍,感激大神分享經歷,膜拜~

時間過得很快,一不留神2019年已經進入下半場,有時間的話給自己也寫一份總結,來回顧自己十年走過的路和收穫的成長吧。


我從大三開始進入交大APEX實驗室,有幸隨著戴文淵學長做機器學習,當時的我覺得「機器學習」這個名字十分高大上然後選擇了這個方向,但是做了一年之後依然摸不著頭腦,心中十分嚮往可以做科研,獨立寫論文的生活,卻總是不知道如何下手。文淵在我進實驗室的一年後去了百度。當時還沒有得到學長真傳的我,開始了我科研的第一階段,從大四到碩士的第二年,期間一直自己摸索,不斷地問自己 「科研是什麼」。

和課程作業不同,學術研究沒有具體的問題,具體的方法,具體的答案。文淵的離開讓我一下子不知道該怎麼做,當時的我的想法很簡單,快點尋找一個具體的方向,完成一篇論文。因為ACM班的機會暑假在MSRA的短暫實習,雖然學會了很多東西,但並沒有給我答案。MSRA回來之後,在實驗室薛老師的建議下,我選擇了一個現在看來正確而又錯誤的方向 -- 深度學習。那是AlexNet出現之前兩年,深度學習的主流熱點是非監督學習和限制玻爾茲曼機。沒有導師的指導,沒有工具,當時我靠著實驗室的兩塊顯卡和自己寫的CUDA代碼開始了死磕深度學習的兩年半。實驗室的學長問我,你準備要幹啥,我說:「我要用卷積RBM去提升ImageNet的分類效率。」 這一個回答開啟了圖書館和實驗室的無數個日日夜夜,為了給實驗室的老機器多帶一塊高功率的顯卡,我們打開了一臺機器的機箱,在外面多塞了一個外接電源。我的生活就持續在調參的循環中:可視化權重的圖片, 看上去那麼有點像人臉,但是精度卻總是提不上來,再來一遍。從一開始hack顯卡代碼的興奮,到一年之後的焦慮,再到時不時在樹下踱步想如何加旋轉不變的模型的嘗試,在這個方向上,我花費了本科四年級到碩士一年半的所有時間,直到最後還是一無所獲。現在看來,當時的我犯了一個非常明顯的錯誤 -- 常見的科學研究要麼是問題驅動,比如「如何解決ImageNet分類問題」;要麼是方法驅動,如 「RBM可以用來幹什麼」。當時的我同時鎖死了要解決的問題和用來解決問題的方案,成功的可能性自然不高。如果我在多看一看當時整個領域的各種思路,比如Lecun在很早的時候就已經做end to end,或許結局會不那麼一樣吧。

當然沒有如果,賭上了兩年半的時間的我留下的只是何時能夠發表論文的緊張心情。焦慮的我開始打算換一個方向,因為RBM當時有一個比較經典的文章應用在了推薦系統上,我開始接觸推薦系統和kddcup。比較幸運的是,這一次我並沒有把RBM作為唯一的一個方法,而是更加廣泛地去看了推薦系統中的矩陣分解類的算法,並且在實驗室搭建了一個比較泛用的矩陣分解系統。推薦系統方向的耕耘逐漸有了收穫,我們在兩年KDDCup11中獲得了不錯的成績。KDD12在北京,放棄了一個過年的時間,我完成了第一篇關於基於特徵的分布式矩陣分解論文,並且非常興奮地投到了KDD。四月底的時候,我們收到了KDD的提前拒搞通知 -- 論文連第一輪評審都沒有過。收到拒搞通知時候的我的心情無比沮喪,因為這是第一篇自己大部分獨立推動完成的文章。轉折在五月,KDDCup12 封榜,我們拿到了第一個track的冠軍,我依然還記得拿到KDDCup12冠軍的那一個瞬間,我在狀態裡面中二地打了excalibur,仿佛碩士期間的所有陰霾一掃而盡。那時候的我依然還不完全知道科研是什麼,但是隱隱之中覺得似乎可以繼續試試。

我對於科研看法的第一個轉折,在於我碩士臨近畢業的時候。李航老師來到我們實驗室給了關於機器學習和信息檢索的報告,並且和我們座談。在報告的過程中,我異常興奮,甚至時不時地想要跳起來,因為發現我似乎已經知道如何可以解決這麼多有趣問題的方法,但是之前卻從來沒有想過自己可以做這些問題。聯繫了李航老師之後,在同一年的夏天,我有幸到香港跟隨李航和楊強老師實習。實驗室的不少學長們曾經去香港和楊強老師工作,他們回來之後都仿佛開了光似地在科研上面突飛猛進。去香港之後,我開始明白其中的原因 -- 研究視野。經過幾年的磨練,那時候的我或許已經知道如何去解決一個已有的問題,但是卻缺乏其他一些必要的技能 -- 如何選擇一個新穎的研究問題,如何在結果不盡人意的時候轉變方向尋找新的突破點,如何知道整個領域的問題之間的關係等等。「你香港回來以後升級了嘛。」 -- 來自某大俠的評論。這也許是對於我三個月香港實習的最好概括的吧。香港實習結束的時候我收穫了第一篇正式的一作會議論文(在當年的ICML)。因為KDDCup的緣故,我認識了我現在博士導師Carlos的postdoc Danny,Danny把我推薦給了Carlos(UW)和Alex(CMU)。我在申請的時候幸運地拿到了UW和CMU的offer。在CMU visit的時候我見到了傳說中的大神學長李沐,他和我感嘆,現在正是大數據大火的時候,但是等到我們畢業的時候,不知道時代會是如何,不過又反過來說總可以去做更重要的東西。現在想起這段對話依然依然唏噓不已。我最後選擇了UW開始了我六年的博士生活。

感謝博士之前在APEX實驗室和香港的經歷,在博士開始的時候我似乎已經不再擔心自己可以做什麼了。

如果給我在UW的第一年一個主題的話,或許是「意外」。在交大時候因為興趣的關係一直去蹭系統生物研究員敖平老師的組會探討隨機過程和馬爾可夫鏈。到UW的第一個學期,我無意看到一篇探討如何用Lagevin過程做採樣的文章,我想這不就是之前組會上探討過的東西麼,原來這些方法也可以用到機器學習上。我直接借用了原來的交大學會的知識完成了第一篇高效採樣HMC的文章。我後來並沒有繼續在這個方向上面耕耘下去,不過另外一位同在組會的學弟繼續基於這個方向完成了他的博士論文。

同樣的在這一年,我和導師開始「質疑深度學習」 -- 如果別的的機器學習模型,有足夠大的模型容量和數據,是否可以獲得和深度學習一樣的效果呢?當時Carlos看好kernel methods,而我因為過去的一些經歷決定嘗試Tree Boosting。雖然最後在vision領域依然被卷積網絡打敗而嘗試挑戰失敗,但是為了挑戰這一假說而實現高效Tree boosting的系統經過小夥伴建議開源成為了後來的XGBoost。

在第一年暑假結束的時候,因為偶然的原因,我開始對quantile sketch算法感興趣。這裡主要的問題是如何設計一個近似的可以合併的數據結構用來查找quantile。這個方向有一個經典的方案GK-sketch的論文,但是只能夠解決數據點沒有權重的情況。經過一兩天的推導,我在一次去爬山的路上終於把結論推廣到了有權重的情況。有趣的是新的證明比起原來的證明看起來簡單很多。這個結論沒有單獨發表,但是後來意想不到地被用到了分布式XGBoost算法中,證明也收錄在了XGboost文章的附錄中。

研究並不是一朝一夕,做想做的事情把它做好,開始的時候興趣使然,而在幾年之後意想不到的地方獲得的收穫,這樣的感覺走非常不錯。

在新生聚會上,Carlos對我說,你已經有論文的發表經歷了,接下來要靜下心來做發大的,「只做best paper水平的研究」。和很多nice的導師不同,Carlos對於學生的要求非常嚴格,說話也是非常直白甚至於「尖刻「。很多的老師不論我們提出什麼樣的想法,總會先肯定一番,而Carlos則會非常直接地提出質疑。一開始的時候會非常不習慣,感覺到信心受到了打擊,但是慢慢習慣之後開始習慣這樣風格。到現在看來,誠實的反饋的確是我收益最大的東西。我進入博士的一年之後,主要在想的問題是做什麼樣的問題,可以值得自己深入付出,做紮實有影響力的工作。

在博士的第三年,Carlos在建議我把XGBoost寫成論文,用他的話說:「寫一篇讓讀者可以學到東西的文章」。和傳統的寫法不同,我們在文章的每一個章節插入了實驗結果驗證當章節提出的觀點。而他對於做圖的處理也成為了我現在的習慣,直接在圖裡面插入箭頭注釋,減少讀者的閱讀負擔。經過幾次打磨論文終於成為了我們想要的模樣。

博士前對於深度學習遺憾讓我又逐漸把目光轉回到深度學習。這個時候,我選擇了不再一個人作戰,在博士的第二年和第三年,我和興趣使然的小夥伴們合作,一起開始了MXNet的項目。項目從零開始,在短短的一年時間裡面做出完整的架構。我第一次看到集合了大家的力量齊心協力可以創造出什麼樣的東西。研究的樂趣不光是發表論文,更多還是可以給別人帶來什麼,或者更加大膽地說 -- 如何一起改變世界。

博士第二年暑假,我在小夥伴的介紹下進入Google Brain跟隨Ian Goodfellow實習。當時GAN的論文剛剛發表,我也有幸在成為Ian的第一個實習生。實習的開始,我們討論需要做的問題,Ian和我把可能要做的項目畫在一個風險和回報的曲線上,讓我選擇。到最後我選擇了自己提出的一個課題,在這個曲線裡面風險最高,回報也最高。我一直有一個理想,希望可以構建一個終身學習的機器學習系統,並且解決其中可能出現的問題。這個理想過於模糊,但是我們想辦法拿出其中的一個可能小的目標 -- 知識遷移。如果一個機器學習系統要終生學習,那麼在不斷收集數據之後必然需要擴充模型的規模來學習更廣或者更深,按照現在的做法我們在模型改變之後只能拋棄原來的模型重新訓練,這顯然是不夠高效的。是否有一個方法可以從已經訓練好的網絡上面進行知識遷移也就成為了一個重要的問題。我先花了一個半月的時間嘗試了比較顯然的Knowledge distillation的方法一直沒有得到正面的結果。在最後的一個月,我改變了思路。實習結束的前一個星期,我打開Tensorborard上最近一組實驗的結果:實驗表明新的思路正面的效果。這最後幾步的幸運也讓我的這一個冒險之旅有了一個相對圓滿的結果。這篇論文最後被發表在了ICLR上,也是我最喜歡的結果之一。

博士的第三年,我和小夥伴們開發了一種可以用低於線性複雜度就可以訓練更深模型的內存優化算法。當時我非常興奮地把這一結果寫下來然後把稿子後給導師看。他和我說:Hmm,這個結果如果投到NeurIPS的話或許可以中一篇poster,但是這並不是特別有意思。在我沉默之後他又補充了一句:論文並非越多越好,相反你可能要嘗試優化你的論文裡面最低質量的那一篇。最後我們只是把這篇論文掛在了Arxiv上。Carlos的說法或許比較極端(這篇論文依然影響了不少後面的工作),但也的確是對的,用李沐之前說過的一句話概括,保證每一篇論文的質量接近單調提升,已經是一件難以做到但是又值得最求的事情。

選擇做什麼眼光和做出好結果的能力一樣重要,眼界決定了工作影響力的上界,能力決定了到底是否到達那個上界。交大時敖平老師曾經和我說過,一個人做一件簡單的事情和困難的事情其實是要花費一樣多的時間。因為即使再簡單的問題也有很多瑣碎的地方。要想拿到一些東西,就必然意味著要放棄一些其他東西,既然如此,為什麼不一直選擇跳出舒適區,選一個最讓自己興奮的問題呢。

博士第三年,我和小夥伴們參加GTC,結束後老黃party的角落裡,我一個人在發呆。深度學習的框架發展已經鋪開,可接下來應該做什麼,我一下子感到迷茫。第三年的暑假我沒有去實習,而是決定一個人在學校嘗試開發腦海中顯現的抽象概念 -- 深度學習中間表示。暑假結束之後,我完成了第一個版本,可以比較靈活地支持深度學習系統裡面的計算圖內存優化。但是總是覺得還缺少著什麼 -- 系統的瓶頸依然在更接近底層的算子實現上。暑假之後在去加州的飛機上,我嘗試在紙上畫出為了優化矩陣乘法可能的循環變換,回來之後,我們決定推動一個更加大膽的項目 -- 嘗試用自動編譯生成的方式優化機器學習的底層代碼。

這個項目早在之前我也有一些想法,但是一直沒有敢去吃這個螃蟹。原因是它的兩個特點:從零開始,橫跨多領域。因為要做底層代碼生成和想要支持新的硬體,我們需要重新重新搞清楚很多在之前被現有的作業系統和驅動隱藏掉的問題,這就好象是在一個荒島上一無所有重新搭建起一個城堡一樣。而這裡面也涉及了系統,程序語言,體系結構和機器學習等領域。這讓我想起之前在ACM班時候重頭搭建編譯器和MIPS處理器並且連接起來的經歷。也是那段經歷讓我覺得為了解決問題去吃多個領域的螃蟹是個讓人興奮的事情。那段經歷給我留下的第二個印記是理解了合作和傳承的重要性。這門課程設計有一個傳統,每一門課程的老師都由上一屆學長擔任。每一屆的同學都會在之前的基礎上有所改進。我也曾經為這門課做過一些微小的貢獻。演化到現在,這門課程已經從只做簡單的答辯,到現在已經有在線評測的OJ。大家一起的合作塑造了這個課程。推動新的機器學習系統和塑造這門課程一行,需要各個團隊的同學合作,足夠時間的耐心關注和不斷地改進。

我的合作者們也被「捲入」到了這個項目中。我的體系結構合作者一直想要設計新的AI硬體,我在雛形完成之後花了大量的時間討論如何協同設計新的硬體的問題。我們開始討論怎麼管理片上內存,怎麼可以比較容易地生成指令集,甚至怎麼調度內存讀寫和計算並行的問題都暴露出來。有一天,我和合作者說我們需要引入虛擬線程的概念來隱藏內存讀寫開銷,然後他很快和我說,這是體系結構裡面經典的超線程技術,發明人正是我們的系主任Hank。我們也在不斷地重新發現經典的問題的解決方法在新場景的應用,讓我覺得上了一堂最好的體系結構課程。

兩年間的不少關鍵技術問題的突破都是在有趣的時候發生的。我在排隊參觀西雅圖藝術博物館的infinity mirror展覽的途中把加速器內存拷貝支持的第一個方案寫在了一張星巴克的餐巾紙上。到後來是程序語言方向的同學們也繼續參與進來。我們爭論最多的是如何如何平衡函數式語言和經典計算圖做讓大家都可以搞懂的中間表達,這一討論還在不斷繼續。經過大家的努力,TVM的第一篇論文在項目開始的兩年之後終於發表。兩年間參與項目的同學也從兩個人,到一個團隊,再到一個新的lab和一個社區,這兩年也是我博士期間最充實的兩年。

因為做了不少「跨界」的工作,我常被問起你到底屬於哪個領域。過去半年一直在各地給報告,報告這樣開頭:算法突破,數據的爆發,計算硬體的提升三者支撐了機器學習的變革,而整合這三者的,則是機器學習系統。這也是為什麼我要做機器學習系統的原因。曾經一個教授問我這樣的問題,如果明天有一樣新的化學反應過程可能帶來機器學習的變革,你會怎麼做。我答道:「我投入會去學習研究這個化學過程」。雖然我不知道遙遠的未來會需要什麼,到底是系統,算法,還是化學,從問題出發,用盡所有可能的方法去最好地解決機器學習問題,應該這就是我想要堅持的研究風格吧。

在寫這篇總結的時候,心中有不少感嘆。我常想,如果我在焦慮死磕深度學習的時候我多開竅一些會發生什麼,如果我並沒有在實習結束的時候完成當時的實驗,又會是什麼。但現在看來,很多困難和無助都是隨機的漲落的一部分,付出足夠多的時間和耐心,隨機過程總會收斂到和付出相對的穩態。

每個人的研究道路都各不相同,我的經歷應該也是千萬條道路中其中一條罷了。博士的經歷就好像是用五年多時間作為籌碼投資給自己,去突破自己做自己原來想不到的事情。中不管坎坷曲折都是無可替代的一部分。

科研從來不是一個人的事情,對於我來說特別是如此。我在交大的時候和一群年輕的同學一起摸索推薦系統的算法,而在博士期間搭建的每一個系統都包含了很多合作者一起的努力。也正是大家一起的努力才帶來了現在的成果。我個人在這十年間受到了不少老師,同學,家人的鼓勵和幫助,感謝他們他們給予了我這無比珍貴的十年時光。

  本文作者:陳天奇
  知乎連結:https://zhuanlan.zhihu.com/p/74249758

▼ 往期精彩回顧 ▼

獨行40國,風控女孩的環球之旅

乾貨|反欺詐特徵規則大放送

乾貨|分類評估指標:AUC值和KS值

乾貨|理解知識圖譜三層境界(一)

基礎|想玩轉Neo4j?先了解數據導入!

少年你渴望力量嗎?你要的資料庫資料給你

純代碼|特徵分箱及評估超詳細教程

一文讓你了解評分卡開發後是怎麼投入生產環境的

指標分析|風控人必知必會的指標




風控圈小助手

帶你去見新朋友


這裡有三大社群:互金反欺詐、風險研習社、風控圈。

QQ資料群:102755159

技術交流微信群,請掃描小助手二維碼邀請進入:


風控圈公眾號

長按掃描二維碼關注



你「在看」我嗎?

    點「在看」的你,真好看!


相關焦點

  • 賈揚清、李沐、陳天奇等大牛如是說
    選自知乎機器之心報導陳天奇、李沐、賈揚清、老師木等人如何看待國內開源現狀?這篇文章也許能為 AI 社區的開發者們提供洞見。近日,在阿里開源十年之際,阿里技術副總裁賈揚清發文小結了自己的開源觀念以及阿里十年開源歷程。在文章中,賈揚清表示,「當我們回想起為什麼做開源的時候,也許理由都沒有那麼的高大上:也許就是單純想分享一下代碼,也許就是覺得社區很有意思,甚至也許不知道什麼原因,代碼放出去了,有人用了,於是我們開始開心地找同路人。
  • 華為雲列Forrester機器學習報告領導者象限,ModelArts加速AI落地
    本質上,人工智慧依賴於機器學習模型。Forrester在報告中也給出了企業挑選PAML廠商時需要重點考慮的三點能力:簡化模型開發,滿足不同團隊要求;快速、大規模部署機器學習模型;使用分布式、混合架構加速訓練推理。本次報告對中國市場的9家預測分析和機器學習廠商從戰略、產品和市場表現三個維度進行了全面評估。
  • Forrester發布機器學習報告,「點讚」華為雲ModelArts平臺
    近日,國際權威研究機構Forrester發布最新《The Forrester Wave™: Predictive Analytics And Machine Learning In China, Q4 2020》報告,對中國市場的預測分析和機器學習廠商從戰略、產品和市場表現三個維度進行了全面評估。
  • 機器學習之父Michael I. Jordan 親臨2018全球機器學習技術大會
    Jordan(麥可.喬丹)要來了,不是籃球界的飛人喬丹,是機器學習界的開山鼻祖、人工智慧領域根目錄的人物之一;是機器學習領域唯一一位獲得美國科學院、美國工程院、美國藝術與科學院三院院士成就的科學家;是伯克利大學的著名機器學習實驗室AMP Lab的聯席主任。
  • 選擇Spark機器學習API的四大機器學習算法,你掌握了多少?
    Oliver翻譯 丨 雨言編輯註:本文簡要介紹了四種經典的機器學習算法。本文將簡要介紹Spark機器學習庫(Spark MLlib’s APIs)的各種機器學習算法,主要包括:統計算法、分類算法、聚類算法和協同過濾算法,以及各種算法的應用。你不是一個數據科學家。
  • 【榜樣青春】板凳甘坐十年冷, 科研只唯心中夢
    從2010年中開始第一篇學術論文撰寫,到今年9月收到國家自然科學基金優秀青年項目獲批郵件,38歲的朱峰教授笑著說自己在科研「搬磚工」這條不歸路上已經走了十年。他經常自問科研為何?是為了文章和獎勵,還是為了職稱和地位,亦或是為了臨床問題和科學真相科研,發心不同,路徑不同,結果亦不相同。
  • 機器學習概念太多記不住?別怕,這有一套手繪小卡片 | 資源
    顏萌 李林 編譯整理量子位 出品 | 公眾號 QbitAI有很多種方法可以了解機器學習。
  • 算法應用|機器學習python應用,簡單機器學習項目實踐
    上一篇文章中介紹了機器學習的簡單知識,還有python中進行機器學習實踐需要的生態環境,接下來將會通過鳶尾花分類這個例子對機器學習做一個簡要的介紹。通過一步一步地實現這個項目來介紹以下內容。導入和使用python中機器學習的各個方面的類庫。
  • 深入淺出機器學習的基本原理與基礎概念
    這一過程在人工智慧中的實現就是 機器學習。從形式化角度定義,如果算法利用某些經驗使自身在特定任務類上的性能得到改善,就可以說該算法實現了機器學習。而從方法論的角度看,機器學習是計算機基於數據構建概率統計模型並運用模型對數據進行預測與分析的學科。機器學習可說是從數據中來,到數據中去。
  • 不囉嗦,上代碼——機器學習經典實例
    畢竟是Python的機器學習,還能難到哪兒去呢?《Python機器學習經典實例》閱讀計劃——圖靈大數據與機器學習群(第1期)Python 語言將機器學習領域常用算法加以實踐,讓讀者能夠更好地掌握相關知識點。
  • 人工智慧十年回顧:CNN、AlphaGo……它們曾這樣改變世界
    十年前,人們在談論 AI 的理論化和實驗,但這些年來,AI 變得更加切實了,也變成了主流。無論是國際標準課程、平臺、庫、框架、硬體,一切都順理成章。就算說這十年裡取得的成績奠定了未來的基礎,也不為過。這篇文章將盤點 AI 十年來取得的重要突破。卷積2012 年是深度學習歷史上重要的一年。
  • Hashtag 標籤將死,兇手是機器學習
    但是,最近技術的發展,使得機器學習和圖像識別技術成為消費者和企業成為對話的一部分,而不依賴Hashtag#主題標籤。通過機器學習分支中「計算機視覺」,當今先進的視覺識別技術通過逐像素掃描來理解視覺內容(圖片和視頻),而不需要額外的Metadata(元數據),Hashtag #主題標籤或給(圖片、照片等)加Alt說明文字。
  • 人工智慧十年回顧:CNN、AlphaGo、GAN……它們曾這樣改變世界
    選自analyticsindiamag作者:RAM SAGAR機器之心編譯編輯:蛋醬、魔王盤點 AI 十年來取得的重要突破。十年前,人們在談論 AI 的理論化和實驗,但這些年來,AI 變得更加切實了,也變成了主流。無論是國際標準課程、平臺、庫、框架、硬體,一切都順理成章。就算說這十年裡取得的成績奠定了未來的基礎,也不為過。這篇文章將盤點 AI 十年來取得的重要突破。卷積2012 年是深度學習歷史上重要的一年。
  • 免費的谷歌機器學習速成課,了解一下?
    現在,局長要對程序猿小哥哥們說,免費的機器學習了解一下!雖說這個課程是為沒有任何機器學習經驗的菜鳥設計的,但谷歌建議菜鳥們還是應該掌握入門級代數,熟練編程基礎知識並且具有一些使用 Python 進行編碼的經驗。(是不是要撿起丟了好久的數學了
  • Python 機器學習庫 Top 10,你值得擁有!
    有許多原因致使 Python 在眾多開發者中如此受追捧,其中之一便是其擁有大量的與機器學習相關的開源框架以及工具庫。根據 builtwith.com 的數據顯示,45% 的科技公司都傾向於使用 Python 作為人工智慧與機器學習領域的程式語言。
  • 科研進階 | 威廉士學院 | 化學、免疫學、法醫學:生物化學科研綜合課題(8.1開課)
    ,例如:機器學習在金融領域中的應用,人類社會發展中的經典學說等,區別於一般的理論灌輸式教育,導師將採用多學科交叉的實踐教育方式,引導學生進行學習。項目開始前將對學生的基礎知識掌握能力進行測試,並教導學生學術科研過程中所需要掌握的通識內容;項目開課前期,三位教學導師將根據學生情況,採取不同分工、全方位進行教學指導,對基礎將為薄弱的同學,將額外關注基礎內容的補習,對基礎將強的同學,將擔任leader的角色,帶領小組成員完成項目報告;項目後期,導師將帶領學生進行學術知識的複習與回顧,並分別對學生的報告內容進行指導,項目全程,對於非學術性問題(上課時間
  • 從re:Invent的最新發布,讀懂AWS的機器學習業務布局
    文:科技商業 於洪濤伴隨著人工智慧應用走向行業細分場景,機器學習越來越受到關注。從IT廠商層面來看,大家都在積極推出機器學習的相關產品和服務,並推動合作夥伴進入該業務領域;從行業用戶層面來看,越來越多的企業都在考慮如何利用機器學習來改善業務流程,提升運營效率,其中很多已經付諸實踐。
  • 可用於水下形成清晰圖像的機器學習算法,高度還原拍照顏色與亮度
    打開APP 可用於水下形成清晰圖像的機器學習算法,高度還原拍照顏色與亮度 大萌、夏雅薇 發表於 2020-01-17 13:50:22
  • 劉鐵巖談機器學習:隨波逐流的太多,我們需要反思
    這些成果推動了機器學習領域的飛速發展,但這並不意味著機器學習領域已經非常成熟,事實上仍然存在非常大的技術挑戰。比如現在主流機器學習算法需要依賴大量的訓練數據和計算資源,才能訓練出性能比較好的機器學習模型。同時,雖然深度學習大行其道,但我們對深度學習的理解,尤其是理論方面的理解還非常有限。深度學習為什麼會有效,深度學習優化的損失函數曲面是什麼樣子?