來源:新智元
本文約3100字,建議閱讀6分鐘
看看AI如何改變、影響過去這一年的。2021,Keep Learning!
[ 導讀 ]吳恩達端著咖啡杯,為您"回顧"了人工智慧的2020,AI大戰疫情、無處不在的GAN、語言模型不斷壯大……我們整理了The Batch上,我們在2020年看到的一些AI主題和故事,看看AI如何改變、影響過去這一年的?即使2020有太多遺憾,2021,Keep Learning!
Andrew says,"無論以什麼樣的眼光去回顧2020,它都可以載入史冊。一種新的、傳染性極強的病毒暫停了生活的車輪,社會的裂痕威脅著我們共同的利益。
機器學習工程師們,作為線上生活的藝術家,他們設計了新冠病毒的診斷和治療工具,建立了識別仇恨言論和虛假信息的模型……
但他們展示了程式設計師們更輕鬆詼諧的一面:可以把睡衣換成西裝的在家辦公工具、妙趣多多的語言模型,以及人工智慧輔助藝術和表演的有趣實驗。
請與我們一起回顧過去一年的艱辛與輝煌。"
讓疫情散退吧!
突然起來的疫情,打得人們措手不及!
但不得不承認,有了人工智慧的存在,我們加快了尋找冠狀病毒疫苗的腳步,並在某些方面對疫情進行了降維打擊。
世界各地的機器學習研究人員爭相利用這項技術對抗冠狀病毒。在許多失敗的案例中,他們在檢測、接種和其他領域取得了重要的成功。
全球傳染病監測的數字健康公司分析了重大事件的新聞報導,在全球健康監測員提早幾天發現了大流行,並向其客戶發出了預警。
在巴黎和坎城的公交車站,公共汽車和市場中使用計算機視覺評估了掩蓋法規的遵守情況。政府培訓了一個模型,以識別衛星圖像中的赤貧地區,指導將救濟金分配給最需要的人。
中國許多機構之間的合作開發了一種可在CT掃描中檢測Covid-19的模型,其準確度超過90%。該模型已在七個國家/地區部署,到目前為止,該代碼已下載了300萬次。
美國生物技術公司,使用機器學習來優化mRNA序列以轉化為可以測試的分子。
但是,人工智慧不是靈丹妙藥,但這種新型、毒性強、傳染性強的冠狀病毒株的出現,是對人工智慧抗擊傳染病能力的一次令人振奮的測試。
GAN,讓"像素世界"沒有盡頭
當有生產力的對抗性網絡滲透到文化、社會和科學領域時,它們悄悄地將網際網路轉變成了一個無底洞,裡面全是你能想到的合成圖像……
它出現在主流娛樂、商業、政治活動中,甚至是一部紀錄片中,用來保護屏幕上的證人。
受2019年的《這個人不存在》(This Person Does Not Exist)這款產生逼真箇人肖像的網絡應用的啟發,有幽默感的工程師實現了生成對抗網絡(GANs),模擬現實世界的細節。這裡列舉了一些受歡迎的:
根據谷歌Earth的圖像,這個不存在的城市產生了大大小小的定居點的鳥瞰圖。
這匹不存在的馬力,產生各種各樣的姿勢,品種,和情況。當然,它偶爾會吐出一團可怕的亂麻,但這就是樂趣的一半。
像許多"GANs披薩"一樣,雖然這個披薩的奶酪缺乏粘稠的光澤,它的醬汁很少有活力,它的麵包皮看起來不夠烤熟。但是,正如諺語所說,即使是糟糕的披薩也仍然是披薩。
普林斯頓大學的本科學生Alice Xue在她的畢業論文中,開發了一款名為SAPGAN(Sketch-And-Paint GAN)的AI模型,該模型可以生成傳統的中國山水畫,為此她也獲得了普林斯頓2020優秀畢業論文獎。
但一些觀察人士擔心,人工智慧製造的假貨可能會破壞信任。但這項技術仍至關重要。
說到這裡,GAN 之父——Ian Goodfellow,在本科和博士早期階段曾經多次向吳恩達尋求建議。
別讓膚色和種族失了語:為少數派發聲
研究人員發現,由於數據集編譯、標記和使用的方式,流行的數據集會向訓練過的模型傳遞對社會邊緣群體的偏見。
圖像收集是焦點——包括計算機視覺基礎數據集ImageNet。
ImageNet創始人李飛飛和他的同事們梳理了古老的數據集,刪除了從WordNet(一個可以追溯到20世紀80年代的詞彙資料庫)繼承來的種族主義、性別歧視和其他有辱人格的標籤。
一項研究發現,即使是在未經標記的ImageNet數據上訓練的模型,也能從數據集有限的人類多樣性中產生偏差。
麻省理工學院計算機科學與人工智慧實驗室在外部研究人員發現該數據集充斥著貶損的標籤後,撤回了該微型圖像數據集。
說到這裡,不得不回顧一下2020年AI圈兒裡那場著名的"罵戰":PULSE算法。
該算法由杜克大學推出,可以將模糊的照片秒變清晰,效果出奇的好。這項研究在CVPR 2020上發表。
效果大概是這樣的:
這本來是一項挺不錯的技術,但是一次試驗卻引發了爭議。
用於訓練StyleGAN的數據集FlickrFaces-HQ (FFHQ)顯然也缺乏足夠的多樣性。當基於StyleGAN的模型PULSE提高低解析度照片的解析度時,這個問題就出現了。PULSE將歐巴馬的像素化圖像調高為白人肖像。
種族歧視的強烈反對者卻認定Yann LeCun有"嚴重的種族歧視"。
Yann LeCun立馬對於PULSE算法的不完備性進行了解釋:
簡而言之,這種偏差是由於數據集導致的。PULSE所用的數據集大多都是白人,因此還原這張照片的時候出現了膚色誤差。
斯坦福AI Lab成員、Google AI科學家Timnit Gebru都明確表示:對LeCun表示"失望"。
Timnit Gebru指責Yann LeCun把問題歸結於數據集而迴避了"種族歧視"的問題。
在罵戰持續了兩周之後,Yann LeCun以"退出推特"的行為親手為這場科研界的政治風波畫上了句點。
這是一個無法迴避的問題,但為了消除種族偏見,我們的"戰鬥"才剛剛開始。
NO FAKE!抵禦虛假信息的算法
疫情、大選,都激起了一場自動虛假信息風暴,一些大型人工智慧公司陷入了這一旋風。
2020年6月,《華爾街日報》 報導說,一些Facebook高管使用了壓制性工具來監管極端內容。該公司後來推翻了選舉期間進行的算法更改,從而增加了知名的新來源。人們對Facebook的努力感到三心二意的看法促使一些員工辭職。
YouTube針對虛假信息進行的算法調整已成功減少了宣傳虛假信息的內容創作者的訪問量。但是,它們也增加了對經常傳播相同可疑信息的大型實體的訪問量。
用戶AI照亮醫療
2020年受到疫情的影響,人工智慧在醫學領域的障礙開始減少,為深度學習在醫療設備和治療中的廣泛臨床應用創造了條件。
DeepMind 的 AlphaFold 模型在數小時內就確定了一個蛋白質的三維形狀,因為有望高效開發出新的藥物而成為了焦點。
與此同時,醫療機構也採取了新的做法,將這些AI技術帶入主流的醫療實踐中嘗試。機構的這種變化促進了醫學人工智慧的發展,並且預示著它將要被越來越多的人所接受。
例如,美國最大的醫療保險公司Medicaid and Medicare就會對使用某種機器學習設備的醫生進行一定的補償:Viz.ai的VizLVO就可以在病人中風的時候,及時的提醒醫生。同時,FDA還批准了幾種新的基於人工智慧的治療方法和設備,
不過,目前很多應用都需要醫院重新組織工作流程,這在一定程度上減慢了普及速度。一旦他們通過了 FDA 和醫療保險,臨床醫生就有了更大的動力去做出必要的改變來充分利用AI。
NLP大進化,作家解脫了嗎?
隨著用於NLP的神經網絡變得越來越大,越來越多產,結果也越來越有趣。
語言模型(LM)現在已經發展到了巨大的規模,並且還在繼續變大。
OpenAI 的1750億參數的文本生成器 GPT-3比它的前身 GPT-2寫得更加連貫,以至於有騙子用它來創建博客或者和歷史人物對話。
語言模型也促進了一些商業工具的發展,例如幫助蘋果公司的autocorrect來區別不同語言之間的差異, 使得亞馬遜的 Alexa可以注意到談話的變化。
在語言模型中,越大越好這句話並沒有錯,但並不僅限於此。
iGPT預示著模型可以同時訓練圖像和文字。至少 OpenAI 正在研究的這些模型,可能比2020年的巨型語言模型更聰明、更奇特。
以上,就是吳恩達發布在the Batch上的2020總結文,最後:附上吳恩達開篇的一段話,這位人工智慧專家對我們進行了鼓勵。
在過去的十年裡,每年的12月22日,我都會飛到新加坡或香港,和母親一起慶祝她的生日。2020年,我們第一次通過 Zoom 實現了這一點。儘管距離遙遠,但我感到溫暖,因為我的家人可以從美國、新加坡、香港和紐西蘭聚集在一起,唱一首同步性很差的"祝你生日快樂"。
我希望我也可以與你們每一個人在一個極速電話祝願你們節日快樂和一個更快樂的新年!
在假期裡,我經常想想我生命中重要的人的名單,回憶他們為我或其他人做了什麼,並默默地感謝他們。這讓我感覺與他們更加緊密相連。也許你會發現,在我們許多人都會有的社會距離假期裡,思考這個問題也是很有價值的: 誰是你生命中最重要的人,你有什麼理由去感激他們?
無論是面對面的還是在線的,我希望你能找到方法在這個假期裡培養你最重要的人際關係。
Keep learning!
Andrew Ng
參考連結:
https://blog.deeplearning.ai/blog/the-batch-biggest-ai-stories-of-2020-covid-triage-fun-with-gans-disinfo-whack-a-mole-gpt-superstar-imagenet-recall-fda-approvals
編輯:於騰凱
校對:汪雨晴