曠視首席科學家孫劍:深度學習變革視覺計算丨CCF-GAIR 2019

2020-12-17 雷鋒網

7月12日-7月14日,2019第四屆全球人工智慧與機器人峰會(CCF-GAIR 2019)於深圳正式召開。

峰會由中國計算機學會(CCF)主辦,雷鋒網、香港中文大學(深圳)承辦,深圳市人工智慧與機器人研究院協辦,得到了深圳市政府的大力指導,是國內人工智慧和機器人學術界、工業界及投資界三大領域的頂級交流博覽盛會,旨在打造國內人工智慧領域極具實力的跨界交流合作平臺。

7月14日,「智慧城市·視覺智能」專場正式拉開帷幕,本專場全面圍繞「未來城市級視覺AI的發展方向」這一主題展開。

會上,曠視首席科學家、研究院院長、西安交通大學人工智慧學院院長孫劍帶來了題為《深度學習變革視覺計算》的精彩分享。

孫劍從視覺智能、計算機攝影學以及AI計算3個方面介紹了計算機視覺研究領域的變革。

他首先回顧了深度學習發展歷史,深度學習發展到今天並不容易,過程中遇到了兩個主要障礙:

第一,深度神經網絡能否很好地被訓練。在深度學習獲得成功之前曾被很多人懷疑,相比傳統的機器學習理論,深度學習神經網絡的參數要比數據大10倍甚至上百倍;


第二,當時的訓練過程非常不穩定,論文即使給出了神經網絡訓練方法,其他研究者也很難把結果復現出來。

這些障礙直到2012年才開始慢慢被解除。

孫劍認為,深度學習和傳統機器學習最大的差別是,隨著數據量越來越大,使用更大的神經網絡就有可能超越人類性能。

而具體到計算平臺上,目前包括雲、端、芯上的很多硬體上都可以部署智能,技術發展趨勢是如何自適應地根據計算平臺做自動模型設計。在這方面,曠視提出了Single Path One-Shot NAS的模型搜索新方法,它分為兩步:

第一步是訓練一個SuperNet,是一個超網絡,包含我們想搜索的子網絡,先訓SuperNet所有的權重;


第二步是搜索Sub-Nets子網絡,好處是第二步不需要訓練,非常高效。整個模型搜索時間只是正常訓練時間的1.5-2倍,但可以得到非常好的效果。目前在多個測試集上得到了領先的結果。

此外,為了構建核心技術,曠視還打造了自研的人工智慧框架Brain++,包括具備多中心、強大算力的Brain++ Infrastructure,公司全員使用的深度學習引擎Brain++ Engine,以及整合最新模型搜索的AutoML技術;同時,曠視還有人工智慧數據標註和管理平臺Data++,藉助算法輔助數據清洗和標註。


曠視首席科學家、研究院院長、西安交通大學人工智慧學院院長孫劍

以下是孫劍博士大會現場演講內容,雷鋒網作了不改變原意的整理及編輯:

孫劍:謝謝大家,今天非常高興來到本次盛會,會議的火爆程度比去年高很多。這次Talk的主題是回顧深度學習對計算機視覺研究帶來的變化。 


我們知道,計算機視覺在人工智慧裡佔有非常重要的地位。人工智慧可分為感知、認知兩大部分,語音、自然語言、視覺是人工智慧的三大支柱。我用不同的顏色表示不同方向的技術突破和落地程度。

曠視成立之初一直致力於計算機視覺研究,其發展如此興盛的原因與我們周圍存在的海量攝像頭有關。

我們知道,攝像頭作為一種重要載體,有非常多的應用場景,這也是今天計算機視覺領域有非常多公司的原因之一。

今天的分享主要分為三個方面,這也是深度學習引入計算機視覺後,對我們的研究帶來的三大變革:


視覺智能

Marvin Minsky是人工智慧領域的奠基者。他在研究人工智慧之初,曾研究一個計算機視覺問題:將一個攝像頭對著一堆積木用機械臂去抓取,以及讓機器堆放的和人擺放的一樣。

他招了幾個實習生希望能在幾個月就完成這個項目,但是幾年後都沒有太大進展。這說明計算機視覺是個非常難的課題。 

計算機視覺研究雖然場景很多,至今可以歸類為幾個問題:分類、檢測、分割以及將前三者用於視頻序列的識別工作。

計算機視覺尤其是語義理解核心是如何在計算機中表示一張照片,以至於可以操作它、理解它,用它做各種各樣的應用。最早期的研究包括David Marr提出的 2.5D Sketch, 和Part-base的表示。

90年代的神經網絡主要用來做做字符識別、人臉檢測。2000年左右,類似Boosting的機器學習方法第一次引入學習特徵。

2000年後最好的方法是Feature-base,從一張圖中抽取很多局部的特徵,編碼成一個非常長的向量。2010年深度學習後,神經網絡給我們帶來了更強大的視覺表示方法。 


深度神經網絡有兩個特徵:

首先,它是對一張圖片做映射,映射到一個高維空間的向量上;它由非常長的非線性變換組成,進來的信號進行多次非線性變換,直到人們得到想要的圖像表示。


第二,這個非線性變換中的所有參數都是根據監督信號全自動學習的,不需要人工設計。


這是一個可視化工作,展示了神經網絡在前面一些層學到了類似邊緣、角點或紋理等初級模式,在後面一些層學到越來越多的語義模式例如物體或物體部分。整體學到了分層結構的表示。 

深度學習走到今天經歷了很多的坎坷,直到2010年才重新佔據了統治性地位,發展過程中主要遇到了兩個障礙:

這兩個障礙直到2012年開始慢慢地被解除。

從2012年AlexNet,一個8 Layers的神經網絡,後來有VGG, 一個19 Layers的神經網絡,到了2015年,我們提出了152 Layers的神經網絡。隨著網絡層數的增加與數據的增多,我們第一次在ImageNet數據集上讓機器超越了人類。

從ImageNet數據集建立,到打破人類的性能大概用了5-6年時間。我想當初李飛飛教授團隊完全沒有想像到可以這麼快,機器的能力超過人的能力。


我們當時做152 Layers網絡經常被問一個問題:為什麼這個網絡是152 Layers?我們的預設的回答是當時內存就可以裝這麼多層。

去年一個朋友給了一個更好的答案:8乘以19等於152。AlexNet是8層,VGG網絡是19層,所以ResNet是152層。 


ResNet的核心思想是加入跳層連接,不要學習直接的映射而是學習殘差映射,這樣非常有利於訓練或優化。

ResNet出來後,同行給了各種各樣的解釋。這是我比較相信的解釋:而非ResNet很容易表示0映射,即輸入信號和輸出很接近0;而ResNet很容易表示Identity映射,即輸入信號和輸出很接近,直觀的理解是當一個網絡非常深時,相鄰的變化越來越小。這種參數化的形式更利於學習,以至於我們神經網絡的優化更容易。

這裡列出深度學習之前遇到的很多困難:

  • 數據、計算力不夠;

  • 如何初始化網絡的方式;

  • 如何使用非線性單元等。

ResNet補充了一點:網絡結構應當對優化更友好。綜合這些在深度學習方面的各種進展,今天每個人都可以很好地重現結果,做出高度可重複的實驗。 


深度學習的映射能力非常強大,ResNet去年被用到AlphaGo Zero 中,他們用一個40或者80 Layers的ResNet,來預測棋子應該放置的位置。下棋這麼複雜的映射都可以被一個簡單的ResNet很好地學到,說明了其映射能力之強。 

在實際過程中,在有監督學習問題上,深度學習和傳統機器學習最大的差別在於:隨著數據量越來越大,如果用更大的網絡,很有可能超越人類的性能。 

曠視第一個雲服務的產品——Faceplusplus.com,提供了各種計算機視覺API,服務了全世界的開發者。

我們另一個產品是FaceID.com,它是目前最大的第三方身份認證平臺,由於它遠超人類的能力,目前服務於包括網際網路金融、銀行客服、交通出行等領域。

上述討論的產品主要應用在雲上,不用太考慮計算速度和神經網絡的大小。雲端模型的目標是突破認知邊界,看我們能做得多好。

但是在線下場景,很多應用需要在移動端或手機上運行。在移動端這個計算平臺上,有兩個代表性的神經網絡設計可以參考:

  • 一個是Google的MobileNet系列;

  • 一個是曠視ShuffleNet系列。

ShuffleNet有V1和V2版本,核心是提出了一套設計原理:比如讓卷積更平衡;儘量不要產生分支;降低整體結構的碎片化,避免逐元素操作。

我們的ShuffleNet V2設計性能非常出色。這是Google AI團隊給出評測報告,他們評測ShuffleNet  V2在實際運行速度上經常比MobileNet  V2快30-50%。

由此曠視助力國內全部一線手機廠商,做出了第一款2D人臉解鎖手機、第一款3D結構光人臉識別解鎖手機、第一款紅外人臉解鎖手機等。 

隨著端上對功耗要求更低、面積體積更小,所以需要進一步研究如何把神經網絡在晶片上高效運行。

因此出現了以低比特表示為代表的一系列工作,包括DorefaNet(曠視首先提出),在低比特運算方面,這是第一個提出將權重、激活向量、和梯度都進行低比特化的工作。

在晶片上,比計算最大的問題是內存訪問帶寬受限,需要內存訪問量很大程度壓下去,才可能高效運行。

這是我們在2017年推出的第一款基於FPGA的智能相機,我們把DorefaNet放在智能相機裡。

2018年,我們把DorefaNet放在了一顆我們與合作夥伴聯合研發的ASIC晶片上,提供了比FPGA高非常多的性能。 

它不但可以用在手機上,還能用在實時的自動化場景中,用來搬運貨架或物品,它有兩個攝像頭,朝下和朝前看,分別做車的導航和避障,類似室內無人車。

攝像頭是機械臂的眼睛,它在搬運物體需要實時識別箱子在哪裡,在哪裡抓取箱子。在自動化流程過程中需要高效、高速地在端上做智能計算。

用了這些晶片的計算方法,可以應用到非常多的智能硬體上。這張圖是都是曠視自研的硬體。 

在神經網絡設計的最新研究方面,目前很熱的趨勢叫AutoML或者NAS。這是一個很好的網站(automl.org),大家可以在這裡看最新的文章。

NAS的問題核心是解一個嵌套的權重訓練問題和網絡結構搜索問題。

這個問題非常難,需要非常大的計算量。最早Google用增強學習或演化計算方法降低計算量,但計算量依然非常大。

最新流行的方式是用權重分享的方式,比如用Darts或ProxyLess等工作。我們曠視今年年初推出了Single Path One-Shot的新方法,分為兩步:

第一步是訓練一個SuperNet,這是一個超大的網絡,任何子網絡是我們想搜索的網絡。我們先訓SuperNet所有的權重;


第二步是做對SuperNet採樣其中的子網絡,好處是這一步不需要訓練,非常高效,訓練時間是正常訓練時間的1.5-2倍,可以得到非常好的效果。目前在多個測試集上得到了最好效果。

我們的方法不但可以做圖像分類,也可以做物體檢測。

我們的方法還可以用來做模型簡化(Pruning),同樣可以用SuperNet的方法,先訓一個PruningNet,它相當於一個SuperNet,由PruningNet生成很多子網絡,得到很多很好的Pruning的效果。 

以上是今天的第一部分,說的是視覺智能,我們從Feature的功能化定義,到走向模型的設計,再走到現在的模型搜索。

計算攝影學

第二部分,我想分享以前做了很多年的研究方向——計算攝影學。除了計算智能,計算機視覺中還有一個問題是給輸入一個圖像,輸出是另一個圖像。從輸入質量比較差的圖像(比如模糊、有噪聲、光照不好)恢復更好的圖像,這就是計算攝影學,也是目前研究很活躍的方向。  

計算攝影學以前是怎麼做的?這篇(上圖)是我們2009年的Dehaze去霧,引入黑通道先驗並結合霧的物理產生過程來恢復沒有霧的圖像,效果非常好,並獲得了CVPR 2009最佳論文。

這是我們以前和同事一起做的(上圖),如何從一張模糊圖像和噪聲圖像恢復成清晰的圖像,這裡用了很多傳統的反卷積方法。 

這是另一問題,被稱為圖像摳圖:左邊是輸入,右邊是輸出,目的是把前景精細分離出來。

這是我和今天第一位講者賈佳亞教授當年聯合做的一篇文章(上圖)。

這是我和賈佳亞合作的第二篇文章(左上圖)。一張圖上缺失一部分或者想移除一個人,我們通過交互的方法,上面畫一些線;後來我們又利用Patch自然統計的方法,能夠做的更好。


總結一下傳統的計算攝影學方法:「八仙過海」,每個問題需要尋找不同的假設,每個問題都要單獨的去建模和求解。

不同的研究員有不同的方法,好處是你有能力的話可以做出非常有意思的方法,壞處是每一個方法都要獨立設計。 


今天的深度學習的方法是拋棄了以前的做法,不需要做任何顯式的假設,通過全卷積的Encoder-Decoder輸出想要的圖像。 

舉個例子,關於Image Matting問題,今天的方法是:通過一個多任務的網絡,可以直接輸出Matting的結果,非常細的毛髮都能提取出來。我們的工作在圖像Matting最大的兩個benchmark上都排名第一。 

Matting不光可以做圖像合成,它還可以用單攝像頭就拍出像單反一樣的效果。 

還有一個變革是這對相機裡面的圖像信號處理器ISP(Image Signal Processor), 上面是傳統的圖像ISP和圖像信號處理流程,後面是AI-ISP,用一個神經網絡來做。

左邊是之前,右邊是之後,AI-ISP可以得到非常好的降噪效果和高質量的圖像。

這個方法獲得了今年CVPR圖像降噪的冠軍,同時我們將這個方法應用在OPPO今年最新的旗艦手機OPPO Reno 10倍變焦版的夜攝超畫質拍攝技術上。

AI計算

最後我想分享我們在計算上的變革。

左邊傳統的馮諾伊曼計算架構,服務了我們很多年。但隨著數據的日益增大,出現了「馮諾伊曼瓶頸」,指內存和計算單元之間搬運數據的瓶頸。

右邊是今天神經網絡做訓練、推理的方法,它突破了這個瓶頸。因為神經網絡計算非常簡單,基本上只包含向量和矩陣之間的操作,可以避免很多判斷和分支,用大規模並行的計算方式消除瓶頸。

雖然摩爾定律慢慢消失了,AI計算能力反而在超指數增長,從2016年10 TFLOPS的算力,現在到幾百的TFLOPS。

前期帶來的變化是從以前的大規模計算CPU Cloud(大盒子)遷移到了 GPU Box(小盒子)。但是大概2015年後,大家發現這些小盒子也不行,因為我們現在用更大的模型,我們今天在ImageNet上的模型比我們2015年用的大10倍都不止。另外,很多人一起工作時的每人一個小盒子的效率是非常低效的。

在模型大小方面,物體識別目前最權威的比賽是COCO,2017年我們得到了3項冠軍,隨著我們更大的模型,效果越來越好。2018年我們有更大的模型,拿下了4項COCO冠軍。

這麼大的模型,在一個小盒子裡是不行的。2018年我們提出一個方法MegDet,結論是你可以用多個計算單元,可以把訓練速度非常高效的提高,幾乎是線性速度的加速,性能更好,這是模型的變化,是第一個方面。

數據的話也會越來越大,這是曠視和北京智源人工智慧研究院共同推出的Objects365,第一階段開源超過1000萬的標註框,這是目前世界上最大的檢測數據集,不光是數據大,可以真正學到更好的Feature,這是第二方面。 

第三方面,如果你的數據非常大無法放在小盒子裡,必須放在中心。帶來的問題是,如果我們同時訓練,傳輸是很大的問題,

於是,在2015年之後,我們又從小盒子又回到大盒子,但這個大盒子是是GPU或者TPU Cloud。 

為了做這件事,曠視自研了我們的AI平臺Brain++,底層是物理算力,上面有Engine、Computing,Data,和AutoML。 

這個Brain++ Engine是我們自研的深度學習引擎,之前大家用最多的是Caffe、TessorFlow、Pytorch,曠視從2014年研發Brain++ Engine,到現在曠視全員使用已經的版本已經是7.0版本。

據我所知,曠視是所有創業公司中唯一一家自研深度學習引擎並且全員使用的公司。引擎之下是計算環境,包括硬體管理,包括計算存儲管理、模型訓練支持等。

最後是自動模型搜索,也是在我們引擎中。它需要用大算力才可以把最好的模型搜索出來。

以上是我今天的分享,謝謝大家!雷鋒網(公眾號:雷鋒網)

雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。

相關焦點

  • 計算機視覺領域的王者與榮耀丨CCF-GAIR 2018
    當計算機視覺研究與落地大潮湧動之際,第三屆CCF-GAIR全球人工智慧與機器人峰會「計算機視覺專場」,眾多科技巨頭首席技術官、獨角獸首席科學家、國際學術頂會主席、世界名校AI實驗室主任將會公開分享最前沿的計算機視覺技術研究與商用成果。
  • 曠視科技首席科學家孫劍:如何打造雲、端、芯上的視覺計算(含30張...
    孫劍博士在CCF-GAIR現場演講曠視科技首席科學家、研究院院長孫劍博士為大家帶來題為 「雲、端、芯上的視覺計算」的精彩演講。孫劍認為,計算機視覺簡單講就是使機器能看,曠視科技希望能夠做到「賦能億萬攝像頭」,讓應用在所有領域的攝像頭都具備智能,不管是在雲、端還是在芯上。計算機視覺的發展史就是研究如何表示圖像的歷史。深度學習流行之前,最好的辦法是基於特徵的,從圖像裡抽取特徵,再進行分析;但是這個方法有兩個大缺點:首先,該方法完成的非線性變換次數非常有限;其二,大多數參數都是人工設計的,包括 Feature。
  • 「停課不停學」 曠視《深度學習實踐》線上課程免費開放!
    人工智慧企業曠視也在積極響應國家政策,向全社會免費開放《深度學習實踐》全套課程!《深度學習實踐》課程是由曠視研究院聯合北京大學數學科學學院機器學習實驗室共同開設的系列深度學習精品課程之一,已連續開設3年。課程由曠視首席科學家兼研究院院長孫劍,以及身經百戰的研發總監、資深研究員親身授課,內容涵蓋深度學習基礎理論到計算機視覺實踐,真正將高水平深度學習課程帶給大家。
  • ResNet成阿爾法元核心技術 曠視孫劍詳解Zero的偉大與局限
    就此背景,新智元採訪了深度殘差網絡ResNet作者之一,曠視科技Face++首席科學家孫劍博士。孫劍認為,AlphaGo Zero技術提升足夠偉大,但在真實技術落地過程中還有著眾多局限,並指出未來的主流深度學習技術還將會圍繞大數據訓練模式的方式展開。在採訪中,孫劍還談了計算機視覺遠遠沒有被解決,「全世界的研究人員一起來做都不夠」。
  • 微軟亞洲研究院主任研究員鄭宇博士:如何用深度學習處理時空大數據...
    分享內容為:探討時空數據(區別於文本、語音和視頻數據)的特性,以及深度學習技術在時空大數據上的使用和設計方法,分享基於深度學習的城市人流量預測的實戰案例,並介紹深度學習和深度強化學習在圍棋中的應用(圍棋也可看作一種時空數據)。
  • 曠視王珏:前Adobe首席科學家,手握64項專利,曾助力拿下奧斯卡科學...
    新智元原創   編輯:金磊、張佳   【新智元導讀】他,是前Adobe歷史上升職最快的首席科學家;他,同時在三大頂會發表過65篇學術論文、手裡帶過  提到曠視,除了孫劍,你還應該知道王珏。   或許,這個名字你不是很熟悉,沒關係,這很正常,畢竟大牛都是非常低調的。   然而,正是這樣低調的人物,曾同時在計算機視覺、計算機圖形學、人機互動三大領域最高級別會議和期刊發表65篇學術論文。
  • 諾貝爾獎得主、英國皇家院士、IEEE Fellow……CCF-GAIR 2019 震撼...
    除了 James Heckman,目前已確定出席 CCF-GAIR 2019 的嘉賓尚有:Citadel 首席人工智慧官,前微軟人工智慧首席科學家,IEEE Fellow、ASA(美國聲學學會)Fellow
  • CVPR 2019|曠視斬獲6冠,彰顯深度學習算法引擎優勢
    當地時間6月16日,全球計算機視覺頂會 CVPR 2019在美國長灘拉開帷幕,超過9200位相關人士共赴盛會,推進計算機視覺技術的交流與落地。曠視通過 Oral、Poster、Workshop、Demo、Booth等形式,同世界分享在計算機視覺理論與應用領域的最新進展。
  • 停課不停學|曠視×北大《深度學習實踐》課程全面開放!
    曠視研究院聯合北京大學數學科學學院機器學習實驗室開設的《深度學習實踐》全套課程(視頻+PPT,共計28課時)今日正式全面上線,讓你足不出戶也能享有高水平的教學資源。「與其疫情宅家玩遊戲,不如家裡蹲大學把課上。」
  • 孫劍出任院長!西交大成立人工智慧學院,本科必修課表曝光
    來源:西安交通大學編輯:聞菲、張乾【新智元導讀】西安交大今天宣布成立人工智慧學院,由曠視科技首席科學家
  • 曠視天元深度學習框架全球首發!3個實習生寫下一行代碼,27項全球AI...
    兼容並包 曠視天元具備Pythonic的API,這對習慣用Python進行傳統機器學習的開發者來說非常友好,學習成本更低、易於上手,同時天元還支持PyTorch Module功能,可以直接導入模型,遷移成本低且極大方便模型復現;天元內置高性能計算機視覺算子和算法,可為計算機視覺相關模型訓練和應用實現深度優化。
  • 從學術研究到應用落地,這 6 位計算機視覺大咖在 CV 專場上都講了...
    在他的串聯下,港科大教授權龍、曠視科技首席科學家孫劍、雲從科技聯合創始人姚志強、臻識科技 CEO 任鵬、雲天勵飛首席科學家王孝宇以及商湯聯合創始人林達華這些學術界、工業界的眾多大牛進行了 6 場深度分享,既有計算機視覺技術的前沿研究動態,也有相關技術落地的方向。
  • 從學術研究到應用落地,這6位計算機視覺大咖在CV專場上都講了什麼?
    在他的串聯下,港科大教授權龍、曠視科技首席科學家孫劍、雲從科技聯合創始人姚志強、臻識科技CEO任鵬、雲天勵飛首席科學家王孝宇以及商湯聯合創始人林達華這些學術界、工業界的眾多大牛進行了6場深度分享,既有計算機視覺技術的前沿研究動態,也有相關技術落地的方向。
  • 智源研究院重磅發布智源學者計劃,攜手曠視成立聯合實驗室
    智源研究院院長黃鐵軍表示,2019 年計劃遴選智源學者 100 人,其中重大方向 5-7 個,青年科學家 30-50 人,2020 和 2021 年再分別增加百人,智源學者總體規模保持在 300 名左右。
  • 深度學習實踐課|曠視研究院 X 北大聯合出品,正式上線,免費報名!
    疫情期間,我們每日聽到的最多的信息之一可能就是號召大家在線堅持學習。不過,在左有「名師授課」、右有「速成深度學習」,多重信息的圍攻之下,大部分人最終還是選擇了那條無數「英雄」選擇的道路——「收藏+下次一定」,重回電子虛擬世界,麻痺自己,蹉跎人生。   怎麼辦?曠視研究院為你支招!
  • 「2019全球人工智慧與機器人峰會」26位嘉賓首公布,直覺會火 | CCF...
    (特價1999元五折門票限量搶購中,購票參會連結:https://gair.leiphone.com/gair/gair2019。)首批確認出席嘉賓名單公布如下:鄧力是國際著名的語音識別專家,2009 年,他首次將深度神經網絡技術應用於語音識別領域,取得了突破性的進展,並因此獲得了 2015 年 IEEE SPS 技術成就獎。在語音、NLP、大數據分析、企業智能、網際網路搜索、機器智能、深度學習等多個領域,鄧力曾獲 70 多項美國或國際專利,並著有多本深度學習、語音處理、判別機器學習和自然語言處理的技術書籍。
  • CVPR 2018 | 8篇論文、10+Demo、雙料挑戰賽冠軍,曠視科技掀起CVPR...
    近年來,隨著深度學習的蓬勃發展,國內企業深度參與人工智慧學術頂會的態勢十分火熱,在一個享有國際聲譽的、被全球學者所認可的學術會議上發出自己獨特的聲音,不僅是目前工業界涉足人工智慧學術研究的一種展現形式,更是國內外企業在吸引、招募研發人才的「兵家必爭之地」。
  • 曠視招股書披露:2019 年上半年營收 9.49 億,阿里系持股近 30%
    基於其在深度學習領域的研究能力,曠視主要深耕於計算機視覺領域,自研了深度學習框架 Brain++,是全球為數不多的擁有自主研發的深度學習框架的公司之一。根據灼識諮詢報告,按 2018 年收入計算,曠視是中國最大的聚焦人工智慧的城市物聯網解決方案提供商。曠視於 2018 年為中國 106 個城市的政府機構及企業客戶提供城市物聯網解決方案,而截止 2016 年底為 30 個城市,複合年增長率為 88.0%。另外,截止 2019 年 6 月 30 日,曠視還向中國境外 15 個國家和地區的客戶提供城市物聯網解決方案。
  • 曠視科技研究院包攬 COCO、Places 三項世界冠軍
    作者:${中新記者姓名}責任編輯:段紅彪   中新網10月30日電  當地時間10月29日上午,在義大利威尼斯召開的計算機視覺國際頂級會議
  • 曠視科技聯合創始人兼CTO唐文斌個人簡歷
    曠視不是技術公司,是產品公司 新智元:目前在人工智慧領域尤其是深度學習技術落地,你認為真正的壁壘在哪裡? 唐文斌:我認為深度學習技術的落地,核心的一個關鍵詞是「結合」。 曠視在選擇人才的時候也是按照這個標準。如果有這樣的人,我們特別特別希望你能夠加入我們,我們團隊裡有很多這樣的人,你跟他們在一起一定會非常愉快。其次,我們也很看重學習能力,現在領域發展很快,你需要非常快速地跟上節奏去嘗試你的新想法,所以學習能力和動手速度非常重要。我們也有實習生項目,總之歡迎你來,孫劍老師帶你飛對吧(笑)。