最強戰隊 | 三維視覺、SLAM方向全球頂尖實驗室匯總

2021-03-02 極市平臺

作者:任旭倩

本文授權轉載自公眾號:計算機視覺life

經常收到大家的提問,關於讀碩博選擇、研究方向選擇、出國留學等各種問題。在此,我們為大家匯總了全球頂級的三維視覺、SLAM方向的研究機構,並對他們主要的研究成果做了簡單匯總,從這些匯總中你可以:



歡迎轉發給更多的朋友~


歐洲英國倫敦大學帝國理工學院 Dyson 機器人實驗室

http://www.imperial.ac.uk/dyson-robotics-lab

簡介:

倫敦帝國理工學院戴森機器人實驗室成立於2014年,由Andrew Davison.教授領導。是戴森公司和帝國理工學院領導機器人視覺小組Andrew Davison教授的合作實驗室,Andrew Davison是視覺SLAM領域的先驅,戴森提供大量的資金和支持,以建立一個機器人專家團隊,他們合作產品包括Dyson 360 eye™vaccum清潔機器人。該實驗室的重點是開發計算機視覺程序,使機器人能夠超越受控環境,成功地導航並與現實世界互動。

實驗室主要成就

(http://www.imperial.ac.uk/dyson-robotics-lab/projects/):

ElasticFusion:

一個實時的稠密的視覺SLAM系統,可以利用RGB-D相機來對房間進行全局一致的三維稠密重建。

代碼地址:

https://bitbucket.org/dysonroboticslab/elasticfusionpublic/src/master/

CodeSLAM:

一種生成室內場景軌跡的大規模照片級真實渲染的系統。

SceneNet RGB-D:

一種生成室內場景軌跡的大規模照片級真實渲染的系統。

代碼地址:

https://bitbucket.org/dysonroboticslab/scenenetrgb-d/src/master/

數據集地址:

https://robotvault.bitbucket.io/scenenet-rgbd.html

SemanticFusion:

一種實時可視SLAM系統,能夠使用卷積神經網絡在語義上注釋密集的3D場景。

代碼地址:

https://bitbucket.org/dysonroboticslab/semanticfusion/src/master/

英國牛津大學Active Vision Laboratory

http://www.robots.ox.ac.uk/ActiveVision/index.html

簡介:Active Vision實驗室主攻計算視覺,特別是傳統和深度圖像的3D場景重建。實驗室致力於定位和建圖,可穿戴和輔助計算,語義視覺,增強現實,人體運動分析和導航的應用程式。

實驗室主要成果

(http://www.robots.ox.ac.uk/ActiveVision/Research/index.html)

使用3D物體形狀Priors進行密集重建

PTAM:

(並行跟蹤和建圖)用於增強現實的相機跟蹤系統

源碼地址:

https://github.com/Oxford-PTAM/PTAM-GPL

英國牛津大學 Torr Vision Group

http://www.robots.ox.ac.uk/~tvg/

簡介:牛津大學工程科學系Torr Vision Group(前身為布魯克斯視覺集團,牛津布魯克斯大學)成立於2005年,後來於2013年移居牛津大學,由Philip Torr教授領導。它包括大約20-25人。該小組的目的是參與最先進的計算機視覺和人工智慧數學理論研究,但要保持數學研究與社會需求相關。該小組的一個特別重點是用移動相機進行實時重建環境,例如無人機,智能眼鏡或其他機器人。

實驗室主要成果

(http://www.robots.ox.ac.uk/~tvg/projects.php)

交互式實時3D場景分割的框架:

創建了一個只需使用廉價的硬體,就可以在半小時內捕獲並重建整個房屋或實驗室的建圖系統。

源碼地址:https://github.com/torrvision/spaint/tree/collaborative

基於立體視覺的城市三維語義建模:

可以生成具有相關語義標記的高效且準確的密集三維重建地圖。


蘇黎世聯邦理工學院的Autonomous System Lab

http://www.asl.ethz.ch/

簡介:

由Roland Siegwart教授領導,Autonomous System Lab於1996年在洛桑聯邦理工學院成立,它是機器人和智能系統研究所(IRIS)的一部分。

實驗室旨在創造能夠在複雜多樣的環境中自主運行的機器人和智能系統。設計機電和控制系統,使機器人可以自主適應不同的情況,並應對不確定和動態的日常環境。機器人可以在地面,空中和水中運動,同時具備在複雜環境下自主導航的功能,研究出了包括用於感知,抽象,建圖和路徑規劃的方法和工具。他們還在tango項目上與谷歌合作,負責視覺慣導的裡程計,基於視覺的定位和深度重建算法。

實驗室主要成就:

(https://asl.ethz.ch/publications-and-sources/open-source-software.html)


libpointmatcher:

libpointmatcher是一個模塊化庫,它實現了迭代最近點(ICP)算法,用於配準點雲。

代碼地址:

https://github.com/ethz-asl/libpointmatcher

libnabo:

用於低維空間的快速K最近鄰庫

代碼地址:

https://github.com/ethz-asl/libnabo

ethzasl sensorfusion:

基於EKF的時延補償單傳感器和多傳感器融合框架

代碼地址:

https://github.com/ethz-asl/ethzaslsensorfusion


ethzasl_ptam:

用於單目SLAM的框架PTAM

代碼地址:

https://github.com/ethz-asl/ethzasl_ptam

蘇黎世Robotics and Perception Group

http://rpg.ifi.uzh.ch/

簡介:該實驗室由Davide Scaramuzza教授領導,成立於2012年2月,是蘇黎世大學信息學系和神經信息學研究所的一部分,該研究所是蘇黎世大學和蘇黎世聯邦理工學院的聯合研究所。實驗室開發智慧機器人,只使用車載攝像頭即可自行導航,而無需依賴外部基礎設施,如GPS或動作捕捉系統。研究包括地面和微型飛行機器人,以及由這兩者組合而成的多機器人異構系統。

實驗室主要成果

(http://rpg.ifi.uzh.ch/software_datasets.html)


視覺(慣性)裡程計軌跡定量評估方法:

通過視覺( 慣性)裡程計(VO / VIO)定量評估估計軌跡的質量

源碼地址:

https://github.com/uzh-rpg/rpgtrajectoryevaluation

基於高效數據的分布式視覺SLAM:

該算法可實現使用便宜,輕便和多功能的相機進行分布式通信多機器人建圖

源碼地址:

https://github.com/uzh-rpg/dslam_open

慕尼黑工業大學的The Computer Vision Group

https://vision.in.tum.de/research

簡介:主要研究算機視覺,圖像處理和模式識別等一系列方向,即基於圖像的3D重建,光流估計,機器人視覺,視覺SLAM等。

實驗室主要成果

(https://vision.in.tum.de/research)

dvo_slam:

提供了來自連續圖像的RGB-D相機的剛體運動估計的實現方案。

代碼地址:

https://github.com/tum-vision/dvo_slam


LSD-SLAM: Large-Scale Direct Monocular SLAM:

一種直接單目SLAM建圖技術

代碼地址:

https://github.com/tum-vision/lsd_slam

DSO: Direct Sparse Odometry:

DSO是一種用於視覺裡程計的新的直接稀疏建圖方法。

代碼地址:

https://github.com/JakobEngel/dso

Basalt: Visual-Inertial Mapping with Non-Linear Factor Recovery:

使用非線性因子恢復法從視覺 - 慣性裡程計提取信息來進行視覺 - 慣性建圖。

代碼地址:

https://gitlab.com/VladyslavUsenko/basalt

德國弗萊堡大學Autonomous Intelligent Systems

http://ais.informatik.uni-freiburg.de/index_en.php

簡介:研究主要集中在自主移動機器人,即能夠在其環境中自主移動並完成不同任務,如多機器人導航和協作,環境建模和狀態估計。

實驗室主要成果

(http://ais.informatik.uni-freiburg.de/projects/index_en.php)

GMapping:

Gmapping是基於Bpf粒子濾波算法的濾波SLAM框架。

源碼地址:

https://github.com/OpenSLAM-org/openslam_gmapping

RGBD SLAM2:

是一個非常全面優秀的系統,將SLAM領域的圖像特徵、優化、閉環檢測、點雲、octomap等技術融為一體,非常適合RGBD SLAM初學者,也可以在其基礎上繼續開發

源碼地址:

https://github.com/felixendres/rgbdslam_v2

西班牙薩拉戈薩大學RoPeRT機器人,感知和實時組SLAM實驗室

http://robots.unizar.es/slamlab/

簡介:由JuanD.Tardós教授帶領,研究同時定位和建圖(SLAM)、Visual SLAM:單目,雙目,RGB-D語義SLAM,SLAM與對象、非剛性SLAM等方向,主要應用在機器人,增強現實,醫學等。

實驗室主要成果

(http://robots.unizar.es/slamlab/?extra=1)


大規模環境中協同傳感器的主動SLAM(nSPLAM):

該項目的目標是擴展SLAM算法在關鍵開放問題中的數學理解,增強實用性和適用性,包括大規模(高達數千米)/長期(數天,數周的操作)建圖,主動SLAM(不確定性下的規劃和探索),全局一致的傳感器協作/多車輛SLAM和高級地圖表示。

剛性和非剛性場景的語義可視化建圖(SVMap)

提出了一個基於對象的實時SLAM系統,設計單目SLAM算法利用對象剛度約束來改進地圖並找到其真實尺度。


美洲


明尼蘇達大學的Multiple Autonomous Robotic Systems Laboratory(MARS)

http://mars.cs.umn.edu/

簡介:多自主機器人系統(MARS)實驗室的目標是促進機器人和計算機視覺的基礎研究和教育,特別強調自主地面,航空和太空探索車輛的估算和控制。研究內容是資源意識估計和控制,包括:

實驗室主要成果

(http://mars.cs.umn.edu/research.php#research%20platforms)

使用滾動快門相機的視覺慣性導航系統(VINS):

提出了一種高精度VINS,它明確考慮並解釋了IMU相機系統的滾動快門和時間同步問題

協作建圖:

當用戶的起始姿勢之間的轉換未知時,使用多個用戶在不同時間收集的數據集來解決協作建圖(CM)的問題

使用行動裝置進行高精度,增量3D室內定位和建圖:

使用來自商業級低成本傳感器的視覺和慣性數據,為資源受限的行動裝置(例如手機和平板電腦)提供增量批量最小二乘(IBLS)定位和建圖算法

半稠密地圖:

該項目的目標是生成區域的半稠密3D地圖,正如先前的稀疏視覺 - 慣性批量最小二乘(BLS)協同建圖(CM)算法的相機姿態估計所給出的效果。

卡內基梅隆大學Robot Perception Lab

http://rpl.ri.cmu.edu/

簡介:機器人感知實驗室進行與自主移動機器人的定位,建圖和狀態估計相關的研究。該實驗室由Michael Kaess教授於2014年創立。該實驗室是卡內基梅隆大學機器人研究所一部分在,並同時屬於Field Robotics Center和Computer Vision Group。

實驗室主要研究成果

(http://rpl.ri.cmu.edu/research/)


isam:

增量平滑和建圖(iSAM),這是一種基於快速增量矩陣分解的同時定位和建圖問題方法,通過更新自然稀疏平滑信息矩陣的QR分解來實現。

源碼地址:

https://github.com/ori-drs/isam

Articulated Robot Motion for Simultaneous Localization and Mapping (ARM-SLAM)

當機器人的關節角度不確定時,可以同時估計機器人的關節角度,並重建場景的稠密地圖。

史丹福大學人工智慧實驗室自動駕駛團隊

http://driving.stanford.edu/

簡介:實驗室致力於開發在不可預測的城市環境中自動駕駛的新算法和技術。在DARPA大挑戰和DARPA城市挑戰中取得成功以來,實驗室一直在為自動駕駛中的重要問題創建和測試各種AI解決方案。利用機器學習,計算機視覺,概率傳感器融合和優化等技術,研究人員正在積極尋求語義場景理解,對象分割和跟蹤,傳感器校準,定位,車輛控制和路徑規劃方面的改進。

實驗室主要成果

(http://driving.stanford.edu/papers.html)

使用概率圖的城市環境中的魯棒車輛定位 :

將環境建模為概率網格來擴展以前使用GPS,IMU和LIDAR數據進行定位的工作,實現更高精度,可以隨著時間變化學習和改進地圖,以及對環境變化和動態障礙的穩健性。

麻省理工大學計算機科學與人工智慧實驗室(CSAIL)海洋機器人組

https://marinerobotics.mit.edu/

簡介:團隊由John Leonard教授帶領,研究海洋機器人解決水下環境中定位和建圖問題,還在基於僅使用攝像頭(有時是IMU)在室內環境中以及戶外無人駕駛汽車等應用中執行Visual SLAM的工作。

實驗室主要成果

(https://marinerobotics.mit.edu/research)


Kintinuous:

Kintinuous解決了KinectFusion僅能對有限尺度的區域進行稠密建圖的限制,允許在數百米的範圍內繪製地圖。

源碼地址:

https://github.com/mp3guy/Kintinuous

賓夕法尼亞大學機械工程與應用力學系Vijay Kumar實驗室

https://www.kumarrobotics.org/

Kumar組致力於創建自動地面和空中機器人,為集體行為和機器人群體設計生物啟發算法等。

實驗室主要成果

(https://www.kumarrobotics.org/past-projects/)


用於遠程自主探測和測繪的空中機器人:

通過現場實驗探索在地震破壞的環境中利用自主四旋翼飛行器進行地面和空中機器人的協同建圖。

華盛頓大學UW Robotics and State Estimation Lab

http://rse-lab.cs.washington.edu/

簡介:RSE-Lab成立於2001年,關注機器人和識別中的問題,開發了豐富而高效的移動機器人導航,地圖構建,協作和操作中的感知和控制技術,還研究狀態估計和機器學習方法,用於對象識別和跟蹤,人體機器人交互和人類活動識別等領域。

實驗室主要成果

(http://rse-lab.cs.washington.edu/projects/)

Semantic Mapping:

該項目的目標是生成根據對象和位置描述環境的模型。這些表示包含比傳統地圖更有用的信息,並使機器人能夠以更自然的方式與人類進行交互。


Active Mapping:

通過添加機器人來改進任何幾何和語義場景重建技術:機器人可以選擇如何使用其傳感器來獲取新信息。在主動視覺的情況下,機器人可以移動相機以觀察物體的所有側面。使用主動視覺來完成地圖創建和對象分割問題。

哥倫比亞大學計算機視覺與機器人組

https://vision.cs.ubc.ca/

簡介:這是世界上最具影響力的視覺和機器人團體之一。這個小組創造了RoboCup和著名的的SIFT。這一組的學生贏得了大部分AAAI語義機器人挑戰賽。該小組有四名在職教師:Jim Little,Alan Mackworth,Ian Mitchell和Leonid Sigal。

實驗室主要成果

(https://vision.cs.ubc.ca/publications/)

FLANN:

FLANN是用於在高維空間中執行快速近似最近鄰搜索的庫。它包含一系列我們發現最適合最近鄰搜索的算法,以及一個根據數據集自動選擇最佳算法和最佳參數的系統。

源碼地址:

https://www.cs.ubc.ca/research/flann/uploads/FLANN/flann-1.8.4-src.zip

SIFT:

SIFT(尺度不變特徵變換)將圖像的每個局部片段轉換為獨立於圖像比例和方向的坐標。局部不變特徵允許我們在任意旋轉,縮放,亮度和對比度的變化以及其他變換下有效地匹配雜亂圖像的小部分。將圖像分成許多不同大小的小重疊片段,然後單獨匹配每個部分,並檢查匹配的一致性。

源碼地址:

https://github.com/robwhess/opensift

加拿大謝布魯克大學IntRoLab(智能/互動/綜合/跨學科機器人實驗室)

https://introlab.3it.usherbrooke.ca/mediawiki-introlab/index.php/Main_Page

簡介:IntRoLab是一個研究實驗室,致力於研究,開發,集成和使用機電一體化和人工智慧方法,設計自動和智能系統。研究活動涉及移動機器人,嵌入式系統和自主代理的軟體和硬體設計以及現場評估,旨在克服與在現實生活中使用機器人和智能系統以改善生活質量相關的挑戰,並且還研究如何使機器變得智能。應用領域包括服務機器人,全地形機器人,交互式機器人,輔助機器人,遠程醫療機器人,汽車和手術機器人。

實驗室主要成果

(https://introlab.3it.usherbrooke.ca/mediawiki-introlab/index.php/Projects)


RTAB-Map:

RTAB Map是RGBD SLAM的改進,減少了圖優化和閉環檢測中需要用到的結點數,保證實時性以及閉環檢測的準確性,能夠在超大場景中運行。

源碼地址:

https://github.com/introlab/rtabmap

亞洲香港科技大學的Aerial Robotics Group

http://uav.ust.hk/

簡介:開發基礎技術,使航空機器人(或無人機,無人機等)能夠在複雜環境中自主運行。研究涵蓋了整個航空機器人系統,重點關注狀態估計,繪圖,軌跡規劃,多機器人協調以及使用低成本傳感和計算組件的測試平臺開發。

實驗室主要成果

(http://uav.ust.hk/publications/)

VINS-Mono:

一種魯棒且通用的實時單目視覺慣性狀態估計框架。

VINS-Fusion:

VINS-Fusion是一種基於優化的多傳感器狀態框架,可實現自主應用(無人機,汽車和AR / VR)的精確自定位。VINS-Fusion是VINS-Mono的擴展,支持多種視覺慣性傳感器類型(單聲道攝像機+ IMU,立體攝像機+ IMU,甚至僅限立體聲攝像機)。

代碼地址:

https://github.com/HKUST-Aerial-Robotics/VINS-Fusion

浙江大學CAD&CG國家重點實驗室的CVG(Computer Vision Group)

http://www.zjucvg.net/

簡介:CVG的主要研究興趣集中在運動結構,SLAM,3D重建,增強現實,視頻分割和編輯。

實驗室主要成果

(http://www.zjucvg.net/publication.html#)


RKSLAM:

用於AR的基於關鍵幀的魯棒單目SLAM系統

LS-ACTS:

大型自動相機跟蹤系統,可以處理大型視頻/序列數據集

源碼地址:

https://github.com/zju3dv/ENFT 

https://github.com/zju3dv/SegmentBA 

https://github.com/zju3dv/ENFT-SfM


ACTS:自動相機跟蹤系統

可以從視頻和電影序列中恢復攝像機運動和3D場景結構,提供自動跟蹤的便利性。它可以高效穩定地跟蹤各種攝像機運動,可以旋轉或自由移動。它是許多其他計算機視覺任務的基礎。

RDSLAM:

是一個實時同步定位和建圖系統,它允許場景的一部分是動態的或整個場景逐漸變化。與PTAM相比,RDSLAM不僅可以在動態環境中穩健地工作,而且還可以處理更大規模的場景(重建的3D點的數量可以是數萬個)。

清華大學自動化系寬帶網絡與數字媒體實驗室BBNC

http://media.au.tsinghua.edu.cn/index/index/index

簡介:實驗室始建於2001年4月,瞄準計算攝像、腦科學與人工智慧國際前沿,圍繞國家重大需求,開展基礎理論 與關鍵技術的研究。實驗室現有教授3人,副教授4人,助理副教授2人,工程師3人,博士後5人,在讀研究生3 0餘人。實驗室在國家重大儀器專項與重點項目等自然科學基金、「973」計劃、「863」計劃、以及省部級產學研等項 目支持下,在流媒體、立體視頻、飛行器可視導航、計算攝像學、腦科學觀測等方面的基礎理論與關鍵技術上取 得突破,發表期刊與會議論文200餘篇(SCI收錄115篇),本領域著名國際會議ICCP、SIGGRAPH、CVPR、ICCV 等27篇以及本領域IEEE TSP、TPAMI、TCSVT、TIP、IEEE TNNLS、IEEE TVCG、IJCV、Scientific Repo rts、OSA OL等國際權威期刊上發表論文86篇(3篇IEEE亮點文章);獲授權國內外發明專利145項。2006年 建立廣東省教育部產學研結合立體視頻研發基地、2013獲建北京市多維多尺度計算攝像重點實驗室;2008年獲 得國家科學技術發明二等獎,2012年獲得國家科學技術發明一等獎,2016年獲得國家科技進步獎二等獎。研究方向有人工智慧、生物智能、計算成像。

實驗室主要成果

(http://media.au.tsinghua.edu.cn/index/resear/projects)

人臉三維動態重建:

當今大規模的面部動作仍遠未生動地表達人類的面部表情,為了克服這些缺點,該項目專注於重建面部細節運動,實現了採用RGBD相機的實時3D眼神圖表現重建等功能。

人體動作捕捉:

數十年來,人體運動捕捉一直是計算機視覺和計算機圖形學中具有挑戰性的研究課題。系統長期追求快速,低成本,易於設置和有前途的推廣系統。該項目支持手持設備的動態捕捉,無標記動態捕捉,通過雙重融合實時捕捉等。

中科院自動化研究所國家模式識別實驗室Robot Vision Group

http://vision.ia.ac.cn/

簡介:Robot Vision Group是中國科學院自動化研究所(CASIA)國家模式識別實驗室(NLPR)的一部分。該小組擁有8名教職員工和20多名博士生。學生們。該小組的主要研究活動集中在3D計算機視覺,包括攝像機校準和3D重建,姿勢估計,基於視覺的機器人導航和視覺服務等。該小組主要由國家自然科學基金,國家863計劃,國家973計劃和中國科學院資助。除基礎研究外,該小組還與國家文物局,國家遠程遙感中心,國家天文臺,諾基亞研究中心等合作開展視覺應用。

實驗室主要成果

(http://vision.ia.ac.cn/zh/applications/index.html)


中國古代建築三維重建:

選取中國古代建築為載體,對海量無序圖像數據的大場景三維重建進行系統研究,通過基於圖像的高精度三維重建技術獲取古建築物數位化三維模型,達到對這些珍貴的自然文化遺產進行數位化保護的目的。

基於航拍圖像的三維地形生成:

通過航拍圖像自動獲取地形三維結構是計算機視覺在對地觀測領域的重要應用,其成果對於抗震救災、城市規劃、3D地圖導航等領域有著重要意義。在地形生成過程中,該系統自動計算稠密的高精度三維空間點雲,可以替代傳統的數字高程模型(DEM)。與傳統方法相比,本系統不需要地面控制點,也不需要飛行姿態信息。

手機上的增強現實:

增強現實(Augmented Reality)技術通過電腦技術,將虛擬的信息應用到真實世界,真實的環境和虛擬的物體實時地疊加到了同一個畫面或空間同時存在。增強現實藉助計算機圖形技術和可視化技術產生現實環境中不存在的虛擬對象,並通過傳感技術將虛擬對象準確「放置」在真實環境中,藉助顯示設備將虛擬對象與真實環境融為一體,並呈現給使用者一個感官效果真實的新環境。

澳洲澳大利亞雪梨科技大學CAS實驗室

https://www.uts.edu.au/research-and-teaching/our-research/centre-autonomous-systems

簡介:雪梨科技大學自動系統中心(CAS)是一個享譽國際的機器人研究小組。專注於機器人研究,為政府,行業和更廣泛的社區創造積極的變化。從2003年到2010年,CAS成為ARC自主系統卓越中心的一部分,該中心是世界上最大的機器人研究小組之一。自2010年以來,CAS一直在雪梨科技大學作為獨立研究中心。研究方向主要在現場機器人技術,研究非結構化環境中智能機器的傳感,感知和控制,以人為中心的機器人技術,或能夠支持人類承擔各種任務的機器人。

實驗室主要成果

(https://web-tools.uts.edu.au/projects/search.cfm?UnitId=672)

一種生物啟發的攀爬機器人,用於清潔和繪製雪梨海港大橋拱門內表面:

自2010年以來,雪梨科技大學和新南威爾斯州的道路與海事服務(RMS)一直致力於研究和開發用於鋼橋檢測和狀態評估的生物學攀登機器人。該項目目的是開發一種可實際部署的自主攀爬機器人,用於雪梨海港大橋拱形結構內的清潔和噴漆。

一種智能水下結構維修機器人系統:

由ARC Linkage項目資助,雪梨科技大學和新南威爾斯州的道路和海事服務(RMS)正在開發一種用於水下橋樁檢查和維護的機器人解決方案。該項目旨在促進我們對自主機器人如何清潔和檢查水下結構構件的理解,並開發能夠開發此類機器人系統的突破性方法。在近地表和潮汐環境中使用機器人系統進行檢查和維護具有挑戰性。橋樁等結構的形狀和大小各不相同,通常包含在海洋生長中,這會使樁的幾何形狀變得模糊,並幹擾條件評估。因此,機器人在低能見度和複雜水流條件下運行的能力至關重要。

澳大利亞機器學習研究所機器人視覺中心

https://ecms.adelaide.edu.au/research-impact/computer-vision-and-robotics

計算機視覺和機器人小組由Peter Corke教授(QUT),副主任Ian Reid教授(阿德萊德)和首席調查員Tom Drummond教授(蒙納士)和Robert Mahony教授(ANU)領導,致力於開發和應用基本的計算機視覺和機器人算法。這包括深度學習,生成模型,對抗性學習,記憶網絡和元學習。主要研究深度學習在語義圖像理解同步定位和建圖(SLAM)和3D場景重建、視頻理解問答、醫學影像等領域的應用。

實驗室主要成果

(https://resources.rvhub.org/)


適用於微創整形外科手術的基於視覺SLAM的機器人數據集

該項目旨在開發一種基於視覺的機器人手術助手,用於微創整形外科手術。該系統將由機器人手臂組成,其中附有用於關節內導航的相機 - 關節鏡束。該系統將能夠a)在人體關節內穩健可靠地定位器械; b)從關節內圖像生成密集且準確的膝關節三維重建模型; c)半自動導航相機(通過視覺伺服)跟隨外科醫生的工具。

數據集地址:

https://data.researchdatafinder.qut.edu.au/dataset/robotic-arthroscopy



相關焦點

  • 【泡泡圖靈智庫】SLAM 領域國內外優秀實驗室匯總 3/3
    研究方向:腦啟發式機器人,採礦機器人,機器人視覺實驗室主頁:https://www.qut.edu.au/research/centre-for-robotics開原始碼:https://research.qut.edu.au
  • 【泡泡圖靈智庫】SLAM 領域國內外優秀實驗室匯總 1/3
    研究方向:多模態環境理解,語義導航,自主信息獲取實驗室主頁:https://existentialrobotics.org/index.html發表論文匯總:https://existentialrobotics.org
  • 超全匯總 | ORB-SLAM2 / ORB-SLAM3 相關改進代碼!
    life」,選擇「星標」快速獲得最新乾貨本文總結了特徵點法SLAM中目前效果最好的方法:ORB-SLAM2 / ORB-SLAM3 相關改進代碼匯總,包括加速、多傳感器融合、稠密建圖、線特徵、點線融合、導航、動態環境、多平臺移植等。
  • 匯總世界頂尖計算機視覺、圖像領域大牛以及實驗室附網址
    20101217173552339241557/20101217173552339241557_.html(35)頂級民用機器人研究小組Porf.Gary領導的Willow Garage:http://www.willowgarage.com/(36)上海交通大學圖像處理與模式識別研究所:http://www.pami.sjtu.edu.cn/(37)上海交通大學計算機視覺實驗室劉允才教授
  • gradslam(∇SLAM)開源:論文、代碼全都有
    SLAM 發展距今已有 30 餘年的歷史,是機器在未知環境下,感知和狀態估計、進行自主作業的關鍵技術,可以說,機器要執行路徑規劃、導航等任務,AR、VR 構建穩定的三維空間,這些技術都離不開 SLAM 的輔助。
  • 83 項開源視覺 SLAM 方案夠你用了嗎?
    由於本人自 2019 年 3 月開始整理,所以以下的代碼除了經典的框架之外基本都集中在 19-20 年;此外個人比較關注 VO、物體級 SLAM 和多路標 SLAM,所以以下內容收集的也不完整,無法涵蓋視覺SLAM 的所有研究,僅作參考。
  • 有趣的圖解SLAM!
    點擊上方「計算機視覺
  • 視覺SLAM技術綜述
    基於視覺的同時定位與地圖構建的研究進展 [J/OL]. 計算機應用研究,2018,(03):1-9(2017-08-18).[4] Nister, D, O. Naroditsky, and J. Bergen. 」Visual odometry.」 Computer Vision and Pattern Recognition, 2004. CVPR 2004.
  • SLAM綜述(2)-視覺SLAM
    Orb-slam: a versatile and accurate monocular slam system. IEEE transactions on robotics, 31(5):1147–1163, 2015. [2] Tong Qin, Peiliang Li, and Shaojie Shen.
  • SLAM綜述(3)-視覺與慣導,視覺與深度學習SLAM
    Popup slam: Semantic monocular plane slam for low-texture environments. In 2016 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS), pages 1222–1229. IEEE, 2016.
  • 100多 項開源視覺 SLAM 方案夠你用了嗎?
    Orb-slam2: An open-source slam system for monocular, stereo, and rgb-d cameras[J]. IEEE Transactions on Robotics, 2017, 33(5): 1255-1262.
  • 中國最值得關注的全球十大頂尖人工智慧研究實驗室(上)
    隨著人工智慧領域的大熱,越來越多的企業和領導者將目光和戰略轉移到了人工智慧領域,全球巨頭們紛紛加大對人工智慧領域研究的投入。
  • 深度學習(計算機視覺方向)小白入門的一些建議
    作者:大連海事大學計算機碩士:阿小博Dennishttps://zhuanlan.zhihu.com/p/43312693從研一入學到現在剛好一年了,剛入學的時候對這方面是一點也不懂,那時實驗室的沒有GPU的電腦還以為很強,哈哈。
  • 國際頂尖CTF戰隊大牛親自授課,助你快速成長!
    如今網絡安全人才的培養越來越受到國家和社會的重視,而CTF作為全球網絡安全圈最流行的競賽形式
  • 【泡泡機器人SLAM原創專欄-滑動窗算法】: Sliding Window Filter for SLAM
    這篇專題的idea主要來源於2006年Gabe Sibley的論文A Sliding Window Filter for SLAM,此論文詳細說明了SLAM後端優化的稀疏性的緣由,並提出了應用於slam
  • 視覺SLAM圖文/視頻課程+答疑+學習路線全規劃,SLAMer必看!
    包含三維重建、機器人SLAM方向沉澱了2年多的乾貨,包括大量圖文、視頻教學視頻、實習/校招/社招機會、筆試面試題目及解析、疑難解惑、領域內最新開源論文/代碼/數據集等(詳細介紹見後),還可以加入粉絲專屬微信交流群/星球內部資料、每天只需幾毛錢,即可快速觸達我們優質技術社區,一起交流學習,不管是剛剛入門的新手,還是已經是行業的從業者,都能獲益良多~歡迎加入「從零開始學習SLAM」知識星球一起學習
  • 計算視覺教授田奇加入華為諾亞方舟實驗室,任計算視覺首席科學家
    近日,IEEE Fellow、美國德克薩斯大學聖安東尼奧分校計算機系教授、教育部長江講座教授田奇加入華為諾亞方舟實驗室,任計算視覺首席科學家,主導視覺方向的前沿研究,並落實在平安城市、終端手機、自動駕駛、網絡運維大腦等方向上的算法競爭力。
  • 計算機視覺方向簡介 | 多視角立體視覺MVS
    早就是優勢,學習切忌單打獨鬥,這裡有教程資料、練習作業、答疑解惑等,優質學習圈幫你少走彎路,快速入門!推薦閱讀前段時間參加了個線下交流會(附SLAM入門視頻)計算機視覺方向簡介 | 從全景圖恢復三維結構計算機視覺方向簡介 | 陣列相機立體全景拼接計算機視覺方向簡介 |
  • 全球頂尖視覺特效團隊落戶江北
    近日,參與這兩部電影製作的影視圈超級大咖、曾3次獲奧斯卡最佳視覺效果獎和4次奧斯卡科學技術獎的電影特效製作殿堂級人物——約翰·派屈克·休斯走訪考察江北,並攜團隊落戶江北。約翰·派屈克·休斯是全球國際知名3D視覺特效電影公司--R&H(節奏與色彩)公司的創始人,其主導研發的「Rigging仿生動畫生成技術和CSC雲科學計算技術」為《少年派的奇幻漂流》《速度與激情》《哈裡·波特》等上百部好萊塢電影進行過視覺特效製作服務。