視覺系統是人工智慧的「眼睛」。多年來,浙江工業大學計算機科學與技術學院陳勝勇教授團隊一直致力於場景目標運動狀態的視覺分析方法研究。7月17日,浙江省科學技術獎勵大會傳來喜報:「視覺系統中的目標物運動狀態分析」項目榮獲浙江省自然科學一等獎。
◎張笑欽(代表陳勝勇教授團隊)領獎
今天,在一些醫院裡,醫護人員的部分工作已經交給5G智能醫護機器人。一臺長得像「大白」的機器人駐守在門診大廳,為患者導診,進行防疫宣傳;另一臺轉動靈活的機器人正背著藥箱和消毒水箱,進行醫藥配送、地面消殺和清潔。
「疫情的發生,讓機器人協助人類進行急難險重工作的作用得到集中體現。」事實上,能有這樣的效果,得益於近年來機器人的視覺系統發展。
◎學習式目標觀測跟蹤
「我們的項目是以人工智慧為基礎的計算機分析技術,目的是為了讓系統可以隨時監測場景和物體的變化情況,是機器實現智能決策和自主行為必備的功能。」項目負責人陳勝勇說。這是一支由浙江工業大學、溫州大學和香港城市大學組成的精英團隊,他們在國家基金的傑青、優青、重點等10餘項國家級項目的支持下開展了近10年的研究。
「應用最先進的人工智慧和機器視覺技術,幫助計算機和機器人對環境中的運動對象進行運動狀態的跟蹤和分析。」項目成員張劍華說,「我們的項目能夠隨時監測場景和物體的變化情況。這些技術目前主要應用於安防監控、工業生產流水線中,通過機器人、無人機執行。」
◎場景運動狀態分析
◎無人機應用
一旦掌握了周邊環境變化情況,機器人就能進一步實現智能決策和自主行為。給機器人裝上「眼睛」之後,它將更好地服務國民經濟生產及百姓日常生活。比如,一條固體垃圾資源再生的生產線,如果機器手臂不長「眼睛」,那就需要藉助人類的「眼睛」分辨哪些是可利用的建築垃圾材料,而這一技術恰恰彌補了機器手臂「盲目」的缺點,實現了精準篩選。在交通監控上,這雙「眼睛」能夠迅速發現異常行駛的汽車軌跡,並及時報警,大大減輕了民警的勞動強度,解放了大量的糾違警力,又能為搶救傷員贏得寶貴的時間。
該項目的勝出離不開其科學理論貢獻。它突破了在陌生複雜環境中對象分割和場景描述問題。能夠快速準確地分割場景中靜止和運動的個體目標,還能提供計算機和機器人可以理解的場景內容描述。它突破了複雜環境中多個目標跟蹤問題。開創性地應用多種群序列粒子群優化技術,能夠準確實時跟蹤場景中多個運動目標。它突破了複雜場景中目標對象的運動狀態分析問題。提出新的理論,解決了傳統技術面臨的噪聲和遮擋問題。
◎場景內容分析
該團隊培養了一批博士、碩士研究生,他們參與算法研究、實驗驗證等工作。「謝榛博士參與無人機平臺算法驗證工作,趙妍珠、陳敬帛博士參與了安防監控領域車輛再識別研究。還有張少波、宋洪章、邱葉強等碩士生參與了機械手臂分揀建築垃圾等工作。」張劍華說,「學校和學院為我們提供了大量的支持。在學院裡,我們有充足的研究和試驗場地。我們航模隊得到了學校提供的場地和經費,為我們在無人機平臺上驗證研究成果保駕護航。」
文字 / 黨委宣傳部 王臻
圖片來源 / 浙工大科技
推送 / 陳錢英
編輯 / 陳帝任
投稿郵箱 / officialzjut@163.com