廣州眼科專家首創嬰幼兒視功能人工智慧評估系統,一段視頻就能篩出九成白內障,相關技術發表於《自然·生物醫學工程》。
診斷即光明,錯過則黑暗,而且是終身的
嬰幼兒階段如果罹患了諸如視網膜脫落、先天性白內障等眼科疾病,及時診斷清晰,快速幹預、治療,則能確保孩子的視力、光明;而錯過治療窗口期,孩子極可能終身失明。可如何讓不會言語的小傢伙配合視光學檢查,則是一項世界性難題。也這是因為難,難於客觀評估嬰幼兒視功能狀況,全球2000萬以上的視覺損傷嬰幼兒不能被及時發現而終生致盲。
為解決這一難題,中山大學中山眼科中心劉奕志教授和林浩添教授通過多年的臨床實踐發現,這些不能言語的視損傷孩子,往往會表現出一些特殊的動作、行為。利用AI技術學習、分析後,在全球首次建立了基於行為模式的嬰幼兒智能視功能評估系統,用於客觀篩查嬰幼兒的視功能,及時發現語言前嬰幼兒的視覺損傷。「我們期望這套系統能開發成一個APP,以後家長們利用手機,在家就能完成諸如先天性白內障、先天小眼球、小角膜、先天無晶體等眼科疾病的篩查」,中山眼科中心院長助理、人工智慧與大數據科主任林浩添教授表示,目前最新研究成果美國時間21日發表於《自然》雜誌的子刊《自然生物醫學工程》。
首次明確視覺損傷和行為模式的量化關係
一個正常的人走過的直線路徑,當遮蔽一隻眼再走時,會出現明顯的偏差。不同的視力缺失疾病,也會讓人表現出一些特殊的細微動作。成人如此,孩子也一樣。
中山大學中山眼科中心研究團隊開發的嬰幼兒視功能評估系統,也正是基於這一原理,捉孩子的一小段動作視頻後,將這一視頻交給AI去進行分析。人眼難於捕捉和發現的細微差異,人工智慧能夠明察秋毫的予以捕捉,並進行判斷。
林浩添教授表示,本次研究通過分析過去10年,4196例嬰幼兒的行為學表型視頻大數據,定量對比不同視功能群體4大類、13個行為特徵的發生頻率及嚴重程度,首次明確了斜視、眼球震顫、代償頭位等11個標誌性的醫學行為體徵,與嬰幼兒視覺損傷的量化關係。
圖:視覺損傷和行為模式量化關係的研究流程
從分析圖片、文字到分析視頻
這個AI運用了眾多的全新技術
人工智慧運用於醫學領域,這兩年方興未艾,如火如荼。但也已成形的技術,往往集中在對醫學影像圖片,特定格式生化檢查數值的分析,極少有對動態視頻加以分析並輔助醫生診斷的AI技術
本研究創新性採用時序分割網絡來自主學習、建立行為學表型在視頻水平的特徵模型。該算法結合稀疏採樣的策略和視頻水平的監督,以實現對動態視頻數據集的高效擬合。簡單來說,該技術就是將一段視頻分段進行審核、分析,捕捉細微動作差異所反映的潛在眼科疾病。
通過驗證,這一技術有著極為敏銳的判斷力和極高的準確率。林浩添透露,以先天性白內障為例,該系統通過視頻捕捉的診斷準確率達到93%。而其他諸如先天性小眼球、小角膜晶體脫位等疾病,準確率也普遍超過80%。
AI加持的智能評估系統將簡便到可用手機應用
一項全新的篩查技術,需要簡便、易操作的加以推廣,而中山眼科團隊研發的這一有AI加持的智能評估系統,則有望通過手機APP的模式廣泛運用。
「我們特別希望將來,家長能夠利用手中的智慧型手機或其他終端,在家裡就為孩子做檢查。其實就是捕捉一段孩子1-2分鐘的視頻,然後上傳後,AI在後臺加以迅速計算,完成初篩。為孩子的治療贏得時間。
採寫:南都記者 王道斌 通訊員 邰夢雲