圖片來源:UCLA
來源 UCLA
翻譯 阿金
審校 張之典
加利福尼亞州大學洛杉磯分校(UCLA)的生物工程師們設計出一種手套狀設備,通過手機應用程式,能夠將美式手語實時翻譯成英語語音。他們的研究發表在《自然·電子學》(Nature Electronics)雜誌上。
Jun Chen 是 UCLA 薩穆埃利工程學院(Samueli School of Englineering)的生物工程學助理教授,也是該項目的 PI,他表示:「我們希望為手語使用者打開方便之門,讓其可以直接和非手語人士交談,而不需要第三人做翻譯。此外,我們也希望能幫助更多的人自學手語。」
該系統包括一副手套,和沿著每根手指裝配的一根根纖薄的可伸展式傳感器。這些傳感器由導電的紗線製成,能夠感應代表單個字母、數字、單詞以及短語的手部動作和手指位置。
設備會將手指運動轉化成電子信號,發送到手套腕部位置一個只有一美元硬幣大小的電路板。電路板將這些信號通過無線方式傳送至手機應用以翻譯成語音文字,並以大約每秒 1 個單詞的語速朗讀出來。
研究人員還在受試者臉部貼上了粘貼式傳感器,一個在眉毛之間,另一個則在嘴角一側,以捕捉美式手語中的面部表情 。
Jun Chen 還指出,此前美式手語翻譯穿戴系統受限於笨重的設計方案,或者穿戴後會產生不舒服感。而 UCLA 團隊研發的設備由輕巧廉價且經久耐用的可伸展式聚合物製成。電子傳感器也具備一定柔性和低廉成本。
在測試設備時,研究人員招募了四名使用美式手語的聾啞人士。他們戴上手套後,每一個手勢會重複做 15 遍。機器學習算法將這些手勢轉化成它們所代表的字母、數字以及詞語。這套系統已識別出 660 種手勢,包括 26 個英文字母和從 0 到 9 的數字。
原文連結:
https://eurekalert.org/pub_releases/2020-06/uoc--wgt062620.php
本文來自微信公眾號「科研圈」。如需轉載,請在「科研圈」後臺回復「轉載」,或通過公眾號菜單與我們取得聯繫。原文信息請點擊「閱讀原文」。
論文信息
[論文標題] Sign-to-speech translation using machine-learning-assisted stretchable sensor arrays[論文作者] Zhihao Zhou, Kyle Chen, Xiaoshi Li, Songlin Zhang, Yufen Wu, Yihao Zhou, Keyu Meng, Chenchen Sun, Qiang He, Wenjing Fan, Endong Fan, Zhiwei Lin, Xulong Tan, Weili Deng, Jin Yang & Jun Chen [發表期刊] Nature Electronics[論文編號] 10.1038/s41928-020-0428-6[論文摘要] Signed languages are not as pervasive a conversational medium as spoken languages due to the history of institutional suppression of the former and the linguistic hegemony of the latter. This has led to a communication barrier between signers and non-signers that could be mitigated by technology-mediated approaches. Here, we show that a wearable sign-to-speech translation system, assisted by machine learning, can accurately translate the hand gestures of American Sign Language into speech. The wearable sign-to-speech translation system is composed of yarn-based stretchable sensor arrays and a wireless printed circuit board, and offers a high sensitivity and fast response time, allowing real-time translation of signs into spoken words to be performed. By analysing 660 acquired sign language hand gesture recognition patterns, we demonstrate a recognition rate of up to 98.63% and a recognition time of less than 1 s.▽精彩回顧▽