近期我們開發了一個銀行卡 OCR 項目。需求是用手機對著銀行卡拍攝以後,通過推理,可以識別出卡片上的卡號。
工程開發過程中,我們發現手機拍攝以後的圖像,並不能滿足模型的輸入要求。以 Android 為例,從攝像頭獲取到的預覽圖像是帶 90 度旋轉的 NV21 格式的圖片,而我們的模型要求的輸入,只需要卡片區域這一塊的圖像,並且需要轉成固定尺寸的 BGR 格式。所以在圖像輸入到模型之前,我們需要對採集到的圖像做圖像處理,如下圖所示:
在開發的過程中,我們對 YUV 圖像格式和 libyuv 進行了研究,也積累了一些經驗。
下文我們結合銀行卡 OCR 項目,講一講裡面涉及到的一些基礎知識:
什麼是YUV格式如何對YUV圖像進行裁剪如何對YUV圖像進行旋轉圖像處理中的Stride如何進行縮放和格式轉換libyuv的使用想要對採集到的YUV格式的圖像進行處理,首先我們需要了解什麼是 YUV 格式。
什麼是YUV格式
YUV 是一種顏色編碼方法,YUV,分為三個分量:
「Y」 表示明亮度(Luminance或Luma),也就是灰度值;
「U」和「V」 表示的則是色度(Chrominance或Chroma)。
主流的採樣方式有三種,YUV4:4:4,YUV4:2:2,YUV4:2:0。
這部分專業的知識,網絡上有詳細的解釋。我們簡單理解一下,RGB 和 YUV 都使用三個值來描述一個像素點,只是這三個值的意義不同。通過固定的公式,我們可以對 RGB 和 YUV 進行相互轉換。
工程裡常見的I420,NV21,NV12,都是屬於YUV420,每四個Y共用一組UV分量。YUV420主要包含兩種格式,YUV420SP 和YUV420P。
YUV420SP,先排列Y分量,UV分量交替排列,例如:NV12: YYYYYYYY UVUV 和 NV21: YYYYYYYY VUVU (上文中我們在安卓上採集到的圖像就是這種格式)。YUV420P,先排列U(或者V)分量,再排列V(或者U)分量。例如:I420: YYYYYYYY UU VV 和 YV12: YYYYYYYY VV UU。
了解了YUV的圖像格式以後,我們就可以嘗試對圖片進行裁剪和旋轉了。
我們的想法是先在圖片上裁剪出銀行卡的區域,再進行一次旋轉。
如何對YUV圖像進行裁剪
YUV420SP 和 YUV420P 裁剪的過程類似,以 YUV420SP 為例,我們要裁剪圖中的這塊區域:
在圖上看起來就非常明顯了,只要找到裁剪區域對應的Y分量和UV分量,按行拷貝到目標空間裡就可以了。
我們再來看一張圖,是否可以用上面的方法來裁剪圖中的這塊區域呢?
答案是否定的,如果你按照上面說的方法來操作,最後你會發現你保存出來的圖,顏色基本是不對的,甚至會有內存錯誤。原因很簡單,仔細觀察一下,當 ClipLeft 或者 ClipTop 是奇數的時候,會導致拷貝的時候UV分量錯亂。
如果把錯誤的圖像數據輸入到模型裡面,肯定是得不到我們期望的結果的。所以我們在做裁剪的時候,需要規避掉奇數的場景,否則你會遇到意想不到的結果。
如何對 YUV 圖像進行旋轉
對上文裁剪後的圖像做順時針90度旋轉,相比裁剪,轉換要稍微複雜一些。
基本方法是一樣的,拷貝對應的 Y 分量和 UV 分量到目標空間裡。
在了解了裁剪和旋轉的方法以後,我們發現在學習的過程中不可避免地遇到了 Stride 這個詞。
那它在圖像中的作用是什麼呢?
圖像處理中的Stride
Stride是非常重要的一個概念,Stride 指在內存中每行像素所佔的空間,它是一個大於等於圖像寬度的內存對齊的長度。如下圖所示:
回過頭來看我們上面說到的裁剪和旋轉,是否有什麼問題?
以 Android 上的YV12為例,Google Doc 裡是這樣描述的:
YV12 is a 4:2:0 YCrCb planar format comprised of a WxH Y plane followed by (W/2) x (H/2) Cr and Cb planes.This format assumes an even width an even height a horizontal stride multiple of 16 pixels a vertical stride equal to the heighty_size = stride * heightc_stride = ALIGN(stride / 2, 16)c_size = c_stride * height / 2size = y_size + c_size * 2cr_offset = y_sizecb_offize = y_size + c_size複製代碼所以在不同的平臺和設備上,需要按照文檔和 stride 來進行計算。例如計算 Buffer 的大小,很多文章都是簡單的 「*3/2」 ,仔細考慮一下,這其實是有問題的。
如果不考慮 stride ,會有帶來什麼後果?如果 「運氣」 足夠好,一切看起來很正常。「運氣」不夠好,你會發現很多奇怪的問題,例如花屏,綠條紋,內存錯誤等等。這和我們平常工作中遇到的很多的奇怪問題一樣,實際上背後都是有深層次的原因的。
經過裁剪和旋轉,我們只需要把圖像縮放成模型需要的尺寸,轉成模型需要的BGR格式就可以了。
如何進行縮放和格式轉換
以縮放為例,有臨近插值,線性插值,立方插值,蘭索斯插值等算法。YUV 和 RGB 之間的轉換,轉換的公式也有很多種,例如量化和非量化。這些涉及到專業的知識,需要大量的時間去學習和理解。
這麼多的轉換,我們是否都要自己去實現?
很多優秀的開源項目已經提供了完善的 API 給我們調用,例如 OpenCV,libyuv 等。我們需要做的是理解基本的原理,站在別人的肩膀上,做到心裡有數,這樣即使遇到問題,也能很快地定位解決。
經過調查和比較,我們選擇了 libyuv 來做圖像處理的庫。libyuv 是 Google 開源的實現各種 YUV 與 RGB 之間相互轉換、旋轉、縮放的庫。它是跨平臺的,可在 Windows、Linux、Mac、Android 等作業系統,x86、x64、arm 架構上進行編譯運行,支持 SSE、AVX、NEON等SIMD 指令加速。
libyuv的使用
引入libyuv以後,我們只需要調用libyuv提供的相關API就可以了。
在銀行卡OCR工程使用的過程中,我們主要遇到了2個問題:
1,在Android開發的初期,我們發現識別率和我們的期望存在一定的差距。
我們懷疑是模型的輸入數據有問題,通過排查發現是使用libyuv的時候,沒注意到它是little endian。例如這個方法:int BGRAToARGB(...),BGRA little endian,在內存裡順序實際是ARGB。所以在使用的時候需要弄清楚你的數據在內存裡是什麼順序的,修改這個問題後識別率達到了我們的預期。
2,在大部分機型上運行正常,但在部分機型上出現了 Native 層的內存異常。
通過多次定位,最後發現是 stride 和 buffersize 的計算錯誤引起的。
通過銀行卡 OCR 項目,我們積累了相關的經驗。另外,由於 libyuv 是 C/C++ 實現的,使用的時候不是那麼的便捷。為了提高開發效率,我們提取了一個 Vision 組件,對libyuv封裝了一層 JNI 接口,包括了一些基礎的轉換和一些 sample,這樣使用起來更加簡單方便了。作為AOE SDK 裡的圖像處理組件,還在不斷開發和完善中。
項目地址:github.com/didi/aoe