點擊上方↑↑↑「OpenCV學堂」關注我
來源:公眾號 小白學視覺 授權
我們都看過3D電影,他們看起來都很酷,這給了我們一個想法,使用一些工具通過改變看圖像視角,模擬觀眾的頭部移動。
效果如何?
我們都熟悉"視差"這一術語,它是描述對象在左右眼中的位置差距,視差的大小這取決於我們離它有多遠。視差
因此,如果我們能在2D圖像中獲得與不同圖像層的相同效果,那麼我們可以在這些圖像中產生類似的感覺,並產生我們想要的酷效果。
讓我們分解一下這個過程
深度圖
因此,首先,我們需要將圖像分解為不同的圖層,並且,我們需要一個2D圖像的深度圖。深度圖只是一個黑白圖像,其中圖像的白色顯示對象與鏡頭的接近度。獲得基本圖層後,我們需要從每個圖層中畫出缺失的部分。最後,我們將單個圖像分解成不同的圖層。現在,我們可以顯示不同的圖層,這些圖層看起來與原始圖像相同。現在,我們可以使用相機進行人臉檢測,並測量用戶頭部的移動,然後移動這些圖層並進行匹配。
讓我們看看如何編寫此工具的代碼
因此,首先,我們需要導入一些文件,建議使用版本 4.1.0.25 的 OpenCV。
import os, sysimport numpy as npimport pygame as pgimport cv2現在,我們需要加載圖像和深度圖,並調整它們的大小以匹配大小。現在,我們將提供一個深度圖、代碼,但你可以生成自己的模型MiDaS。
img = cv2.imread('moon.jpg', flags=cv2.CV_8UC4)depth_map = cv2.imread('moon_depth_map.png')depth_map = cv2.cvtColor(depth_map,cv2.COLOR_RGB2GRAY)img = cv2.resize(img, depth_map.shape[:2])
現在,在加載深度貼圖後,我們可以通過按不同閾值對深度貼圖不同圖層創建蒙版。在製作一個圖層時,我們需要兩個蒙版,一個是該圖層,另一個是上一層的第二個蒙版,用於畫上一個圖層的缺失部分。我們將在循環之外取最後一個圖層,以便提取此層中的所有剩餘部分。
layers = [] prev_thres = 255div=30 for thres in range(255 - div, 0, -div): ret, mask = cv2.threshold(depth_map, thres, 255, cv2.THRESH_BINARY) ret, prev_mask = cv2.threshold(depth_map, prev_thres, 255, cv2.THRESH_BINARY) prev_thres = thres inpaint_img = cv2.inpaint(img, prev_mask, 10, cv2.INPAINT_NS) layer = cv2.bitwise_and(inpaint_img, inpaint_img, mask = mask) layers.append(conv_cv_alpha(layer, mask)) mask = np.zeros(depth_map.shape, np.uint8) mask[:,:] = 255 ret, prev_mask = cv2.threshold(depth_map, prev_thres, 255, cv2.THRESH_BINARY) inpaint_img = cv2.inpaint(img, prev_mask, 10, cv2.INPAINT_NS) layer = cv2.bitwise_and(inpaint_img, inpaint_img, mask = mask)layers.append(conv_cv_alpha(layer, mask)) layers = layers[::-1]我們已經反轉了圖層,因此我們可以按最後一個層排列到第一層的順序排列它們。當我們將圖層添加到列表中時,我們使用的是函數[conv_cv_alpha],這將添加 alpha 值(使 RGB 到 RGBA),並使用蒙版使圖層的某些部分透明。
def conv_cv_alpha(cv_image, mask): b, g, r = cv2.split(cv_image) rgba = [r, g, b, mask] cv_image = cv2.merge(rgba,4) return cv_image現在來了人臉檢測和顯示圖像的部分。對於人臉檢測,我們將使用哈卡卡德。現在,我們將加載 haar 級聯進行人臉檢測,並創建一個函數,該函數將從圖像中返回人臉。
face_cascade = cv2.CascadeClassifier( 'haarcascade_frontalface_default.xml')
def get_face_rect(img): gray_img = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) face_rects = face_cascade.detectMultiScale(gray_img, 1.3, 5) if len(face_rects) == 0: return () return face_rects[0]現在,我們必須顯示圖像,將根據用戶的頭移動。我們將使用OpenCV讀取凸輪,然後使用 Pygame將每個幀呈現在彼此的頂部。為了計算每一層的移位,我們將計算從框架中心的頭部移位,然後縮小頭移位以獲得一個小的移位值。之後,我們將每個圖層的索引值相乘,以獲得相應圖層的移位值,還可以乘以一些常量值,以獲得更好的結果。
我們將創建一個比原始圖像稍小的 Pygame 窗口並加載相機。我們使用了比例,因此您更改其值以使最終結果變大。
scale = 1off_set = 20width, height = layers[0].get_width(), layers[0].get_height() win = pg.display.set_mode((int((width - off_set)*scale), int((height - off_set)*scale))) pg.display.set_caption('Parallax_image')scaled_layers = [] for layer in layers: scaled_layers.append(pg.transform.scale(layer, (int(width*scale), int(height*scale))))cap = cv2.VideoCapture(0, cv2.CAP_DSHOW)我們將設置一些常量。你可以玩這些常量來獲得不同的結果。
x_transform = True y_transform = False sens = 50 show_cam = False shift_x = 0 shift_y = 0 run = True最後,主循環渲染所有圖層。
while run: for event in pg.event.get(): if event.type==pg.QUIT: run = False ret, frame = cap.read() frame = cv2.cvtColor(frame, cv2.COLOR_BGR2RGB) initial_pos = (frame.shape[0]/2, frame.shape[1]/2) face_rect = get_face_rect(frame) if len(face_rect) != 0: x,y,w,h, = face_rect face_rect_frame = cv2.rectangle(frame, (x, y), (x + w, y + h), (255,255,0), 3) shift_x = (initial_pos[0] - (x + w/2))/(sens*scale) shift_y = (initial_pos[1] - (y + h/2))/(sens*scale) win.fill((255, 255, 255)) for i, layer in enumerate(scaled_layers): new_x = -off_set/2 new_y = -off_set/2 if x_transform: new_x = 0 + shift_x*i if y_transform: new_y = 0 + shift_y*i win.blit(layer, (new_x, new_y)) face_rect_frame = cv2.resize(face_rect_frame, (100, 100)) if show_cam: win.blit(conv_cv_pygame(face_rect_frame), (0, 0)) pg.display.update()cap.release()cv2.destroyAllWindows()pg.quit()就是這裡,最終結果。
最終結果
不同圖像的演示
我已經創建了一個更高級版本的這個工具,你可以只選擇圖像,它會自動創建視差圖像,深度地圖將自動生成。
代碼連結:https://github.com/strikeraryu/Parallax_Image