久久福利_99r_国产日韩在线视频_直接看av的网站_中文欧美日韩_久久一

您的位置:首頁技術(shù)文章
文章詳情頁

python 使用OpenCV進(jìn)行簡單的人像分割與合成

瀏覽:71日期:2022-06-28 15:33:28
實(shí)現(xiàn)思路

通過背景建模的方法,對源圖像中的動態(tài)人物前景進(jìn)行分割,再將目標(biāo)圖像作為背景,進(jìn)行合成操作,獲得一個(gè)可用的合成影像。

實(shí)現(xiàn)步驟如下。

使用BackgroundSubtractorMOG2進(jìn)行背景分割

BackgroundSubtractorMOG2是一個(gè)以高斯混合模型為基礎(chǔ)的背景前景分割算法,

混合高斯模型

python 使用OpenCV進(jìn)行簡單的人像分割與合成

分布概率是K個(gè)高斯分布的和,每個(gè)高斯分布有屬于自己的 μμ 和 σσ 參數(shù),以及對應(yīng)的權(quán)重參數(shù),權(quán)重值必須為正數(shù),所有權(quán)重的和必須等于1,以確保公式給出數(shù)值是合理的概率密度值。換句話說如果我們把該公式對應(yīng)的輸入空間合并起來,結(jié)果將等于1。

回到原算法,它的一個(gè)特點(diǎn)是它為每一個(gè)像素選擇一個(gè)合適數(shù)目的高斯分布。基于高斯模型的期望和標(biāo)準(zhǔn)差來判斷混合高斯模型模型中的哪個(gè)高斯模型更有可能對應(yīng)這個(gè)像素點(diǎn),如果不符合就會被判定為前景。

使用人像識別填充面部信息

創(chuàng)建級聯(lián)分類器

face_cascade = cv2.CascadeClassifier()face_cascade.load( ’/usr/local/anaconda3/envs/OpenCV/lib/python3.8/site-packages/cv2/data/haarcascade_frontalface_default.xml’)

使用OpenCV自帶的級聯(lián)分類器,加載OpenCV的基礎(chǔ)人像識別數(shù)據(jù)。

識別源圖像中的人像

faces = face_cascade.detectMultiScale(gray, 1.3, 5)使用形態(tài)學(xué)填充分割出來的前景

# 形態(tài)學(xué)開運(yùn)算去噪點(diǎn)fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel)for i in range(15): fgmask = cv2.dilate(fgmask, kernel, iterations=1)

通過開操作去掉前景圖像數(shù)組中的噪點(diǎn),然后重復(fù)進(jìn)行膨脹,填充前景輪廓。

將人像與目標(biāo)背景進(jìn)行合成

def resolve(o_img, mask, faces): if len(faces) == 0: return (x, y, w, h) = faces[0] rgb_mask_front = cv2.cvtColor(mask, cv2.COLOR_GRAY2BGR) rgb_mask_front = cv2.bitwise_not(rgb_mask_front) cv2.circle(rgb_mask_front, (int(x + w / 2), int(y + h / 2)), int((w + h) / 4), (0, 0, 0), thickness=-1) o_img = cv2.subtract(o_img, rgb_mask_front) return o_img

將分割出來的部分取反再與源圖像進(jìn)行減操作,相當(dāng)于用一個(gè)Mask從原圖中摳出一部分。

再與背景進(jìn)行加操作

out = resolve(frame, fgmask, faces)out = cv2.add(out, c_frame)代碼實(shí)現(xiàn)

import numpy as npimport cv2import os# 經(jīng)典的測試視頻camera = cv2.VideoCapture(’./source/background_test2.avi’)cap = cv2.VideoCapture(’./source/camera_test2.avi’)face_cascade = cv2.CascadeClassifier()face_cascade.load( os.getcwd()+’/source/haarcascade_frontalface_default.xml’)# 形態(tài)學(xué)操作需要使用kernel = cv2.getStructuringElement(cv2.MORPH_ELLIPSE, (3, 3))# 創(chuàng)建混合高斯模型用于背景建模fgbg = cv2.createBackgroundSubtractorMOG2(detectShadows=False)def resolve(o_img, mask, faces): if len(faces) == 0: return (x, y, w, h) = faces[0] rgb_mask_front = cv2.cvtColor(mask, cv2.COLOR_GRAY2BGR) rgb_mask_front = cv2.bitwise_not(rgb_mask_front) cv2.circle(rgb_mask_front, (int(x + w / 2), int(y + h / 2)), int((w + h) / 4), (0, 0, 0), thickness=-1) o_img = cv2.subtract(o_img, rgb_mask_front) return o_imgwhile True: ret, frame = cap.read() c_ret, c_frame = camera.read() gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY) fgmask = fgbg.apply(frame) # 形態(tài)學(xué)開運(yùn)算去噪點(diǎn) fgmask = cv2.morphologyEx(fgmask, cv2.MORPH_OPEN, kernel) gray_camera = cv2.cvtColor(c_frame, cv2.COLOR_BGR2GRAY) for i in range(15): fgmask = cv2.dilate(fgmask, kernel, iterations=1) faces = face_cascade.detectMultiScale(gray, 1.3, 5) out = resolve(frame, fgmask, faces) out = cv2.add(out, c_frame) cv2.imshow(’Result’, out) cv2.imshow(’Mask’, fgmask) k = cv2.waitKey(150) & 0xff if k == 27: breakout.release()camera.release()cap.release()cv2.destroyAllWindows()

以上就是python 使用OpenCV進(jìn)行簡單的人像分割與合成的詳細(xì)內(nèi)容,更多關(guān)于python opencv人像分割與合成的資料請關(guān)注好吧啦網(wǎng)其它相關(guān)文章!

標(biāo)簽: Python 編程
相關(guān)文章:
主站蜘蛛池模板: 国产精品乱码一区二区三区 | 久久成人精品一区二区三区 | 日本在线观看视频一区 | www.久久99| 成人激情视频在线观看 | 韩日精品视频 | 中文字幕第90页 | 91精品中文字幕一区二区三区 | 欧美激情一区二区 | 亚洲综合99| 日韩aaa久久蜜桃av | 91久久久久 | 婷婷中文字幕 | 视色网站 | 免费看一区二区三区 | 在线视频亚洲 | av黄色在线 | 久久91久久久久麻豆精品 | 亚洲精品影院 | 99久热精品| 久久综合九色综合欧美狠狠 | 狠狠干干| 成人欧美一区二区三区色青冈 | 夜夜操天天操 | 精品久久久久久久久久久久久久 | 国产美女网站视频 | 久久精品亚洲一区二区 | 国产一区二区视频在线观看 | 精品视频一区二区三区 | 精品99久久久久久 | 国产成人高清精品免费5388 | 无套内谢孕妇毛片免费看红桃影视 | 国产日韩精品一区二区 | 亚洲日韩中文字幕一区 | 国产精品毛片无码 | 成人福利视频网 | 国产妇女乱码一区二区三区 | 亚洲国产一区视频 | 欧美三级视频 | 久久99国产精品久久99果冻传媒 | 欧美综合在线观看 |