
本文旨在解决在使用 OpenCV 处理图像时,如何实现透明遮罩效果的问题。通过创建和操作包含 Alpha 通道的 BGRA 图像,并结合 Alpha 混合和模糊技术,可以实现图像的透明叠加,从而创建类似 Snapchat 滤镜的效果。本文将提供详细的步骤和示例代码,帮助读者理解和应用这些技术。
理解 Alpha 通道和 BGRA 图像
在 OpenCV 中,图像通常以 BGR(蓝、绿、红)格式存储,每个像素包含三个颜色通道。然而,为了实现透明效果,我们需要引入 Alpha 通道,它代表像素的透明度。BGRA 图像包含四个通道:蓝、绿、红和 Alpha。Alpha 通道的值范围通常是 0 到 255,其中 0 表示完全透明,255 表示完全不透明。
创建 BGRA 图像
要创建 BGRA 图像,可以使用 cv2.imread() 函数加载图像,并使用 cv2.cvtColor() 函数将其转换为 BGRA 格式。如果需要创建空白的 BGRA 图像,可以使用 numpy.zeros() 函数创建一个四通道的 NumPy 数组,并指定数据类型为 np.uint8。
import cv2import numpy as np# 加载图像并转换为 BGRA 格式image = cv2.imread("face.jpg", cv2.IMREAD_UNCHANGED)if image.shape[2] == 3: # 如果是 BGR 图像,则转换为 BGRA image = cv2.cvtColor(image, cv2.COLOR_BGR2BGRA)# 创建空白的 BGRA 图像width, height = 500, 500bgra_image = np.zeros((height, width, 4), dtype=np.uint8)
注意: cv2.IMREAD_UNCHANGED 标志非常重要,它可以确保图像的 Alpha 通道被正确加载。
Alpha 混合
Alpha 混合是一种将两个图像组合在一起的技术,它根据 Alpha 通道的值来决定每个像素的颜色。在 OpenCV 中,可以使用以下公式进行 Alpha 混合:
result = alpha * foreground + (1 – alpha) * background
其中,alpha 是前景图像的 Alpha 通道值,foreground 是前景图像的颜色,background 是背景图像的颜色,result 是混合后的颜色。
以下是一个使用 OpenCV 进行 Alpha 混合的示例:
import cv2import numpy as np# 加载前景图像和背景图像foreground = cv2.imread("foreground.png", cv2.IMREAD_UNCHANGED)background = cv2.imread("background.png")# 确保背景图像和前景图像的尺寸相同background = cv2.resize(background, (foreground.shape[1], foreground.shape[0]))# 提取前景图像的 Alpha 通道alpha = foreground[:, :, 3] / 255.0# 将 Alpha 通道转换为三维数组alpha = np.repeat(alpha[:, :, np.newaxis], 3, axis=2)# 提取前景图像的颜色通道foreground_rgb = foreground[:, :, :3].astype(float)# 将背景图像转换为浮点数类型background = background.astype(float)# 进行 Alpha 混合result = alpha * foreground_rgb + (1 - alpha) * background# 将结果转换为 uint8 类型result = result.astype(np.uint8)# 显示结果cv2.imshow("Result", result)cv2.waitKey(0)cv2.destroyAllWindows()
模糊 Alpha 通道
为了使遮罩边缘更加平滑,可以对 Alpha 通道应用模糊操作。常用的模糊方法包括高斯模糊和均值模糊。
import cv2import numpy as np# 创建一个简单的遮罩(例如,一个圆形)mask = np.zeros((200, 200), dtype=np.uint8)cv2.circle(mask, (100, 100), 50, 255, -1)# 应用高斯模糊blurred_mask = cv2.GaussianBlur(mask, (15, 15), 0)# 创建一个 BGRA 图像,并将模糊后的遮罩作为 Alpha 通道bgra_image = cv2.cvtColor(cv2.merge((mask,mask,mask, blurred_mask)), cv2.COLOR_RGB2BGRA)# 显示结果cv2.imshow("Blurred Mask", blurred_mask)cv2.imshow("BGRA Image", bgra_image)cv2.waitKey(0)cv2.destroyAllWindows()
修改原代码实现透明遮罩
根据以上知识,修改原代码以实现透明遮罩效果,主要步骤如下:
确保读取的图像支持 Alpha 通道: 使用cv2.imread(“image.png”, cv2.IMREAD_UNCHANGED)读取图像,并检查读取的图像是否为4通道。如果不是,则创建一个带有Alpha通道的图像。
创建透明遮罩: 创建遮罩时,使用4通道(BGRA)图像。
Alpha混合: 使用上面介绍的Alpha混合方法将遮罩应用到原始图像上。
以下是修改后的代码示例(仅包含关键部分):
import cv2import timeimport numpy as npfrom OpenVtuber.TFLiteFaceDetector import UltraLightFaceDetecionfrom OpenVtuber.TFLiteFaceAlignment import CoordinateAlignmentModellip_index = [52,55,56,53,59,58,61,68,67,71,63,64]left_eye = [89,90,87,91,93,96,94,95]right_eye = [39,42,40,41,35,36,33,37]fd = UltraLightFaceDetecion("OpenVtuberweightsRFB-320.tflite",conf_threshold=0.88)fa = CoordinateAlignmentModel("OpenVtuberweightscoor_2d106.tflite")img = cv2.imread("face.jpg")orange = cv2.imread('orange.png', cv2.IMREAD_UNCHANGED) # Load with alpha channelif orange.shape[2] == 3: orange = cv2.cvtColor(orange, cv2.COLOR_BGR2BGRA)orange = cv2.resize(orange,(160,221))color = (0, 0, 255)start_time = time.perf_counter()def big_img(img,indexes): boxes, scores = fd.inference(img) for pred in fa.get_landmarks(img, boxes): landmarks = [] for i in indexes: landmarks.append(pred[i]) landmarks = np.array(landmarks,dtype=int) print(landmarks) x,y,w,h = cv2.boundingRect(landmarks) # Create a 4-channel mask (BGRA) mask = np.zeros((img.shape[0], img.shape[1], 4), dtype=np.uint8) cv2.drawContours(mask,[landmarks],-1,(255,255,255,255),-1) # Use 255 for alpha # Extract the ROI from the original image roi = img[y:y+h, x:x+w] # Resize the ROI result_big = cv2.resize(roi,(0,0),fx=4,fy=4) print(time.perf_counter() - start_time) return result_biglip = big_img(img,lip_index)lip = cv2.resize(lip,(75,28))eye_r = big_img(img,right_eye)eye_r = cv2.resize(eye_r,(45,19))eye_l = big_img(img,left_eye)eye_l = cv2.resize(eye_l,(45,20))# masking mask = np.zeros([121, 100, 4], dtype=np.uint8) # Create a 4-channel maskmask[0:19, 0:45 , 0:3] = eye_r[:,:,:3] # copy BGR channelsmask[0:19, 0:45 , 3] = 255 # set alpha to opaquemask[0:20, 55:105,0:3] = eye_l[:,:,:3]mask[0:20, 55:105,3] = 255mask[46:74, 16:91,0:3] = lip[:,:,:3]mask[46:74, 16:91,3] = 255x, y, w, h = [60, 100, 106, 121]# Extract the region of interest (ROI) from the orange imageroi = orange[y:y+h, x:x+w]# Blend the mask with the ROI using alpha blendingalpha = mask[:, :, 3] / 255.0for c in range(0, 3): orange[y:y+h, x:x+w, c] = (alpha * mask[:, :, c] + (1 - alpha) * roi[:, :, c])cv2.imwrite('result.png',orange)
总结
本文介绍了使用 OpenCV 实现透明遮罩效果的方法,包括理解 Alpha 通道和 BGRA 图像、Alpha 混合以及模糊 Alpha 通道。通过这些技术,可以实现图像的透明叠加,从而创建各种有趣的效果。在实际应用中,可以根据具体需求调整参数,例如模糊半径和 Alpha 值,以获得最佳效果。记住确保所有涉及的图像都支持 Alpha 通道,并且在进行混合操作时正确处理 Alpha 值。
以上就是使用 OpenCV 实现透明遮罩效果的详细内容,更多请关注创想鸟其它相关文章!
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 chuangxiangniao@163.com 举报,一经查实,本站将立刻删除。
发布者:程序猿,转转请注明出处:https://www.chuangxiangniao.com/p/1374109.html
微信扫一扫
支付宝扫一扫