生活不易 我用python

人脸融合?没有想象中难!

2018-04-29  本文已影响1079人  zibin

颜如玉

颜如玉 —— python + opencv 人脸融合程序,可实现类似天天P图疯狂换脸、face++人脸融合效果

项目描述

最近随着各种技术的发展,图像方面的人脸处理技术越来越广泛。各大相机软件都有美颜、贴图、换发型、变脸等功能。天天P图与Face++也都推出人脸处理的 API,不过价格方面就有点不亲民了。于是本人将之前研究完成的人脸融合算法开源出来。

本文会一步步带你了解人脸融合的实现过程。

效果对比

国际惯例,我们看看颜如玉与天天P图、Face++合成效果的对比:

模特图 与 待融合图 结果对比

实现步骤

零、融合函数

先看看程序入口函数

core.face_merge(src_img='images/model.jpg',
                    dst_img='images/20171030175254.jpg',
                    out_img='images/output.jpg',
                    face_area=[50, 30, 500, 485],
                    alpha=0.75,
                    blur_size=(15, 10),
                    mat_multiple=0.95)

参数含义:

一、 检测及关键的定位

人脸的检测以及关键点定位有多种实现方案

本文采用的是Face++的 api,因为商用情况下 Face++ 定位的定数最多

// 获取两张图片的人脸关键点(矩阵格式与数组格式)
src_matrix, src_points, err = core.face_points(src_img)
dst_matrix, dst_points, err = core.face_points(dst_img)

二、对齐人脸角度

在待融合图人像不是侧脸的情况下,我们可以同过调整平面位置及角度让其与模特图的人脸重合

    // opencv 读取图片
    src_img = cv2.imread(src_img, cv2.IMREAD_COLOR)
    dst_img = cv2.imread(dst_img, cv2.IMREAD_COLOR)

    dst_img = transformation_points(src_img=src_img, src_points=src_matrix[core.FACE_POINTS],
                                    dst_img=dst_img, dst_points=dst_matrix[core.FACE_POINTS])

对齐采用“常规 Procrustes 分析法”
具体算法来源:matthewearl 个人博客步骤2
对齐结果:

结果展示

三、再次取点后融合脸部

对步骤二转换后的带融合图片再次取关键的,然后与模特图的关键点一起做三角融合成新的图片

dst_img = morph_img(src_img, src_points, dst_img, dst_points, alpha)

融合结果:


结果展示

具体的三角融合算法解说参考这篇文章

四、处理加工模特图片

再次对上一步的结果图进行取点,然后运用三角仿射将模特图片脸部轮廓、关键点变形成上一步得到的脸部关键点

src_img = tran_src(src_img, src_points, dst_points, face_area)

处理结果:


结果展示

五、将融合后的脸部贴到模特图上

最后一步是将融合后的新图片脸部区域用泊松融合算法贴到模特图上。泊松融合可直接使用opencv提供的函数

dst_img = merge_img(src_img, dst_img, dst_matrix, dst_points, k_size, mat_multiple)
def merge_img(src_img, dst_img, dst_matrix, dst_points, k_size=None, mat_multiple=None):
    face_mask = np.zeros(src_img.shape, dtype=src_img.dtype)

    for group in core.OVERLAY_POINTS:
        cv2.fillConvexPoly(face_mask, cv2.convexHull(dst_matrix[group]), (255, 255, 255))

    r = cv2.boundingRect(np.float32([dst_points[:core.FACE_END]]))

    center = (r[0] + int(r[2] / 2), r[1] + int(r[3] / 2))

    if mat_multiple:
        mat = cv2.getRotationMatrix2D(center, 0, mat_multiple)
        face_mask = cv2.warpAffine(face_mask, mat, (face_mask.shape[1], face_mask.shape[0]))

    if k_size:
        face_mask = cv2.blur(face_mask, k_size, center)

    return cv2.seamlessClone(np.uint8(dst_img), src_img, face_mask, center, cv2.NORMAL_CLONE)

函数示意图:


步骤展示

总结

融合到此就大功告成了,具体的代码已经开源在本人 Github 上。
融合后还可对结果进行美颜处理,以达到更好的效果!

感谢阅读。

上一篇下一篇

猜你喜欢

热点阅读