分享

建议收藏!快速入门三维人脸重建学习

 awoziji 2022-08-16 发布于广东

本次的例子是将pipeline生成的图片作用于3DMM,重新拟合成新的图片。

图片

load model

3DMM的表达式:

图片

 S∈ 𝑅3𝑛是平均人脸形状,𝐴 脸扫描训练得到的身份基,𝛼𝑖𝑑是人脸的身份参数。𝐴𝑒𝑥𝑝是表情基,𝛼𝑒𝑥𝑝是人脸的表情参数。这个公式只要我们确定199维的形状参数和29维的表情参数就可以得到一张三维模型。

bfm = MorphabelModel('Data/BFM/Out/BFM.mat')

这里面是使用牙买加人脸,200个人脸,

男生与女生个100个训练出来的。

这个mode里面有:

'shapeMU': [3*nver, 1]. *  自然状态下的一个人脸 'shapePC': [3*nver, n_shape_para]. *  s1,s2  有199 特征向量 'shapeEV': [n_shape_para, 1]. ~   形状的特征值 'expMU': [3*nver, 1]. ~       有平均的表情形状,有一个人脸 'expPC': [3*nver, n_exp_para]. ~    有29个表情特征向量 'expEV': [n_exp_para, 1]. ~          有29个特征值 'texMU': [3*nver, 1]. ~           有平均形状的纹理 'texPC': [3*nver, n_tex_para]. ~   有纹理199特征向量 'texEV': [n_tex_para, 1]. ~           有 199纹理特征值 'tri': [ntri, 3] (start from 1, should sub 1 in python and c++). *  105840行三角形 'tri_mouth': [114, 3] (start from 1, as a supplement to mouth triangles). ~  嘴114 'kpt_ind': [68,] (start from 1). ~    在53215中其中68个是关键点

可以看到我们将表情的与形状的值;

加起来得到新的。

model['shapeMU'] = (model['shapeMU'] + model['expMU']).astype(np.float32)model['tri'] = model['tri'].T.copy(order = 'C').astype(np.int32) - 1 #减一是从1开始,从零开始model['tri_mouth'] = model['tri_mouth'].T.copy(order = 'C').astype(np.int32) - 1 114,3 包含嘴的三角形 # kpt indmodel['kpt_ind'] = (np.squeeze(model['kpt_ind']) - 1).astype(np.int32)#原始的索引都是从1开始的,68个索引。
 

generate face mesh

根据3DMM我们知道就可以生成一张图片,我们将需要的参数进行随机数乘以一个非常大的数。

sp = bfm.get_shape_para('random')#形状 ep = bfm.get_exp_para('random')#表情

(-1.5,1.5)之间,

有可能增强表情,优肯削弱表情。

在根据sp, ep的参数,

根据3DMM公式去生成人脸。

图片

公式对应的的代码

vertices = self.model['shapeMU'] + self.model['shapePC'].dot(shape_para) + self.model['expPC'].dot(exp_para)vertices = np.reshape(vertices, [int(3), int(len(vertices)/3)], 'F').Tcolors = self.model['texMU'] + self.model['texPC'].dot(tex_para*self.model['texEV'])colors = np.reshape(colors, [int(3), int(len(colors)/3)], 'F').T/255.
 

随机生成的三维人脸如下:

图片

transform vertices to proper position

我们将随机生成的三维人脸经过👇

s = 8e-04 angles = [10, 30, 20] t = [0, 0, 0]

这次我邀请了一线大厂算法工程师Johnson,2小时直播带大家精读论文,并给大家详细解读3DMM算法,现在扫码支付0.1元还可以领取代码数据集。

扫码支付0.1元预约直播

直播结束后提供课件&代码数据集

pipepline中讲过,通过s,a,t可以直接生成下面的图片左图所示。对应的三维模型右图所示。这是通过代码生成的图片。

      图片

本节介绍怎样通过3DMM来拟合生成跟输入的上述图片近似一样。

代码中取出68个点进行比较。

x = projected_vertices[bfm.kpt_ind, :2]

接下来需要68个点x,68个点对应的索引。

fitted_sp, fitted_ep, fitted_s, fitted_angles, fitted_t = bfm.fit(x, X_ind, max_iter = 3)

x: (n, 2) 是二维图片的坐标,

X_ind:代表的是68个点对应的索引的三维点。

max_iter:是迭代的次数。

3.1 fit_points

进行优化

fitted_sp, fitted_ep, s, R, t = fit.fit_points(x, X_ind, self.model, n_sp = self.n_shape_para, n_ep = self.n_exp_para,max_iter = max_iter)
图片

接下来看代码:

sp = np.zeros((n_sp, 1), dtype = np.float32) ep = np.zeros((n_ep, 1), dtype = np.float32)
图片
shapeMU = model['shapeMU'][valid_ind, :] shapePC = model['shapePC'][valid_ind, :n_sp] expPC = model['expPC'][valid_ind, :n_ep]

上面的shapeMU是根据平均人脸,shapePC选出平均的199个包含68个关键点的人脸,expPC选出29个表情包含68个关键点的人脸。

图片

上面的就是以前53215个点,现在变成68个点进行采集,204是68*3,3表示的是x,y,z

接下来进行迭代:

for i in range(max_iter):

我们根据3DMM公式:

图片

对应的代码为:

X = shapeMU + shapePC.dot(sp) + expPC.dot(ep) #X.shape=(204, 1)

将(204,1)变成(3,68)

X = np.reshape(X, [int(len(X)/3), 3]).T
 

3.2 estimate_affine_matrix_3d22d

这个函数是我们要找一个变换将三维空间的点变换到一个二维空间的点。

X表示三维的点,x表示二维的点。

X = X.T; x = x.T assert(x.shape[1] == X.shape[1]) n = x.shape[1] assert(n >= 4)

这里面我们要解方程组,八个未知数,

所以n的大于等于4才能解出方程组。

求x的均值,求模长的平均

x = x - np.tile(mean[:, np.newaxis], [1, n])average_norm = np.mean(np.sqrt(np.sum(x**2, 0)))scale = np.sqrt(2) / average_norm #0.03789943607443278

为什么是np.sqrt(2),

因为边长为1的等腰直角三角形的斜边

就是np.sqrt(2)

三维的点同理可得:

图片

我们需要求八个数,来得到二维坐标

A = np.zeros((n*2, 8), dtype = np.float32); X_homo = np.vstack((X, np.ones((1, n)))).T A[:n, :4] = X_homo A[n:, 4:] = X_homo b = np.reshape(x, [-1, 1])X1=P1X1+P2X2+P3X3+P4Y1=P1Y1+P2Y2+P3Y3+P4X1=P1XZ1+P2YZ2+P3Z3+P4Z

可使用下面的代码可得

图片

我们估计P矩阵,第一行是P8的前四个数,

第二行是P8的后四个是

第三行是0 0 0 1,

通过齐次坐标可以是x=PX

实现二维点与三维点的转换。

这里面的UV是下面的这个图:

图片

这次我邀请了一线大厂算法工程师Johnson,2小时直播带大家精读论文,并给大家详细解读3DMM算法,现在扫码支付0.1元还可以领取代码数据集。

扫码支付0.1元预约直播

直播结束后提供课件&代码数据集

3.3 P2sRt(P)

图片

  • 代码对应的意思就是将x,y,z旋转之后到x,y的坐标轴上。

  • 主要恢复S,R,T

3.4 matrix2angle(R)

主要用R矩阵恢复夹角。

x: pitch
y: yaw
z: roll

图片

会把旋转的三个角度算出来,

把算出来的三个角度,

与一开始生成图片的角度的图片,

10,30,20,匹配看是否相等,

那么根据步骤(2 再固定αi,βi 优化s,R,t )

我们已经把s,r,t估计出来了,

那就会估计 αiβi 形状参数和表情参数。

3.5 estimate shape

下面就是估计

3 固定s,R,t,先优化βi 

代码里面是estimate_expression.

4 固定s,R,t,在优化αi

代码里面是estimate_shape.

图片

verify fitted parameters

接下来就是通过参数进行顶点的生成,通过s,r,t得到旋转的顶点,然后渲染回2D图片,具体可详看pipepline。

# verify fitted parameters fitted_vertices = bfm.generate_vertices(fitted_sp, fitted_ep) transformed_vertices = bfm.transform(fitted_vertices, fitted_s, fitted_angles, fitted_t)  image_vertices = mesh.transform.to_image(transformed_vertices, h, w) fitted_image = mesh.render.render_colors(image_vertices, bfm.triangles, colors, h, w)

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多