分享

1080Ti 就搞定最新 SOTA 模型?一个普通研究生勇敢发毕业论文引起热议

 黄爸爸好 2021-06-10

图片

转自 | 新智元

来源 | Reddit

编辑 | 好困

除了在顶会或者期刊上发表过的,一般人基本都会把自己的毕业论文「雪藏」起来。然而,有这么一位研究生不仅把自己的论文发了出来,还表示自己用1080Ti训练的比SOTA模型更厉害。

大厂用成千上万张显卡训练的SOTA模型已经看腻了?这次我们来看看「小作坊」训练的模型如何。

图片

图片

图片

图片

慕尼黑大学的研究生做了一个Deep Fake模型,只用了300万个参数和一个1080Ti,搞定!堪比SOTA!

图片

虽然作者是这么说的,但是从他发布的成果上来看,有些一言难尽。

左边是原本的视频,右边是提供声音的素材,中间是生成的Deep Fake视频

由于样本只提供音频素材,所以声音还是样本的声音,听起来违和感简直要溢出屏幕了。好在不会出现像其他一些视频那样把整张脸贴上去那么搞笑。

图片

网友用FakeAPP生成的视频

作者表示,和一些SOTA模型相比,论文的方法除了具有较低的嘴唇同步误差,同时在图像质量方面要优于所有方法。

从左到右依次是:原视频,文章的方法, Neural Voice Puppetry,Wav2Lip和Wav2Lip GAN


全连接网络就够了

模型基于3D可变形人脸模型 (3DMM),并具有 3D 面部的位置编码和从英语语音中提取的音频特征。

对于给定的语音,模型可以预测中性空间的RGB颜色和3D顶点位移。音频特征向量过滤的时间稳定性可以提供平滑的唇音同步。

图片

文章表示,模型可以接受任意音频输入,并生成逼真的面部图像。

模型首先提取梅尔频率倒谱系数(MFCC)特征,音频的嵌入由Wav2Lip编码器生成。

然后,变形(deformation)网络输出人物面部形状的网格,且不受3DMM的限制,并在之后利用恒等函数对3D形状进行优化。

最后,由音频驱动的图像由颜色(color)网络输出。

图片

为了将输出图像嵌入到背景中,需要单独训练另一个基于背景和先前输出的合成网络。

图片
模型每个部分的输出,从左至右:变形网络、颜色网络、合成网络

再来一个例子,从左至右依次是:原始的视频,渲染后的视频,仅用于获取音源的视频。


网友表示:你这个不行啊

对于项目本身,评价基本是负面的。

「那么,这与在奥巴马的静音视频上播放音频的结果有什么不同呢?」

图片

「奥巴马的嘴唇似乎并没有遵循着说话的轨迹」

图片

不仅如此,对于Deep Fake这类的研究,网友普遍对其伦理道德方面表示担忧。

「有时我想到这些技术是如何被滥用的,这让我对未来感到有点难过」

图片

「它不仅会陷害无辜者,也会为有罪者提供合理的推诿」

图片

「所以你决定既要改进deep-fake,又要使用凯文-史派西(有道德污点)。你基本上是每个人工智能伦理学家最糟糕的噩梦。」

图片

这件事从另一个方面告诉我们,不要把自己的毕业论文发出来,难道来自导师的嘲讽还不够么😂

论文地址:

https://www./s/o0hk73j1dmelcny/ThesisTUM.pdf?dl=0

参考资料:

https://zielon./face-neural-rendering/

图片

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多