近日一段AI换脸视频火爆网络,一个网名叫换脸哥的Geek,将朱茵在94版射雕中的黄蓉换成了杨幂。 后来甚至有的主播利用类似技术,在直播平台上利用实时换脸技术,直接把自己换成某些一线明星来吸引眼球。 后来换脸哥直接下架了相关视频,并发声明称希望大家专注于技术本身。这起事件看起来只是一个娱乐版的头条,但是深入思考一下也会发现,视频换脸技术其实也给金融业普遍使用的如:客户交易视频资料留档、人脸交易授权等风控手段带来了一定风险。 ◆ ◆ ◆ 一、AI换脸技术的前世今生 其实对于PS中各种美颜、瘦脸和磨皮的技术,我想大家都不十分陌生了,甚至有的女生是专门根据美颜功能的高低而去选择相应手机的,不过这类图像处理技术的应用范围始终还是被圈定在静态图片的处理上。直到17年底一个网名叫”deepfakes”的人出现,在Reddit上发布了一段成人视频,而视频的主角却从根本从未参加过拍摄,一时之间受害的女星还很多,不过她们却发现deepfakes做法好像没有什么对应的法律能够约束,只能转向Reddit投诉,后来Reddit近于压力干脆直接封杀了deepfaks的账号。不过这次封杀却让deepfaks直接开源了其换脸项目的代码。 接下来的18年中AI换脸技术在科研学术研究领域和开源社区两个方向上都获得了不小的发展,在SIGGRAPH(暨国际计算机图形学会)的18年年会上一个由斯坦福大学、慕尼黑技术大学、巴斯大学等科研究机构联系研发的”Deep Video portrait”系统横空出世,该技术不但能让被替换的人脸完全模板原视频中人物的表情,甚至在放大对比时,两个视频在发丝和睫毛的表现上都能做到极度的精确,后来描述该技术的论文被发表在了《ACM图形交易上》,不过所幸的是研发”Deep Video portrait”技术的几家机构并没有公开其项目的源代码。 而在开源社区中AI换脸技术也是得到了相当多的关注,笔者初步在github上看了一下,由deepfaks衍生(如faceswap, deepfacelab)而来的开源项目数量不下十几个,其中以faceswap、Openfaceswap等开源项目为代码的换脸技术在github上的更新与讨论十分热烈,可以说完全看不到趋冷的迹象,极快的推动了开源换脸技术的迭代速度。而以FaceApp为代表的项目虽然没有开源,但是它们都提供了支持一键式操作的应用程序,极大的降低了换脸技术的使用门槛。 依据笔者在周末的亲身测试结果,如果有一定编程知识和基础的程序员大概只需要半天就能在开源社区的帮助下建立好相应的开发环境,代码调试中的问题也都能得到很快的解决;而如果完全没有编程基础的人士,只需要一块NVIDA的中高端显卡也能能够使用faceApp的应用程序来进行换脸操作,只是如果遇到问题需要另外付费咨询。 ◆ ◆ ◆ 二、AI怎么能把人脸换的毫不违和? 我们将原视频中的人物面部信息简称为faceA,将要被替换人物的面部信息简称为faceB. 1、人脸侦测和识别。首先要让机器通过含有faceA的视频定位并识别到其中的人脸特征值,通过深度学习将faceA还原到正面、平行均匀光照、标准亮度的场景下。接下来对含faceB的视频进行相同操作,将aceB也还原到正面、平行均匀光照、标准亮度的场景下。 2、确定变换矩阵:接下来我们对原视频的人脸信息进行定位与侦测,并进行特征提取(以下简称featureA),然后用featureA与faceA对比,找出faceA转换到featureA的所需扭曲、光照等变换的矩阵(以下简称transferA)。 3、人脸替换:对faceB进行基于transferA的变换,也就是把faceB还原到原视频的拍摄角度及光源场景下,形成新的人脸信息featureB,使用featureB对featureA进行替换。 4、对于视频中的每一祯信息重复以上操作直至结束。 所以了解清楚了AI的换脸原理,我们也能看出目前实时换脸的技术,还只能用在人正面面向镜头且不剧烈运动的场景,因为如果transferA非常复杂,对其进行计算的时间要求较高,基本无法达到实时换脸的效果。 不过实时换脸的这种局限也不能令我们放心,由于Depfakes算法本身就考虑了换脸时的光线、角度等方面,使其生成的假视频难以被反侦测;而且随着各类开源项目的兴起,换脸技术的应用对于大众来说其技术门槛也在不断降低。 ◆ ◆ ◆ 三、奇点来临,如何应对 在一年多之前视频伪造还几乎是个不可能完成的任务,不过随着技术的发展,AI换脸甚至AI换一切的技术都必然出现。那么面临这样一个如此具有颠覆性技术的到来,我们到底如何应对? 读到这里我相信很多读者都有这样的疑问,能否利用AI技术本身对于伪造的视频进行鉴定呢?而这个问题在开源社区中已经有过比较充分的讨论了。我们知道凡是机器学习都会有损失函数,是可以利用这个函数对两个面部特征不同的视频做做替换关鉴定,不过这种方法也有相当的局限,由于损失函数是换脸后的视频相对于原视频的概念,而不巧的是当你只有一个视频情况下,还没有任何稳定的方法能够鉴定它是否被修改过。所以结论就是如果几段视频中有真有假,AI可以帮助你鉴定真假,而如果一段孤本的视频,则没有办法去鉴定它是否为真。 所以我们必须要正视换脸技术所带来的直接冲击,那就是视频影像材料做为证据的效力大幅减弱。笔者在之前《为什么黎曼猜想会和你的钱包有关系》的文章中曾经介绍过,目前金融业的信息安全体系主要有对称和非对称加密两种,其中对称加密是防盗的,没我的钥匙就打不开我的箱子;非对称加密是防篡改的,改了我说的话就和我的签名对不上了,这里不加赘述,感兴趣的读者可以翻阅一下之前的文章。而目前视频可以被任意修改而无法被鉴定的根本原因,就在于目前还没有一种视频编码规范,能够满足可追溯、防篡改的要求。 其实访问照PDF文件的格式规范,简单来讲在每祯视频后加入签名信息,其实就能达到防篡改的目的,即便AI能够转录换脸,但是由于拿不到原作者的签名,很容易鉴别真伪。在这里我们也呼吁国家尽快建立基于国密算法的防篡改视频标准,并尽力能够使其成为国际标准,个人认为这也是我们国家的国密算法走向国际化的一个契机。 最后笔者还要指出,这种呼之欲出的视频编码规范,其实和区块链的机制具有强关联性的。我们知道区块链扬名立腕的根本就是其防篡改、分布式和时间戳的属性,那么我们不妨开个脑洞将监控、取证等证据效力要求较高的视频签名信息定时送上区块链,利用区块链的安全机制为视频防篡改多加一层保险,以达到提升安全性的目的。也让我们拭目以待,看看被AI打破的信任,能否被区块链重建。 < end > 如果您对本文有好的想法,就留下您的宝贵建议吧! 1、2万亿!李总理提出了史上最大规模的年度减税降费方案2、上海二手房市场“寒冬”依旧:降价成“标配”,一套房子降了120万才脱手3、30 万的特斯拉就要来啦!4、弃房产,买股票,中国居民资产配置转换元年到来5、10年实证:“看新闻炒股”成色几何? |
|
来自: 昵称72020678 > 《待分类》