分享

AI技术改变诈骗,新骗局来袭,诈骗成功率接近100%

 唯我--->独醉 2023-05-05 发布于广东

01

近日,一名拥有百万粉丝的女网红爆出了一起“AI换脸”事件。这名女网红表示,她的视频评论区突然涌来了很多人说看过她的“视频”,但她从未发布过这样的视频。

她疑惑地点开了这个视频,结果发现里面的女生和她长得一模一样,但做着一些难以描述的动作,让她感到非常愤怒和无助。她随即意识到可能是她的脸被人工智能(AI)盗用了。

文章图片1

AI技术发展迅速,最近爆火的AI换脸,大家不知道玩过没有。

只需要提供一张带脸的照片,就可以把自己置换成视频、电视剧中的男(女)主角,而且拟真度非常高,毫无违和感。

有人把鹿晗的脸置换到刘亦菲扮演的“小龙女”角色中,就是下面这个效果。如果不是事先看过《神雕侠侣》,还以为就是本人呢。

文章图片2

02

技术改变生活,也改变了骗术!骗子很快就把新技术应用到了骗术中

近日,福州的李先生遭遇了冒充领导诈骗,被骗了48000元。

以前我们都认为,冒充领导诈骗的骗子肯定不敢跟你打电话,更不敢跟你视频。

但是,这个骗子冒充李先生的领导“曾某”,伪造微信账号添加李先生后,竟然直接跟李先生微信视频,取得了李先生的信任。

视频中,李先生看到确实是领导“曾某”,其正在某会场开会,不便接听电话,打完招呼后转入文字聊天。

“曾某”说他有个亲戚正在参加一个项目竞标,急需周转资金,自己不便出面,想先将钱转给李先生,再借李先生的名义转给亲戚。

既然都视频确认过了,李先生不疑有他,向“曾某”提供的账户转账48000元,后发现被骗。

文章图片3
文章图片4
文章图片5
文章图片6

无独有偶。前些天,常州的小刘也被骗了。

骗子冒充小刘的初中同学找小刘借钱,不但给小刘发了语音,还打了视频电话。小刘看到“真人”后,相信了对方,“借”了6000元给骗子。

03

除了用AI换脸事先制作视频播放,有的软件还可以实时捕捉替换人脸,并且直接接替摄像头,用于视频聊天。

这款软件的操作很简单,只需要选择一张你要换脸的照片,比如爱因斯坦,软件就可以把你的脸换成爱因斯坦的脸。

这个时候,你做什么动作,这张人脸也会做什么动作,眨眼、张嘴、点头、摇头都可以,动作非常逼真。

文章图片7

骗子开发利用新技术的速度令人瞠目结舌。这样的骗局对只会看看视频玩玩微信的我们来说简直就是灾难。

我们一直说,“杀猪盘”的骗子不敢视频,冒充公检法的骗子不敢视频,各种冒充类的骗子不敢视频……

骗术在精进,在颠覆我们的认知,我们的认知却来不及改变。

抛开事后诸葛亮,试想你是福州的李先生,在领导和你视频聊天,明确表示他正在开会的时候,你真的会再打个电话去确认他的身份吗?

当然,李先生还犯了一个错误,在“曾某”所谓的转账没有到账的情况下,就给他的“亲戚”转了钱。

但是,并不是所有人都有那么谨慎,总有人在“领导”刻意的“关心”中胡思乱想,提前把钱转过去。

AI换脸技术大大提高了骗子诈骗的成功率,而这才刚刚开始,技术仍在飞速发展。

可以想见,很快AI换脸技术将在各类骗局中大量使用,就像半年内普及的共享屏幕一样。

可能某一天,你的“网恋女友”(抠脚大汉)会视着频撒着娇跟你要红包,你的“儿子们”要你把学费转到“老师”的银行卡里。也可能因此出现新的骗局。

如果事先不知道骗子的这些伎俩,被骗的可能性非常大。还是那句话:

你目前还没被骗,并不是因为你多聪明,也不是因为你没钱,而是适合你的“剧本”还在路上。

关注我,及时了解最新的诈骗套路。#你好守护者#

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多