分享

Deepfake日益商业化将给亚太地区的信息空间带来新的挑战

 小飞侠cawdbof0 2023-07-18 发布于北京

摘要随着人工智能技术的不断发展,新的技术不断涌现,“深度伪造”(deepfake)技术就是其中之一。“深度伪造”技术可以让视频或图片中的人脸与其他人的人脸交换,以伪造媒体内容。该技术的迅速发展和日益商业化给亚太地区的信息空间带来了前所未有的挑战。本文探究了“深度伪造”技术对信息安全的影响,并提出了一些建议,为各国更好地应对该技术所引发的一系列问题提供了参考。

关键词:deepfake,深度伪造,人工智能,影响力活动,信息安全

图片

2022年底,美国一家情报公司Graphika称其观察到一场利用计算机生成形象进行的影响力行动,这再次让人们聚焦“深度伪造”(deepfake)技术的使用。据称,栩栩如生的人工智能形象以一个名为“Wolf News”的视频节目新闻主播的身份,报道了美国的枪支暴力事件以及中美合作对全球经济从新冠肺炎疫情中复苏的重要性等符合中国利益的内容。Graphika和其他研究人员在此前的调查中发现,通过人工智能生成虚拟形象并剪辑视频断章取义的目的是为了编造个人的言语或行为从而对他人进行误导,而此次“Wolf News”事件与之前其他人工智能生成的图像或媒体的区别在于,该行动将“深度伪造”技术生成的虚假人物角色融入到了一场所谓“国家”级别的信息行动当中。

这一案例使对“深度伪造”的担忧成为公众讨论的热点话题,一个严峻的问题随之诞生:“深度伪造”和虚假信息会造成什么影响,以及加深“深度伪造”技术的商业化有何意义?

“深度伪造”是由一种名为“深度学习”(deep learning)的特定人工智能生成的。“深度学习”算法可以让视频或图片中的人脸与其他人的人脸交换。2021 年,“深度伪造”通过名人在网上的变脸照片成为了公众关注的焦点。那年,汤姆克鲁斯(Tom Cruise)在抖音海外版(TikTok)上的“深度伪造”视频中展示了自己的超现实角色,并以此吸引了大量关注。

“深度伪造”现在在社交媒体上无处不在,人工智能功能和应用程序让用户能够生成自己的形象,或者创建一个全新的角色。将“生成式对抗网络”(GANs)添加到“深度伪造”的程序中,可以创建一种新的人脸,这种人脸在算法学习数据中找不到、也跟现有的人脸毫无关系。这些技术的普及使越来越多的公司乐于提供与人工智能形象相关的应用程序和功能。人工智能技术的进步让我们越来越难以区分真实图像和“深度伪造”图像,这也进一步模糊了事实和虚构之间的灰色界限。

图片

在影响力活动和虚假信息运动中使用“深度伪造”技术并不是什么新鲜事。研究人员已经确定了多个涉及使用“深度伪造”的“协同欺骗行为”(coordinated inauthentic behavior)实例。2019年,脸书(Facebook)删除了一个由900个页面组成的协同欺骗网络,这些账号主要在越南管理。大多数被识别删除的账户都是利用人工智能生成的虚假个人资料照片在脸书上创建的虚假账号,这些账号在脸书群组中伪装成美国人。其中还有些账号使用了人工智能技术生成的记者和顾问的虚假个人资料照片。这些超现实的“深度伪造”照片与虚假的记者身份相结合,为保守派的在线出版物撰写文章。

“深度伪造”的潜在影响已经敲响了警钟。联邦调查局(FBI)在2021年3月的威胁评估报告中警告称,在网络上和外国影响力行动中使用的人工合成内容可能会被恶意行为者利用。评估报告进一步指出,涉及人工智能生成的合成个人资料图像的影响力行动尤其令人担忧,这可能会让操纵者在“深度伪造”生成的人物角色背后掩盖自己的身份,从而在网上传播虚假信息。

“深度伪造”在亚洲已被用于实现政治目的。2020年,印度立法议会选举期间,一个与“深度伪造”有关的政治竞选案例引人注目。印度人民党(BJP)主席马诺伊·蒂瓦里(Manoj Tiwari)将操纵视频传播到了德里及周边地区的5700个WhatsApp群组,约1500万印度人浏览了该视频。人工智能生成的人脸被用于亚洲的“协同影响力运动”。在其中一个案例中,操纵者利用人工智能生成的人脸作为个人资料图片,再用这些图片创建了社交账号,并建立一个由14个不真实的推特账号组成的群,以此进行特定推广活动。人工智能生成人脸使操纵者无需偷窃个人资料图片来伪装虚假账号,这也避免了其被传统调查技术检测到。

随着“深度伪造”的兴起,生产高质量高级“深度伪造”内容的公司数量也在增加。这些公司的服务主要用于娱乐和培训,例如制作客户视频和人力资源视频。但生成“深度伪造”视频的商业服务的兴起为影响力活动的操纵者(无论是否有国家支持)提供了容易获得的资源。这引发了人们对规范“深度伪造”技术服务的担忧。

由于合成媒体在社交媒体和互联网上的流行,合成媒体的商业应用将继续保持增长趋势。为虚假信息或政治目的制造的高质量“深度伪造”内容在未来可能会更频繁地出现。这种商业化的“深度伪造”可能会成为世界各地宣传人员制造虚假信息的关键工具,而类似Clearview AI这样同时具备先进人工智能能力和大型数据库的公司可以帮助其所在国家在信息战和认知战中获得优势。

专业从事“深度伪造”内容生成的公司也可能会增加,这可以为希望发起虚假信息活动的客户(无论是否有国家支持)提供一整套完整的工具。“深度伪造”可以作为宣传活动的一部分,以提高宣传效果。这可能会导致生产“深度伪造”内容成为一种小作坊式服务。

GPT是一种在大量文本上训练的“深度学习”神经网络语言模型,它与“深度伪造”的合并引发了人们的进一步担忧,因为该技术的发展领先于政府的监管。多种技术的结合可以放大恶意行为者的影响,为敌对意图制造更令人信服的媒体假象,进一步破坏社会信任和可信度。

当被问及有人利用其公司提供的服务制作了立场偏向中国的视频时,Synthesia公司的首席执行官强调,监管机构需要就如何使用人工智能工具制定更明确的规则。合成媒体应用程序和服务的越发商业化,以及监管机构对人工智能工具的使用缺乏明确规范,使得虚假信息在网上泛滥。监管机构应设定监管“深度伪造”的参数和规则。欧盟的《人工智能法》( Artificial Intelligence Act)是世界上第一部关于人工智能的立法,该法要求创作者标明“深度伪造”的内容。这一立法可能于2023年通过。

在亚洲,中国禁止使用“深度伪造”,因其对国家安全和社会有害。中国的新规定要求“深度伪造”内容必须明确标记为合成或编辑的内容,并且公司必须知晓“深度伪造”的个人身份。美国、英国、韩国等国家和地区也在进行类似的监管尝试。

关注公共教育对于规范“深度伪造”技术也有所帮助。人们往往高估了自己区分真实和虚构视觉内容的能力,并且通常在防范视觉欺骗方面的能力不强。现有的媒体素养和事实核查举措可以继续在提高公众对“浅度伪造”和“深度伪造”的认识方面发挥作用,同时提高视觉识读的重要性。

公众既要接受媒体素养培训,也要接受全面的信息识读培训,其中视觉识读培训尤为重要。这可以提高公众对“深度伪造”的认识和理解。公众参与可以帮助人们了解“深度伪造”相关的人工智能技术的新进步所带来的潜在危害。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多