深度伪造:信息流中的隐秘挑战与应对之策

2024-11-01

一、深度伪造技术的崛起

图片1.jpg

(一)定义
深度伪造技术(Deepfake)是指利用人工智能、机器学习、神经网络等方法来伪造图片、音频及视频等内容的一种技术手段。它是人工智能技术发展过程中衍生出来的,核心原理是利用生成对抗网络或者卷积神经网络等算法对语音、图像、文字等信息内容进行修改。例如,2017 年,一位网名为 “deepfakes” 的用户利用人工智能技术,将以色列女演员盖尔・加朵的脸替换在色情片女主角上,并发布一系列换脸女明星的色情片视频,深度伪造技术由此首次出现在大众视野。

(二)生成模型

基于深度学习的生成模型是深度伪造的技术基础,主要有生成对抗网络(GAN)和变分自编码器(VAE)。生成对抗网络包括生成器和分类器,通过两者的对抗训练,最终达到生成以假乱真的图片的目的。目前较为常用的生成对抗网络模型有 InfoGAN、CycleGAN 等。变分自编码器相比自编码器具有更好的耐噪声能力,在深度伪造过程中通过添加解码器和编码器或者在编码中注入信息来进行身份或动作的篡改。

(三)检测技术

深度伪造技术的发展带来了严重的安全威胁,因此人们开始关注针对深度伪造技术的对抗策略。图像与视频的深度伪造检测技术主要分为针对伪造痕迹进行取证的检测方法和数据驱动的检测方法。前者主要检测 “图像处理取证,生物信息,融合痕迹,时序连贯和模型指纹” 等图像伪造痕迹;后者则利用卷积神经网络对常用的人脸伪造方法进行检测,得到相关的特征向量,再判断输入图像是否经过伪造。语音深度伪造检测一般分为前端和后端,分别从音频中提取声学特征,以及利用分类模型根据声学特征对目标音频进行分类,从而判断语音是否经过伪造。目前,一些先进的深度伪造检测工具和技术也在不断涌现,如 Sentinel、英特尔的实时深度伪造检测器、WeVerify、微软视频验证工具以及使用音视元素不匹配进行深度伪造检测的技术等。这些工具和技术利用先进的人工智能算法,以不同的方式分析和检测深度伪造,为应对深度伪造的威胁提供了有力的手段。

二、深度伪造带来的风险与挑战

(一)国际关系受影响

深度伪造技术对国际关系的影响不可小觑。它会破坏国际社会的战略互信并冲击脆弱的和平环境。从国际形势稳定的角度看,深度伪造与其他颠覆性数字技术相结合,将极大地降低全球和区域多边机构以及国际关系行为体彼此间的信任。根据美国权威数据科学公司的一项测试,通过语音生成算法,只需要借助两小时的语料并训练五天时间,就可以模拟一份以假乱真的特朗普向俄罗斯宣战的语音。对于在国际社会试图制造事端的国家与非国家行为体而言,它们可以随时获取和利用深度伪造技术,扩大参与并深度影响国际关系形势。
深度伪造很可能会成为国际恐怖活动的催化剂。早期的恐怖组织缺乏制作虚假但可信的音频和视频的资源,如今随着深度伪造技术的成熟,它们可以轻而易举地制造这类作品了。恐怖组织通过深度伪造的视频或音频,针对对手包括政府官员发表煽动性言论或从事挑衅性行动,最大限度地对其目标受众产生有利于恐怖组织的影响。例如,恐怖组织可能利用深度伪造技术制作虚假的领导人讲话,煽动民众的不满情绪,从而达到其恐怖活动的目的。

(二)新闻舆论被操纵

深度伪造技术可能操纵新闻舆论,消解公众信任,影响社会稳定。人工智能为虚假信息的传播者提供了快速侦察目标国家社交媒体受众并识别其心理弱点的能力。人工智能驱动的系统可以快速生成修改过的内容和深度伪造的数字产品,从而推动针对目标国家民众和国家利益的虚假叙事,冲击目标国家民众的心理。
众所周知,我们对世界的经验以及我们对世界作出自信判断能力需要我们有一些证据来源。然而,深度伪造技术的出现使得这些证据的真实性受到了挑战。虚假的新闻报道、视频和图片可能会误导公众,影响公众对事件的判断和决策。例如,在一些重大事件中,深度伪造的新闻报道可能会引发社会的恐慌和不稳定。
此外,深度伪造技术还可能被用于政治目的,影响选举结果。虚假的候选人演讲视频、新闻报道可能会误导选民,影响选举的公正性和合法性。在一些国家的选举中,已经出现了深度伪造技术被用于影响选举的情况,这引起了国际社会的广泛关注。

三、深度伪造在信息流中的具体影响

(一)虚假视频问题突出

在快手信息流投放中,常常会遇到新计划新素材流量少以及老计划老素材消耗低等问题。新计划新素材流量少可能表现为新广告是否过审、新广告计划 / 组是否开启、日预算是否过低等情况。若出现这些问题,需要检查基础设置、适当提高日预算。同时,定向是否过多也会影响流量,适当放开定向后,1 - 2 个小时观察曝光数量。此外,新广告视频内容若和历史素材一致也会导致流量少,此时需要修改素材,视频情节可以一致,但拍摄的主人公要不一致。还有 OCPC 出价过低的情况,可适当提高目标转化出价(5%-20%),3 个小时调整一次。若自查无果,可提供广告计划、组、广告 ID 给快手运营,说明具体表现及尝试的操作。
老计划老素材可能会出现 ECPM 高但消耗低的情况。定向过多时,适当放开定向,放开后 1 - 2 个小时观察曝光数量。若 ECPM 每小时持续下跌、CTR 每小时下跌,可更换视频封面。广告质量分过低、负反馈多、素材过于虚假诱导时,需要修改视频内容。实际 CVR 过低时,要检查视频是否引导下载、视频与页面内容相关性是否高、下载地址 / 表单提交是否畅通。自查无果同样可提供广告计划、组、广告 ID 给快手运营,说明具体情况及尝试操作。

(二)网络欺诈难题

深度伪造技术给消费者和企业带来了巨大损失,成为网络欺诈的难题。例如,仅 2022 年一年,冒名欺诈就给英国消费者造成了 1.07 亿英镑的损失,给美国消费者造成了 26 亿美元的损失,给新加坡造成了 1.01 亿新元的损失。在中国,利用 AI 实施电信诈骗的案例也屡见不鲜。2023 年 5 月,内蒙古包头市公安局电信网络犯罪侦查局发布一起使用智能 AI 技术进行电信诈骗的案件,福州市某科技公司法人代表郭先生 10 分钟内被骗 430 万元。骗子通过智能 AI 换脸和拟声技术,佯装好友对他实施了诈骗。
在企业侧,不法分子可通过深度伪造技术伪造员工身份,进而非法访问企业内部系统。通过精心制作的伪造视频和音频,模仿高层管理人员的面部表情、语气甚至行为模式,增加对指令的信任度,实现非法操作或窃取敏感数据。这不仅可能导致企业遭受重大经济损失,还可能泄露核心商业机密,影响企业的竞争力。Gartner 预测,到 2026 年,30% 的企业将因为 AI 生成的人脸生物识别深度伪造攻击,而认为此类身份认证和验证解决方案不再能够起到可靠的作用。到 2025 年,生成式 AI 的采用将导致企业机构所需的网络安全资源激增,使应用和数据安全支出增加 15% 以上。

四、应对深度伪造的策略

(一)加强法律法规

政府在应对深度伪造技术带来的风险中起着至关重要的作用。制定相关法律法规是明确深度伪造技术使用边界和责任的关键步骤。例如,中国已出台《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》和《生成式人工智能服务管理暂行办法》等法律法规,对计算机合成内容进行管控,要求对算法生成合成的信息做显著标识,并明确了提供互联网新闻信息服务的算法推荐服务提供者和使用者的责任,不得生成合成虚假新闻信息。
欧盟于 2022 年 6 月更新《反虚假信息行为准则》,要求社交媒体公司从其平台上删除深度伪造和其他虚假信息,否则将处以高达公司全球营收 6% 的罚款。欧盟《数字服务法》也要求平台展示举报和删除非法内容的机制。
美国众议员也提出了相关法案,如《真实的政治广告法案》和《人工智能披露法案》,对竞选广告提出人工智能生成内容披露要求,在任何人工智能生成的内容中添加披露声明。
通过这些法律法规的制定和实施,可以有效地加强对深度伪造技术的监管,打击利用该技术进行的违法犯罪活动。

(二)技术防范

科技公司和研究机构应承担起技术防范的重任。加大对深度伪造技术的研究力度,开发相应的技术手段来检测和防范深度伪造内容的传播。
目前,已经有许多先进的深度伪造检测技术涌现出来。例如,英特尔推出的 FakeCatcher 实时深度伪造检测仪,以 96% 的准确率检测出虚假视频,并在几毫秒内返回结果。微软视频验证工具可以分析静态照片或视频,并提供置信度分数,以表明媒体是否被操纵,检测深度伪造的混合边界和人眼无法察觉的细微灰度元素。
此外,基于频域信息的深度伪造检测算法也取得了优秀的准确率和 ROC 曲线下面积,且在面对低质量视频时,具有更好的鲁棒性。
科技公司和研究机构还应不断创新,提高虚假内容识别准确率,为防范深度伪造提供更强大的技术支持。

(三)提高公众意识

加强对深度伪造技术的科普宣传是提高公众辨别能力的重要途径。通过教育和培训,提高公众的科学素养,增强对深度伪造技术的认知和警惕。
可以利用各种媒体渠道,如电视、报纸、网络等,向公众普及深度伪造技术的原理、风险和识别方法。例如,介绍深度伪造技术是如何通过人工智能算法生成虚假内容的,以及如何通过一些特征来判断视频、音频或图像是否为深度伪造。
同时,还可以通过举办科普讲座、展览等活动,让公众亲身体验深度伪造技术的效果,提高他们的辨别能力。
提高公众意识不仅可以减少深度伪造对个人的影响,还可以形成全社会共同防范深度伪造的良好氛围。