深度伪造:AI正在使谎言变成事实!

发布日期: 2019-10-14 17:33      作者: 薪火科技

70年前,乔治·奥威尔(George Orwell)在他的开创性小说《1984》中向我们介绍了 “真理部”。主角温斯顿(Winston)在一栋阴暗的楼里工作,负责对旧报纸上人物和事件的“不准确描述进行编辑”。但温斯顿很早就向读者坦白,他知道那些所谓的“不准确描述”其实曾经真实发生过,只不过最近,在被称为“党”的政治寡头看来,这些信息非常不利。

温斯顿能够篡改过去,进而篡改民众的共同记忆,对此他悲叹不已。有一天,他对他的情人裘莉亚(Julia)喃喃沉思:“你有没有意识到,过去,也就是从昨天往回数,其实都已经被丢弃?每项历史记载都已被销毁或篡改,每本书都已被重写,每张图片都已被重画,每座雕像、每条街道、每栋建筑,都已被重新命名,每个日期都已被改变。这个过程每天都在重复,每分钟都在重复。历史已经停止了。什么也没有了,剩下的只是一个永远存在且从不会犯错的‘党’。”

在写这部科幻小说时,奥威尔心怀的或许是对未来的忧虑,但他同时也把握了“准确”的重要性,这或许是这本小说最不朽的部分。回想过去一年,人们因为假新闻掀起没有硝烟的战争,美国民主党和共和党为了辨别真假针锋相对。反乌托邦小说与现代世界之间的相似之处,其实远比我们想像的要多。只不过在现实中,对真相的“编辑”并不由人类来完成,而是由人类创造的智能机器来完成。

人类总对技术充满痴迷,在这种文化的影响下,AI正在日益普及。它们无处不在,既可以变成聊天机器人,出现于各色社交平台,甚至是人们家中,也可以变成市场营销员,试图出售其公司的智能产品。但我们却不常听到人们谈论AI深度学习和不断进化的弊端,其实这一点特别值得注意,因为AI与人类的知识库是紧密相连的。

奥威尔在写《1984》时,或许从未想到人类有朝一日能够写出编程算法,这些算法能推动假新闻的迅速传播,甚至还能自己伪造假新闻。


图片来源:unsplash


最近有一本书名为《社交媒体的武器化》(LikeWar: The Weaponization of Social Media),里面的描述很精彩:“未来(战争)的战士将是高度智能化的、难以理解的算法,它们能够把从未发生的事情说得头头是道,还能提供其实根本不存在的‘证据’。它们将在社交媒体的沃土上撒播海量的、高密度的虚假信息,一经对比,目前的社交媒体信息量就会显得有些古怪落后。”

深度学习本身已经能够伪造出逼真的对话,或是调整社交媒体上的推送,使其合乎用户的口味。但这项技术目前还在高速发展,不久后就能伪造出视频、音频等,同时供私人用户和公共机构使用。

这些程序叫做生成式对抗网络(GAN),即两个AI算法相互竞争,其中一个算法可以通过训练生成真实的文件,也可以重新伪造一份文件,为的是骗过另一个算法。前一个算法是为了优化对现实构成的理解,而后一个算法是为了学习如何发现虚假信息。

VentureBeat有一篇文章承认了AI战争的不幸之处:“GAN技术也有许多值得担忧的地方。首先,技术能够创造既真实又虚假的世界,这也是最具威胁性的一点。试想一个网络罪犯为了避免暴露真实面貌,竟然能够伪造出真人图像。”


图片来源:unsplash


不幸的是,这类罪犯已经出现。在过去的一年中,许多深度伪造的案例曝光,这暴露了人类继续推动深度学习将会带来的风险。这项技术得益于经过训练的算法,这些算法能够在虚假的环境中模拟出真人的图像、音频和视频。《今日美国》(USA Today)有报道称:“深度伪造使制造假新闻的机构有机会利用看似合法的视频广泛传播其‘报道’,这会使真假之间的界限变得前所未有的模糊,同时记者、媒体的名誉也会受到更大的威胁。”

目前已经有人开始利用深度伪造将色情视频的主角换成无辜的受害者,或者将政府官员塑造成无能形象。法学教授丹妮尔·希特伦(Danielle Citron)是网络民权倡议组织的副主席,她在发表了题为“深度伪造是如何破坏真相、威胁民主的”的TED演讲,指出了为什么深度伪造是一种危险的AI发展方式。她说:“我们是人类,对音频和视频有着与生俱来的反应,我们相信它们是真实的,但前提是眼见必须为实。而深度伪造可能会破坏人类对现实的共同感知,我们可能以为某一条深度伪造的信息是真实的,但事实并非如此。而且人类天生会对淫秽或煽动性的信息感兴趣,所以我们往往会相信那些负面消息、新奇信息,并分享给他人。

在这个时代,人们对记者和政客的信任已经开始锐减。相比消息灵通的朋友或家人,我们更愿意在Facebook上找一些感兴趣的文章来消遣时光。这个时代存在一种“证实偏见”,为了证明哪怕是一点点事情,人们都必须要在网络上进行海量搜索。而AI深度伪造更有可能直接颠覆人们对真理的概念,它甚至可以将最可靠的信息捏造为假新闻。

希特伦在演讲中说:“目前已经出现利用深度伪造的现象,人们将那些证明其错误行为的真实证据控告为不实。政客们常常宣扬一些烦人的言论,‘得了吧,那只是假新闻。眼见不一定为实’。我和罗伯特·切斯尼(Robert Chesney)教授将其称为‘骗子红利’,它带来的风险就是说谎者会利用深度伪造来否认其不当行为,从而逃避责任。”


图片来源:unsplash


实际上,联邦机构已经发出警告,指出AI可能会对选民造成影响。有人担心美国2020年大选中可能会涌现大量的伪造视频和音频,用以抹黑政治对手。一方面,具有强大杀伤力的AI需要适度监管,但立法者对此仍缺乏意识;另一方面,科技公司在实行本公司政策时,又往往对其他因素毫无关心。因此在未来几年中,人类还很难将现实和假新闻区分开来。

我们正在朝着《1984》中的真理部逐渐靠近。只不过在我们的世界里,负责改写历史的不是对力量无比痴迷的人类,而是代表人类的AI。如果我们的观点与价值仅仅建立在共同的历史经验上,而且这些历史记录如今可以被不加分辨地改写,那我们的未来会通向何方?

我们应当对AI、深度伪造的传播及其在假新闻中的应用保持警惕,否则就极易被他人误导。正如温斯顿所思考的那样:“如果所有的历史记载都被改写成同一个虚假的故事,如果所有人都接受了“党”强加的谎言,那么这个谎言就会成为历史,成为事实,正如“党”的口号:“控制过去就控制了未来,控制了现在就控制了过去。”

文章来源:读芯术         编辑:却原来

地址:安徽省合肥市政务区天鹅湖万达2号楼20层
皖ICP备14001900号-2
皖公网安备 34010402701701号