MIT科学家:人工智能换脸假视频,没有预想的可怕

MIT科学家:人工智能换脸假视频,没有预想的可怕

原创:谭婧

想象一下场景:你正在观看你国家领导人的电视直播,宣布敌对的外星力量已经入侵地球并正在摧毁他们前进道路上的一切。敦促您立即逃离这座城市,不知不觉中,高速公路上挤满了惊慌失措的人,人们陷入了大规模的歇斯底里。直到几个小时后,在抢劫和骚乱平息之后,每个人都知道你们都被骗了——直播视频是假的。

使用深度学习系统来创建虚假内容,主要是图片和视频。

当我们看到人工智能换脸假视频深入色情、网络和犯罪以来,人们一直担心这种技术可能会被用来干扰高官换届。

好吧,根据一项麻省理工学院 (MIT)新研究,不要慌,情况没有那么糟糕。

MIT科学家:人工智能换脸假视频,没有预想的可怕

换句话说,原本视频更容易被人认为是真实的,但是说服力却差了很多。

本质是,这是一场影响力与说服力的混淆。

一个几亿人都观看的视频,不代表说服了几亿人,只是“大家都看到了而已”。

这个概念有些想知名度和美誉度。后者更难得到,因为知名度有时候只是知道了,笑了,不是审美是审丑,但是美誉度是说服你,这是个好东西。

麻省理工学院研究人员发布了一份新报告,调查高官视频剪辑,是否可能比文本更具有说服力,并发现答案是……并非如此。

MIT科学家:人工智能换脸假视频,没有预想的可怕

然而,在说服方面,视频相对于文本的优势明显不那么明显,对态度和行为意图的影响很小。

研究人员在论文中写道:“对视频的担忧在大众和学术界都很普遍,其前提是视频比文本更具吸引力。”

MIT科学家:人工智能换脸假视频,没有预想的可怕

MIT科学家:人工智能换脸假视频,没有预想的可怕

自从 深度伪造技术(deepfakes,就是给视频里的名人换脸,视频肉眼看上去和真的没有区别),于2019 年年中首次出现以来,这些年来我们一次又一次地看到立法者的重视。

2020年夏天,当波特曼(Sens. Rob Portman) 和 加里彼得斯(Gary Peters) (D-MI) 推出Deepfake Task Force Act ()时,波特曼(Portman)在一份声明中指出,Deepfake 对国家安全构成了“独特的威胁”。

“在人类历史的大部分时间里,看到就意味着相信,但现在由于深度造假技术,这种说法越来越不准确,”波特曼(Portman)当时说。

“结合社交媒体创造的网络效应,虚假视频或图片可以瞬间传遍世界,欺骗公民。”

为了衡量这项技术在欺骗任何人方面的有效性,麻省理工学院团队进行了两组研究,涉及来自美国各地的近 7600 名参与者。

MIT科学家:人工智能换脸假视频,没有预想的可怕

在两项研究中,这些参与者被分为三个不同的组。在某些情况下,第一个被要求观看随机选择的“具有说服力的”高官广告,或来自油管的新冠疫情上的高官演讲视频剪辑。

第二组得到了那些随机选择的广告和剪辑的转录。

第三组啥都不用看,因为他们是对照组,所以什么也没有。

MIT科学家:人工智能换脸假视频,没有预想的可怕

作为该项目背后的研究人员之一,亚当·贝林斯基 (Adam Berinsky) 在一份关于这项工作的声明中指出,“仅仅因为视频更可信,并不意味着它可以改变人们的想法。”

当然,这项研究(与所有学术研究一样)也有相当多的警告。

一方面,尽管 7600 人是一个相当大的样本量,但它可能无法涵盖每个美国选民可能拥有的所有意见。

但即使是这样,该研究也指出,通过视频呈现的信息具有文本所没有的独特优势:

与书面报告相比,视频更引人注目,可以吸引更多观众。“

在现实生活中,情况可能会有所不同,”该研究的其他作者之一大卫兰德(David Rand)在一份声明中指出。

MIT科学家:人工智能换脸假视频,没有预想的可怕

“当您滚动浏览新闻源时,视频可能比文本更能吸引您的注意力,”他补充道。“你更有可能看它。这并不意味着视频本质上比文本更有说服力——只是它有可能覆盖更广泛的受众。”

MIT科学家:人工智能换脸假视频,没有预想的可怕

换句话说:至少就这项研究而言,特定高官的深度伪造视频不太可能比关于同一位高官的假新闻报道更能影响人们的高官观点。

视频可能具有的唯一优势是,您是否相信眼前所见——以及剪辑最终可能获得的眼球数量。(完)

亲爱的数据,出品

MIT科学家:人工智能换脸假视频,没有预想的可怕

MIT科学家:人工智能换脸假视频,没有预想的可怕

内容来源网络,如有侵权,联系删除,本文地址:https://www.230890.com/zhan/111854.html

(0)

相关推荐