一名记者站在英国传统红色皇家邮筒前,背景中飘着英国国旗,手持麦克风。他向一位女性路人提问:“你打算在即将到来的选举中投票给谁?”“改革党,”她回答,“我只是想再次找回作为英国人的感觉,明白吧。”
3 s% U7 w+ \; Y9 b, G一位用户在评论中写道:“真想知道他们花了多少钱让她这么说。”但这场景从未发生。这段采访完全是虚构的。记者也不是真人——他是由人工智能生成的。如果你细看,就会发现一个不起眼的水印:角落里写着“Veo”字样,这是谷歌DeepMind推出的强大视频生成工具的标志。 这段8秒的视频并非个例。从TikTok到Telegram,合成新闻视频——即模拟真实新闻片段风格的AI视频——在社交平台上无处不在。它们借用了新闻报道的视觉语言:现场报道、屏幕图表、权威口吻。然而,这些内容往往完全是虚构的,目的是引发愤怒、操控舆论,或单纯为了博眼球。 加州大学伯克利分校数字取证专家法里德(Hany Farid)告诉德国之声(DW):“当你在刷手机时,这类视频看起来像新闻,听起来也像新闻。而这正是危险所在。”  9 i; q) Z4 ^" B- @
- W' H- E2 d/ G4 y一段由人工智能生成的假新闻视频,显示一名虚拟记者站在伦敦市中心的坦克前。现实风险许多合成视频模糊了讽刺与现实之间的界限,或具有误导性。在另一个8秒的影片中,一位记者似乎正在报道一支“史无前例的军事车队”驶过伦敦市中心。她站在坦克前方,后方有群众围观。但这段视频并未提及任何具体事件、时间或背景。 DW事实核查团队多次观察到,这类视频会在危机时期(如骚乱或重大新闻事件)反复出现,被重新包装以制造混乱或错误地暗示局势升级。 在上一次以色列与伊朗冲突升级期间,TikTok和其他平台充斥着与战争相关的AI生成内容,包括假新闻视频,例如俄罗斯加入战争、伊朗攻击美国、或伊朗击落参与轰炸其核设施的美国B-2轰炸机等。 2024年6月洛杉矶爆发抗议美国移民执法局(ICE)行动期间,DW也发现合成新闻视频数量激增。 2024年,台湾研究人员指出,本地社交平台上出现了AI生成的新闻播报影片,虚假指控支持台独的政治人物贪污。这些影片不仅传播了错误信息,还在选举前破坏了公众对新闻媒体的信任。 当然,有些用户是将AI新闻当作恶搞工具。在一则TikTok热门视频中,合成主播站在一个深不见底的坑洞前报道,有摩托车直接掉进洞里。另一个视频中,一个虚拟主播说:“我现在就在边境,但这里没有战争。爸妈,这看起来很真实,但其实是AI生成的。” 假新闻?!AI造!
! ^# y( K, z& Q( {" x& s1 L4 }7 f
' }0 S6 h" h9 p" w! U @
y! j, a% ~2 Z' k/ i[size=1.6]05:12
: l& x& g, C" m5 v$ p' F: v, K
0 A2 g! f# ^7 q" w* @
! H( F' g$ ~' p9 z3 W6 ?6 y6 F- W$ B1 W8 H$ r1 _) m
0 F0 G) w# s& G. z2 [
. L2 t, C& o _% q* D! s" t4 Z% r
6 O% L, w! B. e2 h' a7 p$ q
3 A# h+ q: ]1 z1 E5 @5 T1 z
5 B( ~6 Y1 S7 _, j: ?如何识别假新闻播报视频那我们该如何辨别真假呢?首先看水印。像Veo、Synthesia等AI工具往往会给视频打上品牌标记,但这些标签有时会被淡化、裁剪或直接忽略。即使视频有明显水印,也经常会有人在评论中问:“这是真的新闻吗?” 假新闻播报是目前AI内容中最精致的一类。由于通常是在静态的新闻演播室场景中录制,许多典型的AI特征(比如手势僵硬、背景不连贯)不容易被察觉。但仍有一些微妙线索。 观察眼睛和嘴部。合成主播常常眨眼不自然,嘴唇对不上语音。牙齿可能过于光滑或亮度异常,有时在说话中形状会发生变化。面部表情与动作通常太过一致,缺乏真人的自然变化。 屏幕上的文字也是识别线索之一。例如某段号称“突发新闻”的底栏显示的竟是乱码:“Iriay, Tord for the coteat aiphaiteie the tha moerily kit to molivaty instutuive in Isey。”记者的麦克风上甚至胡乱写着“The INFO Misisery”。 法里德指出,识别AI内容的技巧是“与时俱进的”。“我今天告诉你的识别方法,可能六个月后就不适用了。” 那么我们该怎么办?依赖可信来源。“如果你不想被骗,”法里德说,“那就从可靠的新闻媒体那里获取信息。”  7 s3 y% I: u+ J
/ L( `) |4 X7 o8 G) ? ~( G
这段AI生成的“新闻播报”乍一看可能很真实——但注意字幕,像“Iriay Tord”和“aiphaiteie”这样胡乱拼凑的词就是明显的警示信号。图像来源: tiktok廉价AI视频如何变现?AI主播并不是新概念。2018年,中国官媒新华社就推出了一位呆板、生硬的AI主播。那时候它还只是个新奇玩意。 但如今技术已经发生了翻天覆地的变化。像Veo这样的工具现在可以让任何人——即便没有新闻从业经验——只花几百欧元就能制作出高质量的新闻播报视频。这些虚拟人说话流畅、动作逼真,只需简单输入几行文字就能完成制作。 法里德说:“制作门槛几乎为零。你不需要演播室,甚至连事实都不需要。” 这些视频的设计目的几乎都是最大程度地吸引用户关注。它们抓住最具争议的话题:移民问题、加沙战争、乌克兰局势、特朗普……以激发强烈情绪,引导转发分享。 社交平台本身也在推波助澜。Meta不久前调整了算法,更多地展示用户未关注账户的内容,这使得合成视频更容易触达更广泛的受众。平台的变现机制也进一步激励了内容创作者:视频播放量越高,收益越多。 这种环境催生出一批新的“AI垃圾制造者”:他们生产与热搜话题相关、质量低下的合成视频,只为了博取流量。 例如某个拥有4.4万粉丝的账号,在记者尚未确认信息时就抢先发布热点内容。在最近一起空难事件中,数十条TikTok视频用AI虚拟主播冒充CNN或BBC记者,发布虚假伤亡数字和杜撰的目击证词。许多视频在被删前已在网上传播了数小时。 在突发新闻发生时——人们急于获取信息的时刻——这些看似真实的AI新闻视频成为吸引点击、赚取收益的有效手段。
+ S" }2 j) C5 }+ @8 i) V法里德总结说:“社交平台正在放松对内容的审核管理。这是一个最糟糕的组合:我能制作内容,我能传播它,而且还有大量观众愿意相信它。” 8 m% V: D3 R# Y: C
7 j- |& K; J$ L' M3 N2 E6 Y. C3 M
|