BBC最近采访了制作“乐高风”AI政治短视频的 Explosive Media 代表。对方起初称自己完全独立,随后承认伊朗政府确实是客户。
这条信息补上了此前最关键的一环:这些看起来像玩具电影、像网络恶搞、像用户自发二创的视频,背后至少存在国家客户关系。问题不只是“政府又在做宣传”。真正需要看清的是,国家宣传已经学会把自己包装成平台原生内容。
这些视频颜色鲜亮、节奏很快,人物像积木玩具,镜头语言接近游戏过场动画。内容却是战机、伤亡、特朗普、内塔尼亚胡、乔治·弗洛伊德,以及针对美国和以色列的敌我叙事。它不要求观众把它当新闻看,反而借“娱乐外壳”降低戒心。
过去的外宣常见于电视台、新闻稿、外交声明。现在,它可以变成一条30秒短视频,被扔进 TikTok、X、Instagram,由推荐系统寻找最容易被触动的人。
BBC采访补强了什么:从“独立爆款”到“国家客户”
这次新信息的价值,不在于证明伊朗会做宣传。国家参与舆论战并不新鲜。
真正新增的是两点。
一是 Explosive Media 代表承认伊朗政府是客户。这让账号的身份从“立场鲜明的创作者”变成了“可能承接国家叙事任务的内容生产者”。这会改变外界判断它的方式:它发布的内容不能只按普通讽刺短片理解,还要放进国家信息行动的框架里看。
二是 BBC采访显示,这类内容并非粗糙拼贴。研究者认为它“高度复杂”。复杂不在画质逼真,而在它熟悉目标受众的文化符号:乐高美学、说唱配乐、阴谋论梗、美国社会创伤、Epstein 文件这类热点。它知道什么东西能在西方平台上被停留、评论和转发。
这点很重要。过去不少外宣失败,不是因为话题没有翻译,而是因为语境没有翻译。今天的生成式AI模型本来就从大量西方互联网内容中学习表达方式,它把这种语境差缩小了。
AI降低了宣传片的工业门槛
Explosive Media 号称团队不到十人,却能高频制作紧跟战局的视频。BBC报道还提到,某些关于停火协议的视频在官方正式宣布前就已经发布。
这说明生成式AI正在把宣传生产改造成“轻资产内容兵工厂”。以前要做到这种速度,需要脚本、建模、动效、剪辑、配音、分发团队一起运转。现在,一个小团队就能把图像生成、语音合成、音乐、字幕和剪辑工具拼在一起。
它的成本结构变了。
- 视觉冲击由生成模型承担;
- 情绪语调由配音和音乐完成;
- 节奏由短视频模板控制;
- 分发交给平台算法;
- 反馈再反过来指导下一条内容。
这不是技术多神秘,而是流水线变短了。制作门槛下降后,宣传的频率会上升。频率本身就是力量:一条视频未必说服人,十条、百条可以持续制造同一种感觉。
有学者把这类内容称为“Slopaganda”,也就是“AI垃圾内容”和“宣传”的混合词。但“垃圾”这个词容易让人低估它。画面可以夸张,事实可以混杂,叙事却可能很精准。它攻击的不是人的理性判断能力,而是注意力、情绪和既有偏见。
它不靠全真取胜,而靠制造不确定感
这些视频中存在失实或无法证实的说法。BBC提到,有视频宣称伊朗俘获了一名坠毁美军战机飞行员;美方则表示该飞行员已被特种部队救出,并在科威特接受治疗。
面对追问,账号代表没有给出更强证据,而是继续提出“也许根本没有飞行员”“他们是去偷铀”等说法。这是一种常见的信息战手法:不必证明自己为真,只要让受众觉得官方说法也未必可信。
社交平台对这种内容并不天然免疫。平台奖励的是停留、互动和转发,不是事实核验的完整度。立场越鲜明,画面越刺激,越容易获得参与。BBC报道中,一位美国 TikTok 立场型博主甚至告诉粉丝,这些“乐高视频”此前“惊人地准确”。
这会造成一个尴尬局面:真实新闻需要信源、背景和核实链条;AI短视频只需要节奏、冲突和一个足够顺手的解释。
更麻烦的是,它并不总伪装成新闻。它以恶搞、动画、二创出现,观众不会按新闻标准审视它。娱乐降低防备,立场完成植入。
受影响最大的不是普通刷屏者,而是平台和媒体
普通用户当然会受影响,但最直接承压的是平台和媒体。
对平台来说,难点不是识别“这是不是AI生成”。很多乐高风视频本来就不掩饰合成痕迹。真正难的是判断它是否属于国家关联宣传、虚假信息、仇恨内容,还是未标注合成媒体。每一种处置理由都可能被规避,也可能带来政治争议。
封号只能解决一部分问题。旧账号被封,新账号可以很快出现。只要生产成本足够低,平台治理就会变成打地鼠。
对媒体来说,挑战在于解释速度。短视频先把情绪打出去,新闻机构再做核实,往往已经慢了一拍。媒体不能只辟谣某一条视频,还要解释它为什么能传播、它省略了什么、它借用了哪些文化符号。这比单纯判断真假更费力。
BBC报道里还有一个重要细节:伊朗国内曾出现大规模断网,普通民众难以上网,但相关内容生产者称自己拥有政府给的“记者网络”。这让信息分配的矛盾更刺眼:国内公众获取信息受限,对外AI宣传却能继续运转。
接下来该看什么:标签、溯源和国家客户披露
这类“平台原生”的AI宣传大概率会成为冲突中的常用配置。判断它的风险,不能只看单条视频有没有造假,还要看三件事。
一看资金和客户关系。创作者是否接受政府、政党、军方或相关代理机构委托,比“是否AI生成”更关键。合成痕迹可以公开,客户关系却常常隐藏。
二看平台标签是否足够具体。只标“AI生成”不够。观众还需要知道内容是否存在国家关联、是否涉及战争信息、是否经过事实核查争议。
三看传播是否跨平台协同。单个账号影响有限,多个账号、多个语言版本、多个平台同步扩散,才是信息行动的典型信号。
这件事也提醒生成式视频公司:模型能力越强,产品越便宜,责任边界越难回避。问题不会停在“能不能生成”。更重要的是谁在生成、为谁生成、用来影响谁,以及出事后责任能不能追到人。
战争的叙事战已经从发布会进入推荐流。战场上争的是制空权,平台上争的是解释权。谁能更快制造情绪,谁就可能先占住观众的脑子。
