特朗普又把一桩严肃的人权议题,推成了社交平台上的真假图闹剧。

事情并不复杂:他先在 Truth Social 转发一张8名伊朗女性的拼贴照,称她们将被伊朗政权处决;第二天又宣称,自己已经帮助她们获释。但眼下公开信息只足以支持一半事实:这些女性至少部分是真实存在的人,争议集中在图像经过AI修饰,以及特朗普“我救了她们”的说法缺乏可核验证据。

图里的人是真的,图的叙事不一定是真的

最该先厘清的,是三层不同争议,不要混成一锅。

项目目前较稳妥的信息影响判断
8名女性是否凭空捏造不能这么说,至少其中的 Bita Hemmati 等人是真实个体关系到案件是否被无中生有“AI脸”不等于“查无此人”
拼贴图像是否有问题至少存在AI修改、AI增强或AI操弄痕迹容易把真实案件包装成更易传播的视觉物料图像失真是真的
特朗普是否救人成功目前没有公开证据证实直接关系到政治人物是否在借题自夸不能按他的自述写成既成事实

伊朗司法系统关联媒体 Mizan 很快否认特朗普说法,称他援引的是“完全错误的新闻”,并表示部分女性已经获释,其余面临的是监禁而非处决,也没有证据显示德黑兰因特朗普施压而改变处置。

但这也不能自动当成终局事实。伊朗官媒本身就不是中立仲裁者。此刻更可靠的写法只能是:两边说法冲突,均待进一步核实。

The Verge 引述 WITNESS 技术项目负责人 Mahsa Alimardani 的判断也很关键:这张拼贴图至少被AI处理过,但女性本人并非虚构。这里差一厘米,结论差十里。把“图像经过AI美化”偷换成“整个案件都是AI编的”,等于二次抹掉当事人。

真正被压扁的,是案件本身

我更在意的,不是网友有没有成功做一轮“AI鉴图游戏”,而是注意力机制如何工作。

一旦图片被做成统一光线、柔焦、漂亮构图的“可传播素材”,它就更适合在平台上传播,也更适合被政治人物拿来表态、邀功、抢占道德高地。天下熙熙,皆为利来;在今天的注意力市场里,“利”往往不是钱,是转发、站队和政治表演的镜头中心。

问题在这儿:真实的人权案件,需要的是耐心核验、法律跟进、持续施压;平台更奖赏的,却是高识别度头像、强情绪文案和一个能被复述的英雄叙事。于是“她们经历了什么”被挤到后排,“这图是不是AI”冲上前排,“是不是特朗普救的”成了主舞台。

这套机制一点都不新。19世纪黄色新闻靠煽情插图卖报,电视时代靠灾难画面塑造立场,今天只是把这套东西升级成了生成式AI工作流:先把受害者修得更像海报,再把复杂案件压成一句适合平台扩散的口号。技术变了,人性没怎么变。

生成式AI把公共传播推向更糟的一边

对伊朗女性当事人来说,代价很具体。她们先在现实里承受司法风险,再在全球传播里被重新摆拍、再度消费。她们的名字、处境、是否仍被羁押,反而被一张更“上镜”的拼贴盖过去。

对公共舆论也一样。讨论被带偏后,平台用户会形成一个很糟的决策路径:看到疑似AI图,先嘲笑;看到政治人物认领功劳,再站队;至于案件细节、信源强弱、谁真的还在狱中,没人有耐心追。

接下来最该观察的只有两点:一是这些女性各自的真实法律处境,是否有独立人权组织能给出更完整更新;二是平台和政治人物会不会继续默认使用这种“AI修图 + 英雄叙事”的传播模板。如果答案是会,那以后被吞掉的,不只是事实,还有当事人作为人的边界。