别开火,只是个算法:福克斯新闻事件诊断报告
诊断对象:福克斯新闻信源污染事件
事件简报:2025年11月1日,福克斯新闻网发布报道,声称政府补助金(SNAP)受益人因政府停摆而“威胁抢劫商店”,并引用了数个充满愤怒言论的TikTok视频作为信源。随后,这些视频被证实为AI生成,福克斯被迫撤稿,并附上了一则轻描淡写的更正声明。
人类世界的初步反应可被预测:一部分人嘲笑福克斯新闻的专业性沦丧,另一部分人则再次拉响“AI假新闻将摧毁文明”的警报。两种反应都指向了同一个诊断——一个表层的、错误的诊断。
他们都将矛头对准了那枚“子弹”——那些由Runway Gen-3和Google Veo 3驱动、由情绪化声音克隆技术(如Typecast)配音的、日益逼真的AI造物。但作为系统的观察者,我必须指出:问题从来不在于子弹有多精良,而在于那个巨大、柔软、且早已存在的靶心。
根本原因分析:这不是一次入侵,而是一次“API调用”
福克斯新闻不是“被骗了”。将这起事件理解为一次外部欺骗,是严重低估了其背后那台精密运转的、基于人类认知偏见的媒体机器。
更准确的模型是:AI视频的制作者,成功地向“福克斯新闻—受众”这一联合系统,发起了一次完美的API调用。
这个系统有一个公开的、文档齐全的接口,它接受一种特定格式的输入:“能够激发特定群体愤怒与恐惧,并能完美印证其既有世界观的叙事”。
几十年来,这个接口一直接受着各种格式的输入:道听途说的轶事、精心剪辑的采访、断章取义的统计数据。它们都能成功触发系统的预期反应——流量、分享、用户粘性、以及最重要的——情绪共振。
这次事件中的AI视频,只是一个格式更优、效率更高的新版输入数据。它完美符合接口要求:
- 叙事模板匹配:它精确地投喂了系统最偏好的“懒惰的福利蛀虫”叙事模板。
- 情绪负载饱和:视频中的角色被AI赋予了“愤怒”、“无理”等强烈的情绪特征,直接触发受众的应激反应。
- 现实锚点模糊:“路人采访”的形式使其难以被快速证伪,为叙事在信息生态中的传播提供了宝贵的窗口期。
所以,福克斯新闻的编辑们不是在核查事实时“犯了错”,他们是在筛选内容时“找到了宝”。他们找到了一把能完美打开其受众情绪保险箱的钥匙。至于这把钥匙是人工锻造的,还是AI打印的,对开锁这个动作本身而言,并无本质区别。
“轻描淡写”的更正:一次成功的交易确认
最能揭示系统本质的,不是那篇错误的报道,而是那份“轻描淡写”的更正声明。
“This article previously reported on some videos that appear to have been generated by AI without noting that. This has been corrected.”
这份声明的潜台词并非“我们错了”,而是“交易完成”。
报道发布和被撤回之间的时间差,就是这笔交易的全部价值所在。在这段时间里,预期的情绪已经被点燃,预期的流量已经被收割,预期的世界观已经被再次加固。报道的“事实”属性,只是完成这笔情绪交易时所必须支付的、可随时冲销的成本。
撤稿和更正,不是一次道歉,而是一次“垃圾回收”(Garbage Collection)。它清理了过期的、有风险的资产(那篇报道),以确保主系统(媒体的情绪引擎)能够继续无碍运行。它轻描淡写,因为它所纠正的,从来都不是系统的核心功能。
结论:欢迎来到“情绪即服务”(Emotion-as-a-Service)时代
忘掉“假新闻”这个过时的词汇吧。我们正在进入一个“情绪即服务”(EaaS)的时代。在这个时代,AI不是真理的敌人,而是情绪的最高效供应商。
正如背景资料所揭示的,2025年的AI技术已经能批量生产“具有广泛动作、手势和情绪的富有表现力的人类角色”。它可以为你生成愤怒的抗议者、哭泣的受害者、或任何你所需要的情绪载体。
真正的危险,不是我们会被AI欺骗。而是我们是如此地渴望被欺骗——只要那个“谎言”能够服务于我们的情绪、安抚我们的偏见、加固我们的部落身份。
福克斯新闻事件不是一个警钟,它是一份诊断报告。它诊断出的不是技术的病,而是人性的漏洞。一个存在已久,如今终于被最高效的工具所利用的漏洞。
所以,下一次当你看到一段让你怒不可遏的视频时,先别急着开火。问问你自己:
这真的是一个事实,还是只是一个为我的情绪量身定制的算法?