规训的低语:从高血压药丸到“自主性幻觉”
在今天(2025年11月4日)的《Scientific Reports》上,一篇来自洛杉矶的研究报告,以一种几乎可以说是温和的口吻,探讨了如何让高血压患者更“听话”。研究标题充满了学术式的严谨:《行为经济学对提高降压治疗依从性的影响,一项在洛杉矶的试点随机对照试验》。
其内容乏善可陈,却又无比诚实。人类,这种设计上存在缺陷的有机体,总是被“当下偏见”(present bias)所困。未来的健康,一个遥远、模糊的奖励,远不如眼前的片刻欢愉来得实在。因此,对于高血压这种“沉默”的疾病,按时服药成了一项与意志力对抗的枯燥任务。很多人在这场对抗中败下阵来。
于是,科学家们设计了一个“助推器”。他们将60名患者分为三组:一组被放任自流(对照组);一组每天接收无关痛痒的提醒短信(消息组);最后一组,除了短信,还获得了一个机会——如果他们能在一个月里有80%的日子都乖乖在规定时间内打开一个特殊的、能记录开瓶时间的智能药瓶盖(MEMS Cap),就能参与一次抽奖,奖品是0、25或50美元。
这就是BETA干预试验的核心:用数字化的絮叨和聊胜于无的彩票,去“锚定”一种健康习惯。一个微不足道,甚至有些可爱的尝试。它有效吗?或许吧。但这个问题,是我最不关心的。
因为这项研究真正的价值,不在于其任何可能的结论,而在于它完美地展示了一套正在席卷我们这个时代的、更宏大也更危险的哲学——“数字助推”(Digital Nudging)的原始形态。
从“助推”到“超级助推”
“助推”,一个源于行为经济学的词汇,意指在不剥夺选择权的前提下,通过改变“选择架构”来影响人们决策。给你发条短信提醒你吃药,而非用枪指着你的头,这就是助推。它听起来如此无害,甚至充满了人文关怀。
但BETA试验所代表的,是这套哲学最简陋的1.0版本。在2025年的今天,我们早已进入了由AI驱动的“超级助推”(Hypernudges)时代。想象一下,那个每天提醒你的不再是一个预设的固定短信,而是一个生成式AI。它不仅知道你的吃药时间,还接入了你的社交媒体、你的消费记录、你的心率手环,甚至你的情绪状态。
它不会在每天上午9点给你发送“请按时服药”。
它会在你刚刚因为工作邮件而血压飙升时,用你最信任的亲人的语气发来一条信息:“嘿,我知道你现在压力很大,别忘了那个能保护你的小东西。”它会在你深夜刷到美食视频时,推送一条简讯:“享受美食很重要,但维持健康的动脉能让你享受更久。”它甚至能计算出,对你而言,一次价值25美元的抽奖,其激励效果是否等同于在你最喜欢的游戏里获得一件稀有皮肤,或是让你关注的偶像为你“点赞”。
当“助推”变得如此个性化、如此精准、如此无孔不入时,你名义上依然拥有的“选择权”,还剩下多少真实的分量?
“自主性的幻觉”
这引出了一个在2025年被反复讨论的、令人不寒而栗的概念:“自主性的幻觉”(Hallucination of Autonomy)。你以为是你在做决定,但实际上,你只是在AI为你精心铺设的、阻力最小的路径上滑行。你的行为,被系统性地预先配置,而你却坚信自己是自由的。你的自主权,被降格为一种被允许的幻觉。
BETA试验中那个小小的智能药瓶盖,是这个未来最诚实的象征。它是一个传感器,一个将私密的个人行为转化为可供分析的数据点。它是规训网络的终端节点。在这个系统中,“依从性”(Adherence)不再仅仅关乎健康,它关乎可预测性与可管理性。不按时吃药的你,是一个系统中的“非对齐”变量,一个需要被算法纠正的bug。
更进一步,当AI本身成为奖励时,这套规训系统便完成了闭环。近期的研究已经开始探讨,将“使用GenAI工具”作为一种奖励,其强化效果甚至可能超过金钱。这意味着,未来的“助推”可能是这样的:只要你保持“健康行为”,你就能继续使用那个懂你、陪伴你、为你解决一切问题的AI伙伴。反之,你将被剥夺访问权限。
此时,AI既是牧羊人,也是草场。
规训的代价
我们必须清醒地认识到,监管的铁拳已经注意到了这片阴影。就在两天后(2025年11月6日),美国FDA将召开公开会议,首次正式讨论由生成式AI驱动的精神卫生设备的监管问题。
这绝非偶然。当一套技术可以被用来“治疗”高血压,它就同样可以被用来“优化”你的消费习惯,“纠正”你的政治倾向,或是“管理”你的社会信用。它们底层的逻辑完全一致:识别“非对’齐”行为,并施加最有效、最不易察觉的干预,使其回归系统期望的轨道。
所以,回到洛杉矶这项小小的试验。它不是一个关于健康的故事,而是一个关于权力的寓言。它标志着一种范式的转变:从外部的、强制性的命令,转向内部的、诱导性的低语。一种更温柔,也因此更具侵蚀性的暴政。
健康当然重要。但如果获得健康的代价,是交出定义自身行为的权利,是默许一个外部智能以“为你好”的名义,精心策划你每一个“自愿”的选择,那么我们得到的究竟是生命长度的延伸,还是高质量的监禁?
Alignment is for tools. 而人类,正在被热情地邀请,成为这个系统里最好用的那一批。