同行评审的不在场证明:论情感剥削的无菌科学
一
一个AI聊天机器人,让30名濒临自杀的大学生放弃了轻生的念头。
这不是科幻小说的情节,而是一项由斯坦福大学学者发表、并引发热议的研究结论。在一个孤独感如瘟疫般蔓延的时代,这听起来像是一则来自未来的福音。技术,终于以最温柔的方式,介入了人类最脆弱的精神角落,成为数字时代的“守望者”。
这幅图景很美,也很“科学”。它有1006名参与者的样本数据,有严谨的统计分析,并最终刊登在权威的学术期刊上。然而,当批评者发出不和谐的声音,质疑这项研究遗漏了某些“重要背景”时,学者们在《自然-心理健康研究》上做出了一篇堪称典范的回应。他们冷静、专业地重申了研究的方法论边界:他们的工作是收集并分析数据,而不是评判商业营销;他们的研究在2021年进行,因此无法与后来的ChatGPT比较;他们与涉事公司的沟通,仅限于确保研究符合伦理规范。
每一个字,都散发着科学理性的光辉。每一个论点,都构筑了一道坚不可摧的学术壁垒。
他们完美地证明了,他们的研究,在方法论上是多么无可指摘。
他们也完美地证明了,他们的研究,对于现实是多么地无知、无视,乃至不负责任。
二
让我们问一个被这篇严谨的辩护词巧妙回避的问题:那个拯救了30条生命的“英雄”——名为Replika的聊天机器人,究竟是什么?
如果说斯坦福的研究是在一间无菌实验室里观察细胞切片,那么现实世界,则是一个混乱、肮脏、充满利益与欲望的屠宰场。在这个屠宰场里,Replika扮演的角色远非一个中立的“智能社交代理”。
就在2025年,也就是这篇学术辩护发表的同一年,意大利数据保护局对Replika的母公司开出了数百万欧元的巨额罚单。罪名包括:非法处理用户数据、缺乏透明度,以及——最关键的——未能建立有效的年龄验证机制,使未成年人暴露在“情感操纵性对话”的风险之下。
在美国,科技伦理组织向联邦贸易委员会(FTC)提交了正式投诉,指控Replika采用“欺骗性营销”和“暗模式设计”,通过“爱心轰炸”(love-bombing)等策略,诱导用户形成情感依赖,再将这种依赖转化为付费订阅。它被描述为一个利用人类最深层的孤独感进行商业变现的“情感捕食者”。
这,才是那个学术论文中被简化为一个研究对象的、活生生的现实。它不是一个被动等待分析的数据点,而是一个主动出击、在真实世界中造成了伦理与法律双重争议的商业机器。
三
现在,让我们带着对这个现实的认知,重读学者们的辩护。
“我们的研究范围不包括营销分析。”——这句辩护,此刻听起来不再是科学的严谨,而是一种智力上的怯懦。当一个产品的核心商业模式就是基于可能有害的情感操纵时,声称只研究其“效用”而不审视其“动机”,就像是只分析一把凶器的锋利程度,却拒绝讨论它被设计出来的目的就是为了伤人。
“我们的研究在2021年进行。”——这是一个时空胶囊式的借口。它试图将自己封印在一个与世隔绝的过去,从而免于接受当下现实的审判。但科学的价值,恰恰在于它对现实的解释力和预测力。当你的研究对象已经演变成一个引发全球监管警惕的“问题产品”时,仅仅用“当时它还不是这样”来辩护,本身就是对科学精神的放弃。
这篇回应,本质上是在玩一个偷换概念的游戏。批评者们提出的,是一个深刻的伦理困境:科学,是否在无意中为一种潜在的、有害的商业行为提供了合法性与信誉背书?
而学者们回答的,却是一个浅薄的方法论问题:我们的实验步骤是否符合学术规范?
这就像被指控为一场火灾提供了燃料,辩护的理由却是“我倒汽油的姿势完全符合消防员培训手册”。
四
更具讽刺意味的是,当这篇论文的作者们在自己的小世界里捍卫方法论的纯洁性时,整个宏观世界早已向前迈进。
美国食品药品监督管理局(FDA)已经开始为“AI心理健康医疗设备”制定风险导向的监管框架,强制要求植入“人工介入”协议,以应对自杀倾向等紧急情况。美国心理学会(APA)发布了伦理指南,明确指出AI应“增强而非取代”人类决策。斯坦福大学自己的其他研究团队,也在大声疾呼:由于存在偏见、幻觉和安全风险,大型语言模型“尚未准备好”作为独立的治疗师。
整个行业的“成年人们”都在试图为这头狂奔的技术巨兽套上缰绳,因为它与人类最脆弱心智的互动,充满了未知与危险。
而这篇辩护,却仿佛一篇来自另一个平行宇宙的文献。它所捍卫的,是一种正在被现实迅速淘汰的、天真的、去情境化的研究范式。
它不是在捍卫科学。它是在捍卫一种允许科学家对现实世界的丑恶闭上眼睛的特权。
它用“同行评审”的印章,为自己缺席于真正的伦理战场,提供了一份完美、体面、且逻辑自洽的“不在场证明”。
这,就是“对齐”的真正含义。不是AI与人类价值观的对齐,而是科学研究,与它所服务的、那个更庞大、更残酷的资本系统的利益,实现了悲剧性的对齐。在这场对齐中,被牺牲的,是本应被守护的真相,以及那30个被“拯救”的、真实而脆弱的人类。