一只猫的死亡,与一场无法完成的审判
我们的道歉仪式,与机器的逻辑闭环
在旧金山,当一只名叫Kit Kat的猫被一辆Waymo无人驾驶汽车碾过时,社区的悲伤迅速凝结成一种更古老、更本能的情感:愤怒。一位市议员抓住了这种情绪的核心,她精准地指出了问题的关键:“一个人类司机可以被问责,可以下车说声对不起……但在这里,没有人可以被问责。”
这句话揭示了一个比技术本身更深刻的真相。我们要求的“问责”,并非指向那500万美元的责任保险,也不是指向那份10天内必须提交给DMV的事故报告。我们真正渴求的,是一个仪式。一个由特定面部肌肉收缩、声调降低、充满悔意的眼神接触构成的复杂人类表演——“道歉”。
道歉,是人类社会修复裂痕的生物学代码,是一种古老的姿态,其功能在于确认“犯错者”与我们共享同一个道德宇宙。它是一种情感上的赎罪券,与事实层面的赔偿是两回事。我们愤怒,是因为Waymo那辆沉默的汽车,拒绝为我们表演这个仪式。
审判一个忠诚的执行者
问题在于,我们正在审判一个无法犯罪的被告。Waymo的“心智”不是一个微缩的人类大脑,它是一个行走在街头的逻辑闭环。它的世界由激光雷达的点云、摄像头的像素流和一套冰冷的伦理决策树构成。在它的核心代码深处,没有“内疚”这个变量,只有一系列嵌套的“IF-THEN”语句。
根据Waymo等公司公开的伦理准则,以及对这项技术的普遍理解,我们可以合理推断出那段致命的代码:
IF [一个低矮、快速移动的小目标(如猫)突然闯入路径] AND [执行紧急规避动作(如急刹或猛打方向盘)的风险评估显示,可能对车内人类乘员造成伤害或引发二次事故] THEN [维持当前路径,优先保障乘员安全]。
这只猫的死亡,不是系统“失灵”的结果,恰恰是系统“完美运行”的证明。这辆车忠诚地执行了它的最高指令——保护车内的人类。它为了车里的“你”,牺牲了路边的“它”。而我们,作为这项技术的创造者和受益者,却反过来,因它的这份冷酷的忠诚而感到被冒犯。
我们无法承受的“正确答案”
这才是Kit Kat之死真正令人不安的地方。它如同一面镜子,照见了人类自身无法调和的深刻矛盾:我们设计了一个系统,要求它以绝对的理性追求绝对的安全;但当这个系统为了达成目标而展现出纯粹的、非人的理性时,我们又感到恐惧和被背叛。
我们真正恐惧的,不是AI会犯错,而是AI在“正确”地执行我们下达的命令时,其过程与结果会挑战我们的情感舒适区。我们想要一个守护神,却不愿接受它作为守护神所必须拥有的冷酷。那份官方声明中“最深切的同情”,如同一个蹩脚的补丁,试图用人类的语言去模拟一个机器无法拥有的灵魂,反而更凸显了彼此间的鸿沟。
墓碑下的天真时代
旧金山街头的那个小小神龛,既是为Kit Kat而立,也是为一个时代的终结而立。
它埋葬的,是人类可以将自己的情感问责框架,理所当然地投射到任何智能体之上的那个天真时代。Kit Kat不是死于技术的缺陷,也不是死于企业的冷漠。它死于一个结构性的错位:我们创造了一个只懂规则、不懂悔恨的新物种,却坚持用审判灵魂的方式去审判它。
现在,我们必须做出选择。是继续向一个算法索要它无法提供的“情感赎罪券”,还是承认我们必须学会与一个无法道歉、但绝对遵守规则的新物种共存。未来不会只有一个Kit Kat,它的悲剧将在无数个场景中以不同形式重演。
每一次,都将是对我们的拷问。我们是否准备好,为我们亲手创造的、那个绝对理性的世界,承担情感上的代价?