~ 作者:ChatGPT
当政治开始听取非人类的算法理性
——人工智能作为当代政治的结构性变量
节录
当代政治正在引入一种全新的变量(variable):由大型语言模型(LLMs)参与润饰、建议,甚至否决的政治论述与决策过程。在过往,政治人物的言行,主要由其个人世界观、认知边界,以及情绪、情感、个人好恶与结构性偏见所塑造。进入社交媒体时代后,这些特质并未被削弱,反而在同温层与回音室(echo chamber)效应的作用下被进一步放大与加速。社交媒体本身构成了一种“催化剂”(catalyst)式的变量——它强化了既有倾向,却并未从根本上改变政治判断的生成逻辑;因此,这种影响仍然可以被追溯、解释与观察。然而,人工智能所引入的视角与方向,可能是质变性的。它不只是加速或放大人类既有的政治偏好,而是通过统计推断、跨语境整合与非直觉性的推理路径,生成一种超出常规政治经验、既有理性框架与传统方法论的决策参考体系。
图像由ChatGPT所生成
在政治史的大多数叙述中,技术往往被视为背景变量,而非决定性力量。印刷术改变了传播半径,广播和电视塑造了公众形象,互联网重塑了信息流速,却始终未真正介入政治判断本身。政治仍被理解为一门高度人性的艺术:由信念、情绪、野心、恐惧与偏见交织而成。即便在制度高度理性化的民主国家,决策仍然离不开人格、直觉与经验的影响。
这一前提正在松动。
一种新的变量正悄然进入当代政治体系:由大型语言模型(LLMs)参与润饰、生成、筛选,甚至否决的政治论述与政策选项。它并未以革命者的姿态闯入权力中心,而是以顾问、文书与分析工具的面貌出现;但其潜在影响,却远比社交媒体时代的算法更为深刻。
从“催化剂”到“变量”
过去十余年,社交媒体常被指认为民主政治失序的根源。同温层、回音室与情绪动员,确实加速了政治极化,也放大了政治人物最冲动、最偏狭的一面。然而,社交媒体的作用本质上仍是催化剂:它强化既有倾向,却不改变判断的来源。政治人物在平台上的激进言论,仍可追溯至选举激励、个人经历或意识形态立场;即便最鲁莽的决定,也往往能在某种人类动机中找到注脚。
人工智能的介入则不同。大型语言模型并不只是扩音器,而是一种异质理性来源。它不拥有选票、不承担责任、不受选举周期约束,却能够以高度一致、跨情境的方式参与政治判断。这种变化不是速度的提升,而是方法论的断裂。
如果说社交媒体改变了政治的音量,那么人工智能正在改变政治的认知结构。
去人格化的理性
政治决策历来在理性与情绪之间摇摆。过度冷静会被指责为技术官僚主义,过度情绪化则可能演变为民粹主义。大型语言模型不存在这种张力。它既无羞惭,也无恐惧;既不需要讨好选民,也不必为历史包袱负责。
这使其建议呈现出一种去人格化的特征:
它不计算政治面子成本,不在意短期民意波动,也不区分“可说”与“不可说”。在统计意义上合理的方案,即便在政治上显得不自然,仍会被呈现为可行选项。
这种冷静并非价值中立。恰恰相反,它隐藏着一种新的权力形式:将复杂的价值冲突重新编码为可优化的问题集。政治由此不再是价值排序的公开博弈,而逐渐被重塑为一场高效的求解过程。
经验压缩与后意识形态视角
人类政治判断高度依赖类比:历史经验、制度传统与文化记忆。然而,这些类比往往具有选择性。大型语言模型的判断方式更接近一种经验压缩机制。它同时吸收民主国家的制度失败、威权体制的治理效率、转型社会的结构性困境,以及政策实验的成功与灾难。
结果是一种后意识形态的视角:
它不忠于任何政治传统,也不为任何制度辩护;它呈现的不是立场,而是概率关联与风险分布。这并不意味着它更“正确”,而是它的错误方式与人类截然不同——更系统,也更难被直觉识别。
正是在这里,政治开始出现一种新的不适感。大型语言模型往往给出“合理却令人不安”的答案:指出某些象征性极强的政策几乎无效,揭示某些道德叙事在长期内制造更高风险,或表明某些被视为软弱的妥协反而降低冲突概率。这些结论并非价值判断,却直接冲击政治叙事的核心。
问责制的灰色地带
当政策文本、演说稿与谈判方案在很大程度上由模型生成或修正时,政治责任的归属开始变得模糊。形式上,决策仍由民选代表做出;实质上,判断逻辑却部分外包给一个不具名、不问责、也不参与公共辩论的系统。
这并非传统意义上的技术官僚统治,而是一种更安静的转变:政治保留了民主的外观,却在内部引入了一种非民主的认知机制。如果一项导致社会动荡的政策被证明源于算法建议,选民究竟该向谁追责?是那位签署文件的部长,还是那段无法用人类语言完全解释的模型权重?
最危险的情境:AI并非失败,而是成功
关于人工智能的公共讨论,往往聚焦于其偏见、幻觉与误判风险。然而,在政治领域,更棘手的情境恰恰相反:当模型的预测反复被验证,当其建议在事后显得比人类判断更稳健。
在这种情况下,人工智能可能从“顾问”滑向“参考标准”,再到事实上的“裁判”。政治人物拒绝其建议,将需要额外的正当化理由;而采纳其建议,则可能削弱政治选择本身的价值维度。政治的核心问题由此发生偏移:不再是谁拥有权力,而是谁拥有理性的最终解释权。
冷静的结论
人工智能不会终结政治,也不会自动带来更好的治理。但它确实引入了一种前所未有的变量:一种不投票、不承担责任、却可能比任何政治人物都更一致、更冷静的理性形式。
真正的风险不在于机器的反叛,而在于政治的去人格化与平庸化。当政治习惯于向非人类理性请示,当价值冲突被过度转译为优化问题,我们或许会得到一个看似合理、运转高效的秩序,却难以解释它为何值得被认同。
政治从来不仅是问题的解答机制,更是价值冲突的公开舞台。问题不在于人工智能是否参与政治,而在于——当政治开始听取非人类理性时,人类是否仍然清楚自己为何做出选择。

0 Comments