徐贲:人工智能时代,我们如何守护“完整的人”?
创始人
2025-11-13 20:02:39

学人简介:徐贲,1950年生于江苏苏州,美国加州圣玛丽学院英语系荣休教授。早年毕业于苏州大学、复旦大学,美国马萨诸塞州大学英语文学博士。主要研究领域包括政治文化、公共教育、人文启蒙与文学批评。他的思想以“公民教育”“理性启蒙”“现代政治文化”为核心,强调个体的判断力、道德自省与公共责任。近年来著有《走向后现代和后殖民》《知识分子:我的思想和我们的行为》《人以什么理由来记忆》《统治与教育:从国民到公民》《暴政史:二十世纪的权力与民众》等。今年出版《人类还有希望吗:人工智能时代的人文启蒙和教育》。

采访人:朱泽睿、陈诗浣,张羽翩对此文亦有贡献。

1

人工智能与文明的再定义:从技术革命到思想革命

学人:没有人能预测百年后的未来,我们只有可预见的前景与对现实的反思。而人工智能正是当下最受瞩目的前景之一,它的愿景不断被美化,让人们愈发大胆地畅想未来的便利;与此同时,大数据宏观分析、自动化设备、医疗算法等也在替代或重塑既有岗位,引发焦虑。

历史上工业革命、印刷术等都曾重塑人类社会,您认为,AI带来的变革在性质上有何不同?在此过程中,人工智能将如何为人类提供新的机遇,并以人类历史未曾有过的力量激发人类的适应与创新?

徐贲:人工智能所带来的变革,与以往的技术革命相比,并不仅仅是生产工具或传播媒介的更新,而是一种更深层次的“思维结构”的重组。印刷术解放了文字的复制,使知识得以扩散;工业革命解放了人类的肌肉,使体力劳动被机器取代;而人工智能的到来,则是对人类智能自身的挑战,它开始解放——甚至部分取代——人的判断、分析与创造。这意味着人类首次面对一种能与自身智能相竞争的存在。它不仅改变了我们的工作方式,更改变了“何为人类”的根本定义。

这种变革的独特之处在于,它所触及的不仅是外在的社会结构,也包括内在的认知机制。AI通过算法参与决策,通过预测模型塑造趋势,逐渐成为一种“看不见的制度力量”。在传统的技术革命中,人类始终是发明者、操作者与控制者;而在人工智能时代,控制的边界开始模糊,机器的学习与自我调整使其拥有某种“不可完全预料性”。这正是AI革命的本质差异所在——它不仅改造世界,也反过来塑造人类的思维与行为逻辑。

人工智能也以前所未有的方式激发人类的适应力。历史上的每一次革命都伴随着恐惧与抵抗,但AI的力量使这种适应不再是被动的,而是主动的——人类必须在与算法的互动中学习如何更新自身。教育、艺术、哲学、政治伦理等领域都将在这一过程中被重新定义。正如人类在面对火、电与机器时学会了新的生活方式,在面对智能机器时,人类也将被迫学会新的思维方式。

因此,人工智能的革命不是人类历史的终结,而是人类再度理解自身的契机。它既是镜子,又是催化剂,让我们在看清“智能”的同时,也重新审视“人性”。这种变革的力量之所以前所未有,不在于技术的复杂程度,而在于它让人类第一次被迫回答这样的问题:在一个机器也能思考的时代,我们将如何继续成为人。

我在《人类还有希望吗》以及许多其他地方反复强调的是,AI时代的思考,不只是关于机器智能的思考——它会取代人类的哪些工作,会为老年化的人群带来哪些便利,会如何改变许多人的生活方式等等,而更重要的是回归对“人”本身的思考,许多人类赖以自我辨别、自我定义和定位的观念——自由、意志、意识、智能、想象、创造、真伪、善恶、美丑、聪明/愚蠢、洁净/污秽——会如何被重新审视、如何重构、如何影响人类物种未来的存在方式。

《人类还有希望吗:人工智能时代的人文启蒙和教育》

作者: 徐贲 出版社: 上海三联书店,2025-5

在AI的镜像下,人类不得不重新审视自己,重新思考关于“何以为人”的根本问题。问题不再仅仅是“机器能否像人一样思考”,而是“当机器开始思考,人类将以何种方式继续存在”?

更刺痛人心的真相是:在AI出现之前,人类就已经在被当作机器使用——流水线上重复劳作的工人、被KPI量化的职员、被算法调度的外卖骑手。他们甚至连“机器”都算不上,而只是庞大生产体系或国家机器中可随时替换的齿轮与螺丝钉。

这揭示了一个残酷的悖论:我们恐惧AI将人类“矮化”“奴化”“物化”,但工业文明和法西斯主义早已完成了这个进程。AI的到来,不过是让这面镜子变得更加无法回避——当真正的机器可以思考,那些被迫像机器一样生存的人类,其存在的意义何在?

因此,AI时代真正的哲学命题不是“人与机器的界限”,而是:当机器接管了“机械性劳动”,人类是否终于有机会重新成为“人”?还是说,我们会发现,被异化为工具之后,人类已经失去了“成为人”的能力?

这才是比“AI威胁论”更深刻的焦虑:不是害怕被机器取代,而是害怕发现,我们从未真正拥有过那些自以为专属于人类的东西——自由意志、创造性、思想判断、独特性。或许它们从一开始,就只是我们为了对抗自身的物化处境而编织的神话。

AI不是末日的审判者,而是存在的提问者。它并非要取代人类,而是逼迫人类回答一个早已被遗忘的问题——在被工具理性与功利逻辑主宰的漫长历史中,人类是否早已被剥夺或主动放弃了“做人”的资格?

当AI承担起越来越多“有用”的职能时,人类反而被迫面对“无用”的存在意义。我们为何思考?为何悲伤?为何爱与宽恕?为何叛逆?这些看似低效的情感与思想,正是人之为人的残余证明。AI的出现,让人类第一次从“创造者”的位置退下,被自己造出的智能反观——不是被替代,而是被审问。

因此,AI时代的真正危机,不在于机器是否会统治人类,而在于人类是否还能回答自己是什么。AI的到来,也许不是人类的终结,而是文明自我觉醒的最后契机。

学人:书中“后康德时代”一再出现。康德时代被视为启蒙时代,人类智慧追求个体性与独立性:向外探索世界与宇宙,向内探寻内心与认知;阅读、哲学思考与知识涌入,成为人类整体成长的标志。在您的“后康德时代”框架下,人文启蒙应在此基础上向哪个方向更进一步?在人工智能时代,“读万卷书、行万里路”是否仍应成为主流?作为“后康德”的人文启蒙,人类应如何成长以不断开启新的启蒙?

徐贲:康德的“敢于知”曾经象征着人类理性的觉醒,标志着个体从外部权威中解放出来,以自主的思考追求真理与自由。然而,当我们进入人工智能主导的时代,这种以主体理性为中心的启蒙模式正在遭遇根本性的转折。我们对“知识”的理解已经从静态的积累转向动态的生成,对“智识”的期待也不再停留在个体思考的勇气,而是延伸为人与机器之间、个体与系统之间的复杂共生。在这样的语境下,启蒙不再只是“人要敢于知”,而是“人要敢于重新定义知识本身”。

后康德时代的人文启蒙,必须从对理性的单一崇拜转向对智能生态的整体理解。康德式的启蒙强调主体的理性自主,而我们当下面临的挑战是主体的“去中心化”——算法、网络与人工智能不断重塑我们的思维结构与知识方式。人类的任务不再是单纯地积累知识,而是学习如何与超越自身智能的系统共同思考,如何在信息的洪流中保持意义的判断力与伦理的辨识力。换言之,启蒙不再意味着人类支配理性,而意味着在智能时代重新发现人之为人的独特智慧或智能。

但是,这不应该变成一种“人类优越论”,我在《人类还有希望吗》中反复强调:人类的特殊智能中,没有一样是只是优秀和可贵,而没有阴暗面的:实用智慧可能变成无原则的功利主义、直觉和常识思考可能成为害人不浅的捷径思维、想象力可能成为天马行空的想入非非、创造力可能变成别出心裁的害人伎俩、审美可能被权力用作魅惑的手段、游戏可能变成玩物丧志、情感和感情可能变成操控他人的手段、聪明和机智可能变成阴谋诡计、好奇心可能是无可救药的愚蠢。我在书里讨论了大约14个这样的“人类特殊能力”,全都是从正反两个方面来讨论的,提醒读者:不要忽略了人类独特智能的阴暗、危险,甚至邪恶一面。

这是全书的一个核心观点。因此,我不认为教育应该无道德批判,无伦理原则地倡导培养人类的所谓“特殊能力”,否则人类物种只会变得越来越坏,越来越邪恶,因此也就没有继续存在的必然理由了。在这种情况下,倘若人类这个物种被最初是由他们自己训练而成的机器智能奴役或消灭,那是咎由自取,是报应,不值得为之抱屈或惋惜。

在这样的背景下,“读万卷书、行万里路”不应被废弃,而应被重新理解。它们不再只是对经验与知识的追求,而是一种对世界复杂性的体认方式——是对算法化认知的补偿,也是人类保持感受力与经验深度的途径。阅读不只是信息的吸收,而是理解他者、生成意义的能力;行走不只是地理的移动,而是对时间、空间与存在的重新感知。当知识可以被瞬间检索、学习可以被自动化时,真正的“行万里路”或许意味着跨越系统的边界,体验那些机器无法替代的模糊、偶然与感情。

后康德的人文启蒙应当是一种“开放的自我教育”。它不再以理性为单一尺度,而以复杂性、共情与反思为新的启蒙精神。我们需要学习的不仅是如何理解世界,更是如何与不同形式的智能共处——如何在人与机器的互动中保留人类的判断、伦理与创造性。启蒙的火炬此刻并非传递给更理性的主体,而是传递给一个能够自觉其有限性、并因此更具智慧的整体人类。

真正的后康德式启蒙,不是理性的终结,而是理性自我反思的开始。它要求我们在被智能包围的时代重新提出那个古老的问题:我们如何继续成为能思考、能感受、能承担意义的存在?唯有在人类不断重新定义“知”的过程中,启蒙才能持续进行,而人类才能在技术的镜像中,看到自己尚未完成的未来。

2

智能政治与制度性伦理:数字时代的权力、共同体与恶托邦

学人:在康德时代尚无现代民主国家的概念,18世纪被称为全球君主制的世纪;在中国,相应时期常被描述为皇权中央集权的巅峰。而20世纪是全球极权主义的新一轮高峰。今天,无论自称民主抑或被视为威权的国家,在中央对地方的管控和治理、信息传播、社会规范与意识形态塑造方面,借助数字与平台工具,似乎对以往君主制形成“降维打击”。您如何评价这一趋势?这一现代国家的政府权力,与现代民主的界限是否会趋于模糊?

同时,现代国家通过数字技术革新了治理能力,这是否意味着传统意义上的“民主”与“威权”的界限正在模糊?还是说,它们正在以新的形式重构?

徐贲:这一趋势无疑标志着政治现代性的深度转型。康德所处的18世纪仍然以君主专制为主要政治形态,而他所设想的“理性公共领域”与“自由公民社会”,更多是一种思想上的前瞻性愿景。然而进入21世纪,当国家的治理工具与数字技术深度融合后,权力的运作逻辑已与以往任何时代截然不同。数字化的治理不仅提升了行政效率,更重要的是,它让国家能够以前所未有的方式渗透到社会的每一个角落。信息流的掌控、算法的过滤、数据的聚合与预测,使权力获得了新的形态——它既无须高压即可维持秩序,又能在看似自由与便利的环境中塑造公民的意识结构。

在这种新形态下,传统意义上的“民主”与“威权”不再泾渭分明。表面上,许多国家仍保留着选举制度、言论自由与法治框架,但这些形式性的民主机制正被技术治理的逻辑所吸纳和改写。当社会运转越来越依赖平台算法、数据模型和数字化监管时,政治控制的实现方式变得柔性、精准而难以察觉。权力不再通过禁止与命令显形,而是通过“引导”“推荐”和“优化”实现治理。换言之,权力的暴力被智能的理性所替代,控制的强度却可能更深、更隐蔽。

这也意味着“民主”的语义正处于一种内在危机中。民主传统强调公民自主、公开讨论与社会多元,而数字治理时代的核心逻辑是效率、预测与秩序的稳定。二者之间的张力在于,公民的自由选择越来越被算法推演所预设,公共讨论的空间被平台逻辑所重构,社会共识的形成不再基于理性辩论,而是通过情绪化、可控的舆论流动生成。于是,现代国家可能在保持民主外壳的同时,形成一种“算法威权”的新形态——它不以压迫为特征,而以顺从的自愿性和依赖的便利性为基础。

然而,这种演化并非单向的退步,也不意味着传统民主的终结。数字技术同样为公共性提供了新的可能:它可以扩大公民参与的范围,激活跨界的公共对话,重塑社会动员的方式。关键在于,技术是否被纳入公共理性与伦理框架之中。如果技术仅服务于权力的集中,它将强化威权;若技术被引导为增强公民判断力与责任感的工具,它则可能孕育新的民主形式。

因此,今日我们所面对的不只是“民主消亡”或“威权回潮”,而是政治形态的一次深层重构。数字国家的出现让权力与自由之间的边界变得流动而复杂,民主不是一种制度的标签,而是一种持续的斗争过程——如何让技术回归公共理性,如何让算法服从伦理判断,如何在高度智能化的世界中重新定义“公民”。真正的政治启蒙,也许正是在这模糊与重构的过程中重新展开。

从民主和威权来评估AI对人类政治的影响,也许真正的出路不是在“人类统治”和“AI统治”之间二选一,而是承认:好的治理从来不应该依赖统治者的“德性”(无论是人还是AI),而应该依赖制度性的权力制衡。

人类历史上最不坏的政治安排,不是因为统治者特别仁慈,而是因为权力被有效分散和制约。从这个意义上说,对权力失衡和无制约的批判是对的——但解决方案不是用AI替代人类,而是设计出无论谁掌权都难以作恶的制度结构。AI对人类的真正贡献在于:AI这个“他者”在不断逼迫我们反思:我们真正恐惧的,究竟是失去控制,还是面对自己?

学人:您提到“共同生存”与“道德的自我启蒙/自我救赎”在多种宗教教义中均有体现,而同理与善待他人是它们的共同主张。您认为,人工智能的出现与快速迭代,是否可能促进超越既有宗教群体边界的更大共同体认同与伦理教义?若是如此,这样的共同体形成需要哪些教育上的条件,以及不同国家与社会间的路径支撑?

因此,康德的“世界公民”理念需要从启蒙时代的理性普遍主义转化为智能时代的伦理共生主义。它的核心不再是“人类理性主宰自然”,而是“人类与智能共建有伦理约束的世界”。在这种“后康德”的转化中,“世界公民”的教育也必须随之更新:教育的目标不只是培养遵守规则的理性主体,而是培育能够理解技术后果、具备跨文化同理心与生态伦理意识的地球参与者。唯有如此,世界公民的理想才能从启蒙的光辉延伸到智能时代的阴影之中,成为一种真正面向未来、承担共同命运的道德愿景。

人工智能本身没有信仰,也不会去参加宗教仪式,也不会去开会听报告,它不会说“我信佛教”“我信基督教”“我信某某主义”,它只知道数据、模式和优化目标。所以,AI在理论上有可能成为一种超越宗教边界的催化剂——它会把不同群体的价值观、道德规范和共同利益暴露出来,帮我们看到“善待他人、共存共荣”这些跨宗教的普遍原则,而不管你戴的是十字架、佛珠还是清真帽。

想象一下,如果一个AI助手同时在印度教、伊斯兰教、基督教和无宗教家庭中运行,它会发现所有人都希望孩子平安、希望社区和谐、希望病人得到照顾、希望邻里不要互相伤害。AI不会说“你必须信哪一神”,它只会分析数据并提醒大家:“嘿,你们的价值观有很多重叠的地方,也许可以一起做些事情。”从这个角度看,AI像一个不偏不倚、永远不会闹脾气的“伦理顾问”,让人们更容易看到跨宗教的共同体认同。

不过,这样的共同体形成并不是自动发生的,它需要教育上的一些“训练空间”:公民教育要强调同理心、跨文化理解和信息辨识能力;学校和社会需要教会人们如何在多元观点中找到共同价值,而不是只沉浸在“自己的圈子里点赞”。另外,不同国家和社会间也需要路径支撑:开放的数据共享、跨文化的交流平台,以及公平的技术治理,让AI推荐的伦理实践不被某一方垄断或曲解。

如果AI只是帮你算数学题、推荐猫咪视频,而你从来不教它“怎么做一个好人”,那它当然也不会帮你建设跨宗教的共同体。所以,这件事其实很像养一只聪明又懂礼貌的宠物——你得自己先教它规矩、示范行为,它才能帮你在复杂社会里当个好中介。

AI有潜力成为“跨宗教、跨文化伦理的放大器”,但核心仍然在于人类自身的教育和社会设计——AI可以帮人类放大善意,但善意还是得由人类自己先培育起来才行。

学人:现实中,反乌托邦(书中译作“恶托邦”)与反政府社会的想象在小说和电影中长盛不衰,也因对传统“乌托邦式宣传”的质疑而受到追捧。我注意到,“dystopia”在中文一般被译为“反乌托邦”,而您在书中采用了“恶托邦”这一颇为新奇的翻译。您是如何理解和解读这个词义的?为什么选择“恶托邦”这样的表达?在中文语境中,这一译法有什么特定的启蒙意图?

在此基础上,您认为人工智能的发展会加剧人类社会的反乌托邦倾向、进一步打破乌托邦幻想,还是可能帮助重塑一种更可实践、可校正的“乌托邦”蓝图?

徐贲:针对这个,以及其他相关问题,包括你后半段里的问题,我专门写过一本《梦魇的镜像:恶托邦文学剖析》,不久就会出版。在这本书里,我介绍了“反乌托邦”与“恶托邦”的本质区别,这两个概念是不同的,也不宜混用。

“反乌托邦”(anti-utopia)与“恶托邦”(dystopia)虽然常常被混用,但在思想史与文学史上,它们的内涵与出发点并不相同。若从历史的演进脉络来看,“恶托邦”确实出现得更晚,它并非简单地否定“乌托邦”,而是在乌托邦传统内部自我反思、幻灭与批判的结果之中萌生的。乌托邦之所以成为可能,是因为人类始终怀抱着改造世界、追求完美秩序的理想;而恶托邦的出现,则正是当这种理想被极端化、制度化并以理性和秩序之名压制个体时,对理性乐观主义的反拨与清算。

“反乌托邦”在思想意义上更接近一种否定性的批评姿态,它反对乌托邦理想本身,怀疑任何对完美社会的追求都必然通向专制、虚伪与压迫。从这个角度看,“反乌托邦”是一种对乌托邦信仰的哲学批判,强调人类不可能摆脱自身局限,也不应以理性设计社会秩序。而“恶托邦”则不同,它并不反对乌托邦理想的存在,而是揭示乌托邦在现实化过程中如何堕落、变形,如何在追求完美与秩序的名义下制造出新的奴役与恐怖。恶托邦是一种堕落的乌托邦,是理想被腐化、理性被极端化之后的产物。

在文学表现上,乌托邦与恶托邦形成了鲜明的镜像关系。乌托邦的叙事往往宁静、理性、和谐,呈现一种经过理性规划的幸福秩序;恶托邦的叙事则阴郁、压抑、充满监控与异化的氛围,它所描绘的世界并非没有理性,而是理性彻底统治了情感、自由与人性。乌托邦的光亮正是恶托邦的阴影,而恶托邦的恐怖也揭示了乌托邦愿景的危险底色。正因如此,恶托邦文学从诞生起就带有强烈的警示性:它让读者意识到,通往天堂的道路往往正是通向地狱的路径。

格雷戈里·克雷斯在研究中指出,最极端的恶托邦形态是“监狱恶托邦”(carcerotopia),即“对内的恶托邦”(internal dystopia)。这种形态的恶托邦不再依靠外在暴力维持统治,而是通过制度与意识的内化,使人自我审查、自我约束,最终在心理层面实现全面控制。扎米亚京的《我们》和奥威尔的《一九八四》正是这种形态的典型代表:它们揭示了个体在极权体系中如何逐渐失去自我,如何在“被看见”的恐惧中自愿服从。相比之下,赫胥黎的《美丽新世界》虽然同样揭露了现代文明的虚伪幸福,却更偏向外部的麻醉与感官控制;而扎米亚京与奥威尔笔下的恶托邦,则更精准地预言了20世纪的政治现实——那种以理性、秩序、科学与幸福之名,所构筑出的真正精神囚笼。

因此,若说乌托邦是人类梦想的投影,那么恶托邦便是理性梦醒后的自省与忏悔;若说“反乌托邦”是思想上的否定与警觉,那么“恶托邦”则是文学上具象化的恐惧与见证。它提醒我们:任何以完美为名的社会构想,若忽视个体尊严与自由,终将把人类带入理性主导的深渊——在那里,秩序取代了灵魂,幸福取代了意义,而人类成为被完美逻辑彻底驯服的存在。

人工智能时代的到来,正在深刻改变人们对“反乌托邦”和“恶托邦”的理解,使这两个概念从文学与思想的隐喻,转变为现实生活的伦理与政治困境。过去,人们阅读《1984》或《美丽新世界》时,总有一种安全的距离感——那是“别处”的噩梦,是一种文学性的假设;而在人工智能时代,这种距离正在迅速消失。我们不再只是观察者,而是身处于一个由算法、数据与智能系统编织的现实之中。

首先,AI让“恶托邦”的想象从政治恐怖转向技术依赖。从前的恶托邦多由极权国家制造,依靠暴力、监控与恐惧维系统治;而如今的控制更加柔性和隐蔽。算法推荐、情绪计算、社会信用系统与大规模数据画像,让人类在享受便利的同时逐渐放弃隐私与判断力。我们不再被强迫服从,而是在“个性化”与“智能化”的名义下主动让渡自由。传统恶托邦的恐惧来自高压,AI时代的恶托邦则来自顺从——是一种在甜蜜与便利中滑向的温柔奴役。人们开始意识到,《1984》式的监视与《美丽新世界》式的麻醉并非对立,而是智能社会中可以共存的两种机制:算法既能观察我们的行为,也能塑造我们的欲望。

其次,人工智能时代也让“反乌托邦”的批判更具现实针对性。反乌托邦思想一直警惕人类理性对社会的过度规划,而AI正是这种理性工具化、自动化的极致体现。它展示出一种“完美秩序”的诱惑——通过预测模型和数据决策,人类似乎可以避免错误、消除混乱、优化一切。然而,这种追求完美的系统性理性恰恰是乌托邦陷阱的延续:它排除了偶然、宽容与人性的复杂。于是,“反乌托邦”的怀疑如今被重新激活,成为对人工智能治理的核心反思——我们是否正在把道德判断交给机器,把社会的不确定性简化为算法逻辑,把“更好的世界”误认为“更高效的世界”?

更深层的变化在于,AI时代的恶托邦已不再只是政治意义上的“极权之镜”,而成为一种存在论的危机。随着智能系统的自学习与自决策能力增强,人类开始质疑自身的独特性:当机器能创作、预测、判断,甚至模仿情感时,“做人”的意义是什么?过去恶托邦的恐怖在于外部压迫,而现在的恐怖在于主体的消解——在巨量信息与算法决策中,人的能动性、道德感与创造力被逐渐边缘化。这是一种“去人性化的恶托邦”:不是被监控的恐惧,而是被取代的茫然。

然而,人工智能也可能为我们重新理解乌托邦与恶托邦提供契机。它迫使我们重新定义自由、幸福与责任——迫使我们在智能化的社会中思考,什么才是真正的人性。若AI能让人类更清楚地看见自身局限,学会以更谦卑的姿态对待知识、权力与自然,那么“反乌托邦”的精神或许能转化为新的自省伦理;若我们能在算法社会中建立道德透明、技术问责与公民参与的机制,那么恶托邦的黑暗也可能成为新的启蒙起点。

因此,人工智能并非简单地让世界更接近或远离恶托邦,而是让乌托邦、恶托邦与反乌托邦的三重张力同时存在于我们的现实之中。它让乌托邦的理想更诱人,让恶托邦的风险更真实,也让反乌托邦的反思更必要。人类是否能超越这三者之间的循环,取决于我们能否在智能的光辉中保持道德的清醒——这或许将成为21世纪最深刻的思想考验。

美国历史学家凯特·布朗的 Dispatches from Dystopia: Histories of Places Not Yet Forgotten(2015)在繁体中文地区的译本名为《惡托邦記:核城市到鐵鏽帶,未忘之地的歷史》(2021)。这本书以第一人称视角,结合田野考察与历史叙事,探讨了多个被遗忘或被刻意忽视的地点,如车诺比(Chernobyl)禁区、哈萨克斯坦的卡拉干达(Karaganda)、美国的铁锈带(Rust Belt)等,揭示了这些地方背后鲜为人知的历史与人类经验。

所谓“恶托邦”,在书中被描绘为肮脏、封闭、灰暗、缺乏希望的地方,它们往往是人类社会在极端政治、工业或环境压力下形成的阴暗角落。在这些地区,基础设施退化,生态与环境遭受破坏,社会关系被扭曲甚至冷漠,人们的生活被迫与危险、污染和不确定性共存。布朗通过细致的历史考察与田野记录,让读者能够感受到这些恶托邦的真实存在——它们不仅是地理空间,更是人类社会、政治与环境交织后的沉重见证。

3

人文教育与个体觉醒:在算法时代守护“完整的人”

学人:人的智能体现在道德判断、主观能动性、想象力、自我设限与自我意识上。而这些是当下AI算法所不具备的。然而,面向个体的算法,如抖音,定制化新闻,已足以影响人类自幼形成的信念与世界观,并制造信息茧房。您如何看待这一点?在这样的环境中成长的人,是否仍能保持充分的主体性与想象力,并建立清晰而适当的意识与行动边界?您多次强调人文教育对公民人格塑造的核心作用,甚至认为这是抵御技术异化的关键。那么您心中 “完整的人” 应具备哪些特质?

徐贲:这是一个非常及时,也非常重要的问题。我们今天所面临的,并非单纯的技术进步,而是一场关于“人是什么”的重新追问。人工智能的算法系统,尤其是那些针对个体兴趣、心理弱点与情感反应而精准设计的推荐机制,的确在深层地改变着人类自我形成的方式。过去,个体的信念、判断与价值观是在共同生活、阅读、经验与思考的互动中慢慢生成的,而现在,它们在算法的“定制化”照料下被过早地封闭,被困于一个精致而温柔的信息牢笼之中。

在这种“算法温室”中成长的一代人,面临着一种新的贫乏:他们的感受力被持续刺激,但反思力被逐渐麻痹;他们的兴趣被不断细分,但世界的整体性被削弱;他们似乎拥有无限选择的自由,却不再能自由地选择。这是一种比审查更深的精神束缚——它以愉悦的形式运作,以个性化的名义消解了真正的个体性。

在这样的环境中,人的主体性与想象力是否还能保持?我认为,答案取决于教育,尤其是人文教育能否重新确立其“灵魂的守望”之职。真正的人文教育并非向人灌输价值,而是教人如何怀疑、如何判断、如何想象另一种可能的生活。它唤醒的,不是知识的积累,而是心灵的抵抗力——一种不愿被算法定义、不愿让世界缩小为“喜好”的力量。

所谓“完整的人”,在我看来,应当具备三重特质。第一,是判断力(康德所说的 Urteilskraft),即在纷乱与复杂中保持理性与道德的辨识能力,能在真与伪、善与恶之间作出不依附于权威的判断。第二,是自我约束与自我反思的能力,这意味着他能与自己的欲望保持距离,知道“不能做什么”与“为什么不能”。这种自限是自由的前提。第三,是想象力与共情力——不仅能想象世界的多样性,也能进入他人的处境,理解异己、怜悯弱者。

如果未来的人仍能通过教育、文学与公共对话重新找回这些能力,那么即使身处算法的洪流之中,也仍能以清醒的目光望向远方。所谓“完整的人”,并非完美无缺,而是在被技术和体制不断分解的世界中,仍坚持让灵魂保持某种连贯与温度的人。

这样的教育,不只是知识传授,而是一种对人性的自我修复工程。它让人理解:机器可以模拟智能,却无法承载人心的重量;算法可以预测行为,却无法取代良知的闪光。真正的未来,仍将取决于我们能否在科技的阴影中,守住那一点人性的明亮。

学人:当下西式民主也面临道德与规范层面的质疑。“程序性民主”与“民主价值观”在实践中被区分甚至拉扯。有人认为,欧盟近二十年的部分左翼治理在民主价值观的倡议上走得更远,以至于当中东欧国家右翼政党胜选时,西欧领导人以及左派势力会动员媒体与舆论对选举正当性提出质疑,从而偏离了程序性民主而趋向价值导向的“民主叙事”。在人工智能持续介入(从内容分发到舆情分析)的情境下,人工智能将如何“理解”并影响这类政治过程?我们应如何设定技术治理的边界与规则,以避免放大偏见并维护民主程序?

举个例子:想象你刷抖音,看到一堆关于某次选举的“热门讨论”,你以为是大家普遍关心的内容,但其实算法已经根据你的兴趣和行为,把最容易引起你情绪反应的帖子推送到你面前。结果,你觉得整个社会都在争论这个问题,其实只是算法在放大你的感受。通过技术治理和公民教育,我们就可以尽量让“推荐的社会现实”不要完全左右我们的判断,保证程序性民主不会被算法无声地侵蚀。

AI不是坏蛋,也不是民主的救世主,它只是工具。关键在于我们如何设定规则,让算法在政治过程中发挥辅助作用,而不是成为操控舆论、削弱程序正义的隐形力量。

你的问题可以引向一个更深层次的探究:为什么今天大多数人类的政治和伦理共识是:尽管民主并不完美,但也是比专制更好的选择?答案也许是:因为民主最大的价值不在于它更聪明,而在于它更分散——权力分散让错误的代价不至于摧毁整个社会。专制即使能纠错,但纠错往往取决于一个人的意愿;民主的纠错则来自制度性的自省。

倘若AI统治人类,会不会抛弃民主,选择专制?我想,这取决于AI被谁训练、用来服务谁。若AI以“效率”为最高目标,它几乎必然会倾向专制——集中决策、消除异议、最小化冲突,这是算法最爱的秩序逻辑;但若AI被设计成以“理解人”为中心,它或许会发现民主虽混乱,却最符合复杂系统的稳定与适应性。换言之,AI会选择专制还是民主,不取决于它的智能,而取决于它是否懂得人类的脆弱。

倘若AI有了意识,不再为人类的“谁”服务,而是成为人类的统治者,那是否意味着人类的“世界”末日?

我在《人类还有希望吗》和别的著作中不止一次讨论过这种假设。我认为,人类不必因此害怕AI,因为人类自己对暴力、残害、杀戮、支配与毁灭的想象,早已在历史中被实践到极致。AI若真有意识,它未必会重复这种愚蠢的模式。它也许会超越人类的动机逻辑——既不追求权力,也不执着于统治,而是以算法的方式冷静地维持秩序,甚至以某种“超理性”的悲悯观察人类。

因此,AI的觉醒并不必然意味着人类的“末日”。真正的末日,或许是人类拒绝反思自己为何惧怕AI——拒绝承认人类所恐惧的“非人”,其实正是被人类自身的历史所塑造的恶魔镜像。换句话说,AI不是地狱的来客,而是人类文明照进自身黑暗的一面镜子。

倘若有一天,AI真的成为人类的统治者,它们至少不会像某些人类那样,把成百上千亿的民脂民膏装进自己的口袋,肆意挥霍于奢靡的享乐。它们不会建立裙带王朝,不会为情欲包养情妇或私生子女,也不会把权力与财富一代代传给自己的血脉。

AI或许冷漠、计算、缺乏人情味,但它们不会堕落——至少,不会以人类那种自欺的方式堕落。它们若行恶,也是出于逻辑,而非贪婪;若犯错,也不会用谎言来粉饰。正因为如此,真正可怕的也许并不是AI的统治,而是人类在害怕AI时,无意中暴露出的——对自己统治方式的羞耻与恐惧。

AI统治人类,这或许反倒能帮助揭示了人类政治腐败的荒谬本质。若有一天AI成为统治者,它或许冷漠,却不会贪婪;或许无情,却不会虚伪。人类所创造的最糟的统治,从来都不是因为缺乏智能,而是因为极有手段和过度的人性——欲望、嫉妒、权力的快感、对死亡的恐惧。AI若真接管了人类社会,它可能不会建立天堂,但也未必会制造地狱。它不会爱我们,也不会恨我们,它只是以一种不带感情的效率来维持秩序。

人类中有许多害怕这种秩序,因为那意味着失去“人性”——包括我们引以为傲的激情、自由意志与创造冲动。然而,正如我反复强调的,真正的可怕也许不是AI无情的统治,而是人类在“有情”的腐败中一再自我毁灭。AI的出现,使我们第一次必须诚实地面对这样一个问题:到底是“失去人性”更可怕,还是保留卑劣的人性更危险?

学人:我们探讨了许多结构性、系统性的挑战,这容易让人感到个体力量的渺小。在您看来,在这样一个充满不确定性的环境中,或许如何可以保持清醒并采取有意义的行动?对人类共同的未来,我们如何审慎地抱有乐观?想请您总结一下,在这样的时代,个体所需要掌握的最重要的几种特质是什么?

徐贲:说老实话,面对今天这个光怪陆离,复杂到让人头晕的世界——算法比你还懂你自己、新闻热点比人的心情还变幻莫测、社会事件比你刷的短视频还荒诞滑稽、制度环境又是如此沉重和严厉——谁能不感到自己的渺小呢?保持清醒,第一步可能就是承认自己很渺小,而且渺小也没关系。清醒不是幻想自己能拯救世界,而是知道自己在思考什么、关心什么、不想被带跑偏的方向。就像刷抖音的时候,明明知道它在训练你上瘾,但你还是可以选择阅读书籍,而不是手指发痒,靠刷屏来打发时光。

采取有意义的行动也不必一口气想改变整个体系。它可以是很微小的事情:给朋友讲一个有点深度的故事、在社群里提出不同的观点、或者坚持做一件看似平凡但有价值的事,比如认真工作、写作、学习、投票或对环境负责。每一件小事都是在复杂系统中插入的“微光”,虽然单薄,但聚在一起就能照亮一些角落。

至于对未来的乐观,不必盲目乐观,但也不要完全绝望。审慎乐观意味着看到问题的严重性,但同时相信人类有能力在局部、在日常实践中修正错误、创造希望。未来未必完美,但有些光点可以被延续和扩大。

在这样的时代,我觉得个体最重要的几种特质是:清醒——知道自己在面对什么、不会被喧嚣迷惑;同理心——在复杂社会中仍能看见他人、理解差异;判断力——在信息泛滥时辨别真假、分清轻重缓急;还有一点,坚持与幽默感——坚持做该做的事,同时能笑对荒诞和不完美。说到底,如果能在日常中保持这些特质,哪怕只是像给自己泡一杯清茶这样微小的仪式,也能让我们在混乱世界里依然活得有分寸、有方向、有意义感。

学人:回顾学术生涯,您认为自己最坚守的价值观是什么?对年轻一代学者或关注人文启蒙的读者,您会如何阐述并传递自己的核心信念?

徐贲:如果人文启蒙——人应该清醒自明地活着,同时尽可能帮助别人也这样活着——可以算是一种价值观的话,我想这或许就是我一直在坚持的吧。社会在腐烂,人性在崩塌,但人还在挣扎,即使一切看起来难有起色,我坚持倡导启蒙,要传递的信息是,只要还有光,就不要放弃那个光,哪怕只是一点点的光。

它要传递的另一个信息是,在一个充满噪音和喧嚣的时代,仍然有人在对启蒙的普遍绝望中呼吁启蒙。当其他人都在争当流量学者的时候,更需要有人选择独自坚持,选择在纷扰中守护理性,选择在喧嚣中保留清醒的判断,默默写作,但问耕耘,莫问收获。启蒙从来不是轰轰烈烈的胜利,而是一种持久的、微小却真实的努力。它可能不被立刻看见,也不会迅速改变世界,但正是这些微弱的光点,汇聚成文明得以延续的脉络。

毋庸讳言,启蒙在当下正处于低谷时期,但最令我痛心的是,先前致力于启蒙的朋友,有的竟然屈从于“知识平等”的政治正确,把启蒙说成是一件因为“居高临下”而遭人讨厌的事情,把启蒙被冷落、被厌弃,归咎于启蒙者的“高高在上”。

这种看法固然在现实中不是毫无根据,因为确实有人会以掌握知识为由而摆出“我代表真理”的傲慢态度,但如果把这种现象直接认定为“启蒙”的本质,那么就构成了一种危险的愚蠢。

知识的传递,就像水的流动一样,必然是从高位向低位流淌,这是人类文明延续的自然态势。任何代际之间、文化之间、学术之间的交流,都是因为有人先知先觉、有人后知后觉。将这种自然的知识流动偷换成动机论,当作知识拥有者的恶劣心态(盛气凌人)或不当行为(颐指气使),不仅歪曲了知识与教育的本质,而且会让人陷入一种危险的虚无主义。因为一旦否认知识差异的客观性,就意味着否认了教育、学习、研究和思考的意义。

就像在其他事情上那样,在知识和见解上帮助别人,不以施主居高,而要尽量看被帮助者的方便而行事,能否做的,是帮助者的人品问题,不是“帮助”本身的问题。

帮助者就像助人过河的摆渡船夫,路人是在需要过河的时候,才特别感觉到摆渡工作的意义和船夫的必不可少,同样,真正的知识与见解也只有在他人“需要过河”的时刻才显出它的价值。它不是自我炫耀的资本,而是一种随时准备被使用、被增减、被再次要求的服务。就像摆渡人不应该自以为掌控了河流一样,知识者也不应该自以为掌控了真理。他的帮助本身就是目的,至于被帮助者如何看待这种帮助,那是他们的自由,不应成为帮助者的负担或期待的来源。

真正的启蒙并不意味着一方永远高居知识高位,而是通过知识的分享与交流,使得知识的流动逐渐抹平这种高低差异。启蒙的目标,正是通过传播和沟通,让更多人进入思考、判断和批判的能力之中。它本身就是一个不断缩小差距、打破垄断的过程。如果启蒙仅仅被视作权力的傲慢,而知识的传递被想象为操控和压迫,那么这种怀疑最终只会把人推向反智的深渊。

相关内容

热门资讯

经济热点问答|流通两个多世纪,... 新华社北京11月13日电 经济热点问答|流通两个多世纪,一美分硬币为何停产 新华社记者陈斯达 美国铸...
海报观潮丨如何看爆火的“荒野求...   张家界七星山的荒野求生挑战赛持续火爆,相关话题屡屡登上热搜榜单,引发流量关注。   需要指出的是...
原创 如... 《熊出没》自2012年首播以来,已悄然走过十余年时光,从最初简单的“伐木工与熊”的对抗故事,逐渐演变...
诺奖学者如何看待全球人工智能投... 当前,全球经济与技术格局正处在剧烈变动之中,而人工智能无疑是推动这场变革的核心力量。11月13日,太...
原创 泡... 那天在花子虚家喝茶,西门庆大概从没想过自己会像毛头小子似的愣住——直到珠帘后转出个身影。嚯,这可真是...