极目新闻记者 张静娴
实习生 谢咏希
在科技加速主义席卷全球的当下,人工智能正以前所未有的速度重塑世界。11月7日,上海交通大学资深教授季卫东在武汉大学珞珈讲坛带来“科技加速主义与人工智能监管”主题讲座,从哲学思辨到现实治理,从国际经验到中国方案,为师生们解读人工智能发展与监管的核心命题:如何让AI在“加速奔跑”的同时,守住安全、公平的底线。
全球AI政策转向:多国为研发 “松绑”,人工智能面临治理困境
“2025 年成为全球人工智能治理的重要转折点。”季卫东指出,美国、日本、韩国等国纷纷推出鼓励AI研发的政策,欧盟也推迟了原定严格的人工智能法生效时间,显示出政策取向更倾向于科技研发,而不是社会安全。
人工智能带来的红利有目共睹:在科研领域助力新材料发现,在医疗领域推动脑机接口技术落地,在产业领域催生智能机器人与无人经济。
但风险也随之而来,失业焦虑、虚假信息泛滥、技术失控隐患等问题,让“发展与安全”的平衡成为全球难题。“就像养大的老虎难回笼,AI技术一旦广泛应用,其影响就难以逆转。”季卫东用形象的比喻说明,人工智能虽能带来效益,但风险不可忽略。
面对人工智能风险,早期全球治理多依赖伦理本位,包括G7《关于AI研发的八项原则》、阿西洛马人工智能原则、OECD AI五原则等,围绕安全、公平、人类主导、责任可追溯等关键方向展开。但伦理本位的治理模式因其概念的模糊性和价值观的差异性,在实践中面临巨大挑战。
治理有了新办法:靠技术防风险,用“程序”衔接安全与伦理
面对这一挑战,治理模式正在发生转变,通过更强有力的技术手段来进行人工智能安全风险的系统性应对方式应运而生。例如,在2024年3月,数十位海内外技术专家和企业领袖在中国签署了《北京AI安全国际共识》,试图以此为基础形成国际合作机制,并呼吁各国政府和企业把AI研发预算的三分之一投到安全保障领域。
“人工智能治理的技术性方案试图把安全与伦理区分开来,但技术本位终究还是无法回避人文精神和道义的挑战。”于是季卫东提出,“技术性方案回应伦理本位挑战的关键在于正当程序。”
“正是通过公正而合理的验证程序、操作程序以及法律程序,正是通过程序之中的对话、沟通以及交涉,技术本位的人工智能治理也有可能保障伦理观,进而创造出一种新型价值观和关系性秩序原理,并且有可能形成某种把技术理性与人文精神密切结合在一起的伦理规范体系。”季卫东说。
季卫东举例,就像“无知之幕”的思想实验——在不知道自身身份的情况下制定规则更显公平,AI治理也需要通过规范的对话机制、可追溯的操作流程,让技术决策符合公共利益。“不是给AI装‘伦理芯片’,而是通过程序设计,让AI的运行始终在人类可控范围内。”
季卫东特别强调,人工智能治理势必从伦理性、实质性的“价值对齐”,转向技术性和程序性的“目标对齐”,而把难以进行技术处理的主观价值问题都留给人类自己去负责。
2025级法硕研究生荆国华听完讲座后受益匪浅,他告诉极目新闻记者,季卫东教授从法哲学视角切入,将哲学思辨、科技加速主义与法学、人工智能治理相结合,分析三者融合点的方式让自己很受启发:“我本身比较倾向于宪法与行政法的问题,但是听完讲座后我觉得法社会学也很有意思,未来我也会考虑向这个方向发展。”
作为武汉大学的高端学术平台,珞珈讲坛自2008年创立以来,始终致力于为学子开拓学术视野、启迪创新思维。武汉大学法学院院长秦天宝表示:“本次讲座延续了这一传统,通过跨学科的深度对话,让学生在人工智能治理这个前沿领域,既看到了技术发展的无限可能,也认识到法治建设的重要价值。这种开放、包容的学术氛围,正是培养复合型创新人才的重要基石。”
(来源:极目新闻)