1月23日,由北京大学中外人文交流研究基地与启明创投联合主办的“构建人工智能护栏的全球共识”课题项目启动仪式在北京大学举办。
全国政协常委,北京大学国际关系学院教授、中外人文交流研究基地主任贾庆国在视频开幕致辞中表示,人工智能的应用在信息处理、知识创新、健康保障、经济提质增效等诸多领域取得了显著进展。与此同时,其引发的风险与挑战也已初见端倪、可预可察。作为全球性现象,人工智能风险的有效治理是全人类共同面临的重大课题,亟需国际社会携手合作、协同应对。
“我们深信AI是一项变革性技术,它将在多数情况下提升效率、提升生活品质,乃至改变社会的运行方式。”启明创投创始主管合伙人邝子平在开幕致辞中表示,AI在带来深刻改变的同时,也带来很多风险和挑战,且这些挑战是全球性的。启明创投希望通过支持顶尖研究机构北京大学中外人文交流研究基地的“构建人工智能护栏的全球共识”课题项目,为各界搭建一个基于共同认知的对话框架。

“构建人工智能护栏的全球共识”课题项目启动仪式现场
北京大学国际关系学院教授、中外人文交流研究基地执行主任王栋介绍,本课题项目致力于建立清晰、可操作、可持续的共识达成与落实机制,作为破解AI治理分歧的核心抓手。项目通过“全景绘制”,梳理各国AI治理框架,明确共识、分歧与空白领域;依托“共研协调”,建立分歧动态追踪机制,识别全球AI治理安全红线与共同基础;落实AI治理共识的“机制落地”,构建“对话—共研—转化—追踪”全流程机制,推动AI治理共识凝聚及技术可持续发展。
在主题研讨环节,北京大学武汉人工智能研究院执行院长吴志强表示,应区分人工智能的“存在性风险”与“系统性风险”,当前政策应聚焦于现实、可解决的系统性风险,避免资源被过度集中于远期的假想威胁。他呼吁加大对AI安全研究的投入比例,使其成为基础设计的核心。
美国信息技术与创新基金会副主席丹尼尔•卡斯特罗表示,不同国家在AI治理上会有不同选择,关键在于确保基本安全标准。他认为护栏设计需考虑内在权衡,并指出开放科学与研究共享对于全球共同学习、避免重复错误至关重要。
中国信息通信研究院人工智能研究所所长魏凯阐述了AI风险的多层次性,并强调“动态安全观”与“敏捷治理”理念。他建议建立从企业到国家的“PDCA”(即计划、执行、检查、处理四个阶段)闭环管理机制,形成多方协同的治理生态,以应对技术快速迭代带来的不确定性。
耶鲁大学法学院蔡中曾中国中心高级研究员陆凯认为,研究应正视并深入分析其中的政治差异与制度能力建设问题,在承认分歧的基础上寻求可操作的共识与架构。
北京大学法学院副院长戴昕表示,任何技术或制度性护栏的效力最终都依赖于其所嵌入的法律与社会规范体系。他认为,对护栏乃至治理的合理期待不是其能确保安全,而是其在人工智能发展存在重大不确定性的背景下有助于维护公众安全感知和社会信任。在国际合作维度,他建议从识别若干无争议的共识性治理课题入手,尽快突破当前各类人工智能治理对话受困于话语分歧、无法实现具体行动的局面。
安远AI国际AI治理高级研究经理周杰晟提出,可通过具体的风险评估与模型测试让AI治理原则落地,并呼吁加强跨国危机管理协作,共同提升应对突发事件的能力。(记者 马常艳)
(责任编辑:苗苏)