当前,人工智能技术在深刻重塑生产生活方式的同时,也带来了算法偏见、深度伪造等多重伦理风险,成为关乎公众利益、社会稳定与国家安全的重大议题。近日,工业和信息化部等十部门联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),提出支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
科技伦理治理是人工智能治理的重要组成部分,主要包括增进人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等方面。《办法》对人工智能科技伦理审查的适用范围、服务促进、实施主体、工作程序、监督管理等作出规定,并结合人工智能科技活动特点,明确了申请与受理、一般程序、简易程序、专家复核程序、应急程序等不同程序要求,有效规范人工智能科技活动伦理治理。
工业和信息化部相关负责人表示,加强人工智能科技伦理治理,是坚守科技向善、筑牢科技安全底线、保障产业高质量发展的必然要求。出台《办法》,既是对科技伦理治理要求的具体落地,也是推动人工智能产业创新发展、促进负责任创新的现实需要。
工业和信息化领域科技伦理专家委员会主任委员魏一鸣表示,《办法》的出台,标志着我国人工智能伦理治理从原则倡导迈向制度化、规范化、可操作的新阶段,为推动人工智能健康发展提供了重要制度遵循。
近年来,我国坚持“伦理先行”的治理要求,在统筹发展和安全基础上,持续推进人工智能科技伦理治理工作,已初步形成“以人为本、智能向善”,覆盖法律、规范、技术以及多主体的综合性、多层次相协调的人工智能伦理治理模式。
360集团创始人周鸿祎认为,“智能向善”是指在人工智能的设计、开发和应用过程中始终坚持服务社会公共利益,让技术的发展方向与人类福祉保持一致。人工智能发展要正视风险挑战,例如算法偏见、隐私保护和深度伪造等问题。这也说明,人工智能发展不仅是技术问题,更是治理问题。只有通过制度规范、技术创新和社会协同,让人工智能始终在安全、可靠、可控的轨道上发展,才能真正实现“智能向善”。
“《办法》立足人工智能技术迭代快、跨界融合深等特点,在通用审查规则基础上实现领域化、精细化适配,填补了人工智能科技伦理审查的制度空白。”魏一鸣分析,科技伦理审查以价值引领为核心、以风险防控为导向、以多元共治为路径、以敏捷适配为特点,与法律规制、行业监管形成互补衔接。
《办法》明确,开展人工智能科技伦理审查要重点关注人类福祉、公平公正、可控可信等方面。此外还提出,促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估审计工具研发,探索基于应用场景的科技伦理风险评估评测;推广符合科技伦理的人工智能产品和服务,保护科技伦理审查技术知识产权。
“伦理治理不仅需要制度规范,更需要技术支撑。”魏一鸣认为,具有深厚技术实力的企业、高校和科研机构,应主动加强人工智能伦理治理技术研发与工具创新。聚焦可解释人工智能、算法公平性监测、深度伪造鉴别等关键技术开展专项攻关,为伦理审查提供技术工具。通过研发实用的伦理评估工具、风险模拟平台和算法审计系统,将抽象的伦理原则转化为可量化、可操作、可嵌入工程流程的技术指标与解决方案,推动伦理治理技术化、工程化。
工业和信息化部相关负责人表示,《办法》要帮助企业切实提升科技伦理风险防控能力,推动人工智能产业健康发展。工信部将建立和完善人工智能科技伦理标准体系,推动制定相关国际标准、国家标准、行业标准、团体标准,支持搭建国际标准化交流合作平台。鼓励高等院校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准的制定、验证与推广。(经济日报记者 黄 鑫)
(责任编辑:王炬鹏)