工信部等十部门印发《人工智能科技伦理审查与服务办法(试行)》:规范 AI 科技活动伦理治理

2026-04-16 14:04:24

工信部等十部门印发《人工智能科技伦理审查与服务办法(试行)》:规范 AI 科技活动伦理治理

工业和信息化部等十部门近日联合印发《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》),为我国人工智能科技伦理审查与服务工作提供了明确指引。该《办法》于2026年3月30日签署,自印发之日起施行。

政策背景

近年来,人工智能技术快速发展,在带来巨大发展机遇的同时,也引发了关于科技伦理的广泛关注。为规范人工智能科技活动伦理治理,促进公平、公正、和谐、安全和负责任创新,推动人工智能产业健康发展,《办法》应运而生。

适用范围

《办法》适用于在中华人民共和国境内开展的,可能在人的尊严、公共秩序、生命健康、生态环境、可持续发展等方面带来科技伦理风险挑战的人工智能科学研究、技术开发等活动,以及依据法律、行政法规和国家有关规定需进行人工智能科技伦理审查的其他科技活动。

伦理原则

开展人工智能科技活动应将科技伦理要求贯穿全过程,遵循以下人工智能科技伦理原则:

增进人类福祉: 以增进人类福祉为根本出发点

尊重生命权利: 尊重生命尊严和权利

坚持公平公正: 确保技术应用公平公正

合理控制风险: 科学评估风险并采取有效防控措施

保持公开透明: 保持技术发展和应用过程公开透明

保护隐私安全: 保护个人隐私和信息安全

确保可控可信: 确保技术可控、结果可信

服务与促进措施

为构建完善的人工智能科技伦理服务体系,《办法》从五个方面制定支持举措:

标准建设: 建立和完善人工智能科技伦理标准体系,推动制定相关国际标准、国家标准、行业标准、团体标准,支持搭建国际标准化交流合作平台。鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等参与人工智能科技伦理标准的制定、验证与推广。

服务体系: 推进人工智能科技伦理服务体系建设,强化人工智能科技伦理风险监测预警、检测评估、认证、咨询等服务供给,提升企业技术研发和人工智能科技伦理风险防范能力,加大对中小微企业人工智能科技伦理审查的支持和服务力度,推进人工智能科技伦理国际交流合作。

鼓励创新: 鼓励高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等开展人工智能科技伦理审查研究,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险;促进人工智能科技伦理审查高质量数据集有序开源开放,加强通用性风险管理、评估。

宣传教育: 开展人工智能科技伦理宣传教育,发挥科技类社会团体在人工智能科技伦理宣传教育方面的作用,鼓励公众参与,促进实践示范,提升公众伦理意识和素养。引导大众传播媒介有针对性地进行人工智能科技伦理宣传教育。

人才培养: 支持高等学校、科研机构、医疗卫生机构、企业和科技类社会团体等开展人工智能科技伦理相关教育与培训,推动职业体系和课程体系建设,采取多种方式培养人工智能科技伦理人才,促进人才交流。

此外,《办法》第三十二条规定,违反本办法规定的,将依照《中华人民共和国网络安全法》《中华人民共和国数据安全法》《中华人民共和国个人信息保护法》《中华人民共和国科学技术进步法》等法律法规进行调查处理,并依法依规给予相应处罚。

实施主体

科技活动责任主体: 从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等是本单位人工智能科技伦理审查管理的责任主体,应按照本《办法》要求设立人工智能科技伦理委员会。委员会应配备必要的工作人员、办公场所和经费等条件。

审查申请程序: 对属于本《办法》第二条所列范围的人工智能科技活动的,人工智能科技活动负责人应向本单位委员会申请;单位未设立委员会或委员会无法胜任科技伦理审查工作要求,向本单位委托的服务中心申请开展科技伦理审查;无单位人员应委托符合要求的服务中心开展科技伦理审查。

审查程序

《办法》针对人工智能科技活动特点,规定了多元化的审查程序:

一般程序: 人工智能科技伦理审查会议由委员会主任委员或其指定的副主任委员主持,到会委员应不少于5人,且应包括不同类别的委员。服务中心可参考委员会的规定组织实施工作。

简易程序: 对风险较低、影响较小的科技活动,可适用简易程序,提高审查效率。

专家复核程序: 对需要开展专家复核的人工智能科技活动,需先通过单位委员会完成初步审查,再由单位申请专家复核。

应急程序: 对涉及重大风险、需紧急处理的人工智能科技活动,启动应急审查程序,确保风险及时管控。

需要开展科技伦理专家复核的人工智能科技活动主要包括:

  1. 对人类主观行为、心理情绪和生命健康等具有较强影响的人机融合系统的研发
  2. 具有舆论社会动员能力和社会意识引导能力的算法模型、应用程序及系统的研发
  3. 面向存在安全、人身健康风险等场景的具有高度自主能力的自动化决策系统的研发

监督管理机制

分级监管: 科技部负责统筹指导全国科技伦理监管工作,工业和信息化部会同有关部门负责人工智能科技伦理治理工作,加强应急伦理审查的协调指导。各部门依照职责权限负责本行业、本系统人工智能科技伦理审查的监督管理工作,各地方依照职责权限负责本地区人工智能科技伦理审查的监督管理工作。

信息登记共享: 单位应依照相关规定,将委员会相关情况、纳入复核清单的人工智能科技活动通过国家科技伦理管理信息登记平台进行登记,并提交上一年度委员会工作报告、纳入复核清单的人工智能科技活动实施情况报告等相关材料。科技部与相关主管部门对人工智能科技伦理相关登记信息同步共享。

违规处理: 地方、相关主管部门、从事人工智能科技活动的单位应结合本行业、本系统、本单位的实际情况,畅通能够反映人工智能科技伦理违法违规问题的渠道,并按照相关规定处理。

减轻企业合规负担

《办法》第二十六条规定:"人工智能科技活动在深度合成、算法推荐、生成式人工智能服务管理等方面实行登记、备案、行政审批等监管措施且将符合科技伦理要求作为审批条件、监管内容的,可不再开展专家复核。"这一规定有效减轻了企业合规负担,避免重复审查,提高监管效率。

行业影响

《办法》的出台为我国人工智能科技伦理治理提供了系统化、标准化的制度保障,将有效推动人工智能产业健康有序发展。企业需要建立健全科技伦理审查管理体系,加强伦理风险防控能力,在技术创新与伦理合规之间寻求平衡。

该《办法》与现有人工智能治理相关政策法规实现有效协同,与《科技伦理审查办法(试行)》紧密衔接,在遵循通用规定的前提下,立足人工智能技术特征与伦理原则,在适用范围、申请材料、审查重点、简易程序适用等方面作了针对性完善与细化,更贴合人工智能科技伦理审查实际需要。

结语

《办法》坚持促进创新与防范风险相统一,通过制定人工智能科技伦理审查规则,提升人工智能伦理治理能力,确保人工智能负责任创新,为我国人工智能产业高质量发展提供有力支撑。随着《办法》的全面实施,我国人工智能科技伦理治理将迎来新的发展阶段,为构建安全、可信、负责任的人工智能生态奠定坚实基础。