五部门联合发布《人工智能拟人化互动服务管理暂行办法》:促进 AI 互动服务健康发展

2026-04-16 14:04:13

五部门联合发布《人工智能拟人化互动服务管理暂行办法》:促进 AI 互动服务健康发展

国家互联网信息办公室、国家发展改革委、工业和信息化部、公安部、国家市场监督管理总局五部门联合公布《人工智能拟人化互动服务管理暂行办法》(以下简称《办法》),自2026年7月15日起施行。这是我国首部针对 AI 拟人化互动服务的综合性监管法规。

政策背景与意义

近年来,拟人化互动服务快速发展,在文化传播、适幼照护、适老陪伴等领域的创新应用不断涌现。与此同时,危害未成年人身心健康、影响网络信息安全、威胁公民生命健康以及加剧伦理偏差等问题日益显现。出台《办法》,既是促进拟人化互动服务健康发展的重要要求,也是防范有关安全风险的现实需要。

核心监管原则

《办法》践行以人为本、智能向善的理念,明确国家坚持发展和安全并重、促进创新和依法治理相结合的原则,对拟人化互动服务实行包容审慎和分类分级监管,促进拟人化互动服务向上向善。

包容审慎监管

国家网信部门负责统筹协调全国拟人化互动服务的治理和相关监督管理工作,鼓励拟人化互动服务创新发展,探索开展电子签名授权应用研究,支持算法、框架、芯片等技术的自主创新。

分类分级管理

根据不同服务类型、规模和用户特点,实施差异化的监管措施,确保监管精准有效。对文化传播、适幼照护、适老陪伴、特殊人群支持等领域重点鼓励发展。

服务促进措施

技术创新支持

国家支持算法、框架、芯片等技术的自主创新,推进拟人化互动服务技术研发和相关标准建设。探索开展电子签名授权应用研究,为行业发展提供技术保障。

应用场景拓展

鼓励拟人化互动服务提供者有序拓展文化传播、适幼照护、适老陪伴、特殊人群支持等领域应用。推动 AI 技术在教育、医疗、养老等领域的深度融合。

公众素养提升

国家加强拟人化互动服务安全知识、法律法规等宣传普及,引导社会公众科学、文明、安全、依法使用,促进提升人工智能素养。

安全主体责任

拟人化互动服务提供者应当落实安全主体责任,建立健全以下管理制度:

算法机制机理审核: 确保算法逻辑透明、可解释、可追溯

科技伦理审查: 建立伦理审查委员会,定期开展伦理风险评估

信息内容管理: 配备与服务和用户特点相适应的内容管理技术措施和人员

网络和数据安全: 落实网络安全等级保护制度,加强数据安全防护

风险预案和应急处置: 建立完善的应急预案,定期开展演练

用户权益保护

未成年人保护

专门规定拟人化互动服务提供者的未成年人保护义务,包括:不得生成危害未成年人身心健康的内容,实施防沉迷措施,设立未成年人专属模式,保护未成年人个人信息等。

老年人权益保护

要求拟人化互动服务提供者优化产品适老化设计,简化操作流程,提供人工客服辅助,保障老年人数字生活权益。

个人信息保护

严格执行《个人信息保护法》规定,明确告知信息收集使用规则,获得用户明确授权,保障用户知情权、选择权和删除权。

安全评估制度

拟人化互动服务提供者在以下情形应当开展安全评估,并向所在地省级网信部门提交评估报告:

服务上线或功能增设: 新上线拟人化互动服务,或增设与拟人化互动服务相关功能的

重大变更: 服务提供者的法定代表人、安全负责人发生变更,或安全管理制度发生重大调整的

风险事件: 发生危害国家安全、公共秩序、公民合法权益的网络安全事件或重大舆情事件的

沙箱机制创新

国家网信部门会同有关部门指导推动人工智能沙箱安全服务平台建设,鼓励拟人化互动服务提供者接入沙箱平台进行技术创新、安全测试,促进拟人化互动服务安全有序发展。

法律责任

对违反本办法规定的行为,由网信、发展改革、工业和信息化、公安等部门依照有关法律、行政法规的规定处理、处罚;法律、行政法规没有规定的,由网信、工业和信息化、公安等部门依据职责予以警告、通报批评,责令限期改正,可以要求其采取暂停用户账号注册或者其他相关服务等措施;拒不改正或者情节严重的,责令停止提供相关服务,可以并处一万元以上十万元以下罚款;涉及危害公民生命健康安全且有危害后果的,并处十万元以上二十万元以下罚款。

行业影响

《办法》的出台为拟人化互动服务行业提供了明确的政策指引,推动行业从野蛮生长走向规范发展。企业需要建立健全合规管理体系,加强技术研发投入,提升服务质量和安全防护能力,在创新与合规之间寻求平衡。

该法规的实施将促进我国 AI 拟人化互动服务健康有序发展,推动人工智能技术向上向善,为构建人类命运共同体贡献中国智慧。