2025年10月28日,十四届全国人大常委会第十八次会议表决通过《网络安全法》修改决定,新增人工智能治理专条,明确支持AI基础研究、技术研发与基础设施建设,同时强化风险监管,新规将于2026年1月1日施行。当前我国AI产业规模已突破7000亿元,企业数量达1.3 余家,但AI换脸诈骗、数据泄露等安全事件频发,技术发展与风险防控的失衡亟需法治回应,此次修法正是对这一现实的精准施策。
笔者认为,《网络安全法》的修订为AI应用划定了“安全红线”与“发展绿道”,通过“发展与安全并重”的法治设计,推动AI治理从政策引导迈入法治化新阶段,既是AI产业健康发展的制度保障,也是网络安全治理的技术赋能,将实现“技术升级”与“风险降级”的双向共赢。
从治理逻辑看,新增条款直击AI发展核心矛盾:一方面聚焦算法、数据、算力三大核心要素,支持基础理论研究与基础设施建设,破解产业发展瓶颈;另一方面通过完善伦理规范、强化风险监测,回应AI滥用带来的新型安全挑战。这种“促发展”与“防风险”的双重导向,弥补了此前 AI 治理的体系短板,形成从法律框架到专项规范的全链条治理闭环。从实践价值看,法律明确“AI赋能网络安全”的路径,既让企业有了合规发展的明确指引,也为“AI+安全”的技术创新提供了更广阔的空间。
《网络安全法》对AI治理的规范,本质是用法治思维平衡技术创新与风险防控的辩证关系。在数字经济加速演进的今天,唯有将安全嵌入AI研发、部署、应用全流程,才能让技术创新行稳致远。随着新法施行,期待形成政府监管、企业主责、产学研协同的治理格局,让AI技术在法治轨道上释放更大动能,为网络强国建设筑牢技术与制度双重根基。(杨馨)
编辑:金艳
责任编辑:余凤
编审:张宏彦

0