《人工智能生成合成内容标识办法》已经正式施行,AI生成内容“亮明身份”已成为行业基本共识。抖音、今日头条等主流平台纷纷上线标识功能,60%的创作者会主动标注AI创作属性,30%未标注内容被平台补充提示“可能为AI生成”。但热闹的合规表象下,“去标乱象”仍暗流涌动:充值会员即可去除水印、用简易工具涂抹标识、通过镜像翻转规避检测等操作屡见不鲜,甚至出现“120元售卖去标教程”的灰色生意。显隐双重标识的设计初衷是筑牢内容溯源的“防火墙”,但如何破解去标难题、守住合规底线,成为AI治理新阶段的核心命题。
笔者认为,去标乱象的滋生,本质是利益驱动与技术漏洞的双重叠加。在商业营销领域,部分商家为规避“AI生成”标签对消费信任的影响,刻意去除标识误导公众:AI合成的“院士代言”护肤视频、“明星直播”带货内容,通过去标后伪装成真实内容传播,张伯礼院士就曾遭遇AI换脸仿冒推广医疗产品的侵权事件;在电商平台上,AI生成的“穿模”童装带货视频,因未标识被消费者误认成真人拍摄,暴露了营销场景下的去标灰色地带。而技术门槛的降低更让乱象蔓延:市面上6元即可购得“终身去标工具”,通过涂抹、裁剪、镜像翻转等简单操作,就能轻松去除图片视频中的显性标识,且去标后的内容往往能绕过平台检测。利益诱惑与技术便利的交织,让显隐标识的“防去标”能力遭遇严峻考验。
显性标识的易操作性缺陷与隐性标识的技术瓶颈,是去标乱象频发的关键症结。当前主流的显性标识多为画面水印或文字标注,属于“后处理技术”,仅需基础编辑工具就能篡改删除——某AI生图平台的“高级会员”可直接解锁去水印功能,生成内容经简单处理后便能“洗白”为原创。而《人工智能生成合成内容标识办法》要求的隐式标识,虽通过元数据嵌入生成者、内容编号等信息,但存在明显短板:一方面,内容经多次转发、格式转换后,元数据易丢失;另一方面,不同平台的隐式标识技术标准不统一,导致跨平台传播时无法有效识别。更值得警惕的是,目前文字类AIGC仍缺乏成熟的显隐标识技术,给虚假新闻、伪造观点等乱象留下了可乘之机。技术设计的不完善,让“标了能去、去了难查”成为当前治理的突出痛点。
堵住去标乱象,不能仅依赖单一标识技术,而需构建“技术升级+监管加码+平台尽责”的三重防线。技术层面,应推动隐式标识从“外置嵌入”向“内生植入”升级,将水印信息融入内容生成的核心环节——如在图像像素分布、文本词汇选择概率中植入不可见“数字胎记”,即使经过二次编辑也难以完全清除。商汤科技等企业已尝试基于EXIF规范优化元数据标识,但其抗篡改能力仍需在实践中检验。监管层面,需明确“恶意去标”的法律责任,对为去标提供工具服务、利用去标内容实施诈骗侵权的行为加大处罚力度,北京查处首例AI伪造主持人虚假广告案,正是通过行政处罚释放了监管信号。平台作为治理关键主体,更需落实主体责任:一方面要升级算法检测能力,对镜像翻转、画中画遮挡等规避行为进行精准识别;另一方面应统一标识标准,推动跨平台隐式标识互认,避免“各标各的、互不认账”。
AIGC标识治理不是“一标了之”的简单工程,而是技术迭代与治理能力的持续博弈。从北京互联网法院判决平台需对AI生成判定结果承担解释义务,到各大平台不断优化标识功能,治理框架正在逐步完善,但去标技术的升级也从未停歇。未来,还需在三方面持续发力:一是建立全国统一的隐式标识技术标准,解决跨平台溯源难题;二是将标识要求延伸至AI工具开发环节,禁止工具内置“一键去标”功能;三是通过案例普法提升用户认知,让“无标识AI内容需谨慎”成为共识。
AI技术的健康发展,既需要创新的活力,更需要治理的边界。AIGC强制打标两月的实践,是AI治理从“立规”向“落地”的重要一步。唯有让显性标识“难去除”、隐性标识“防篡改”、监管处罚“零容忍”,才能真正堵住去标乱象,让标识制度成为保护用户知情权、遏制虚假信息的有效屏障。这不仅是对AI行业合规性的考验,更是为技术创新划定安全边界,让人工智能在信任的土壤中实现可持续发展。(戚麟朗)
编辑:陈翠
责任编辑:余凤
编审:吴山冠

0