原创作品被判定AI生成 平台怎么防止“冤假错案”-新华网
新华网 > > 正文
2025 08/15 14:37:47
来源:新京报

原创作品被判定AI生成 平台怎么防止“冤假错案”

字体:

  人与AI之间的界线可能越来越模糊,但权利与责任的界线必须越画越清。

  “手敲了一下午的剧本被以为是AI”。据报道,随着AI的广泛应用,一些“真人创作者”也面临窘境:自己发布的内容被平台误判为AI生成,甚至面临作品被限流、下架的境遇。

  不久前,一句评论引发全国首例AI误判案或能带来启示。一位普通网民李先生在某平台发表评论,被机器判定为“AI生成”,内容遭隐藏,账号被禁言一天。向平台申诉未果后,李先生选择起诉平台,北京互联网法院经审理支持了李先生的诉求,判决平台删除对李先生评论的违规处理记录,撤销隐藏内容。

  表面上,这只是一次轻微的网络纠纷,但因身处“算法”和“AI”生成两大前沿科技的交汇点而别具意义。比如应该如何对待AI生成内容?平台算法在其中承担了什么角色,产生误判又该怎么办,用户与平台出现争议谁来举证等问题。

  在此案例中,法院并没有亲自下场厘清李先生的评论到底是不是AI生成,而是通过明确两个原则进行判定,其一,平台有权对涉案内容是否属于AI生成合成内容进行审查和处理;其二,平台应该有合理依据。这实际上把举证的责任交给了平台,而平台又无法对算法决策依据和结果进行适度的解释和说明,因此败诉。

  9月1日起,国家互联网信息办公室、工业和信息化部等部门联合发布《人工智能生成合成内容标识办法》将施行,要求上游AI模型需要对生成内容、元数据文件添加标识,平台亦应根据不同情形添加相应标识。

  现实远比规则复杂。未来靠人力对AI生成内容标识显然不可能,“用AI对抗AI”将成为常态,AI检测技术难免出错。更大问题在于,当算法的判定缺乏解释性、申诉机制不透明时,误判不仅是一时的技术错误,而是对创作者声誉和作品可见度的直接伤害。

  北京互联网法院此次判决的意义在于,它首先认可了平台的“守门员”角色,认为平台具有相关内容的审核权,但同时又限制了平台的“裁判员”角色。这不仅是法律逻辑,也是权力与责任的平衡。

  判定一条网友评论是否AI生成事小,但确定原则、防患于未然事大。2016年,澳大利亚政府通过技术手段检测社会福利欺诈,简单对比税务与福利数据,自动判定了大量低收入者涉嫌骗保,这一过程中超过50万人受到影响。但这是一次误判事件,最终政府公开道歉并启动赔偿计划。如无合理制度,类似事件并非不可能重演。

  由此也可让公众知晓,在AI时代,被误判后是可以主张合法权益的;平台应建立更高效、更可追溯的复核机制,同时要加强算法的“可解释性”。

  在未来的数字世界里,人与AI之间的界线可能越来越模糊,但权利与责任的界线必须越画越清。否则,我们将生活在一个讽刺的场景中:最擅长模仿人类的AI安然无恙,而真正的人类却要四处证明自己“不是机器”。(信海光)

【纠错】 【责任编辑:马若虎】