从AI盗播仿冒名人带货,再到频繁出现的AI版权纠纷,伴随AI技术的应用,生成式人工智能问题日益凸显,也给执法司法带来挑战。12月18日,南方都市报社、南都数字经济治理研究中心主办的“第九届啄木鸟数据治理论坛”在京举办,中国法学会副会长,中国人民大学一级教授王利明以《生成式人工智能的侵权及应对》为题作主旨发言。
王利明表示,当前对人工智能侵权,专门立法为时尚早,应秉持“在发展中规范”的思路,以《民法典》《个人信息保护法》为基础,充分解释、用好现有规则,再通过案例积累、司法解释制定,有效应对人工智能引发的侵权问题。
谈及深度伪造技术的规范,王利明建议,依据《民法典》第1019条,禁止利用深度伪造技术侵害他人权益,关键在于充分解释该条款,应对人工智能领域的深度伪造侵权问题。
针对人工智能侵权专门立法为时尚早,建议用好现有规则
当前,人工智能时代已然来临,人工智能将深刻改变我们的生产方式、生活方式和社会治理模式,“人工智能+”也成为当前乃至今后经济增长的重要增长点。王利明表示,与此同时,生成式人工智能也可能引发侵权问题。因此,应对好生成式人工智能的侵权,是“时代之问”,必须给出回应。
王利明介绍,针对人工智能侵权问题,比较法上有两种核心模式:一是以欧盟为代表的“强监管模式”,该模式注重对个人信息、隐私的保护,设置了多项合规义务,违反义务易引发侵权责任;二是以美国为代表的“轻监管重利用”模式,模型开发者、服务提供者的合规义务相对较轻,个人信息、隐私侵害主要通过侵权法处理。
此前,不少学者建议我国尽快针对人工智能侵权进行专门立法。王利明对此表示,当前专门立法为时尚早,核心原因有两点:其一,人工智能侵权的潜在风险总体可控,主要损害隐私、个人信息、知识产权等权利,未直接对个人生命财产安全造成现实重大侵害;其二,人工智能技术发展日新月异,其带来的新情况、新问题、新挑战仍需时间观察、认识与总结,过早立法可能因滞后性妨碍技术发展。
王利明主张“在发展中规范”的思路,他认为,当前《民法典》《个人信息保护法》已对相关权利保护有明确规定,可以这些现有法律为基础,充分解释、用好现有规则,再通过案例积累、司法解释制定,有效应对人工智能引发的侵权问题。
人工智能侵权过错判断应以“违反注意义务”为核心
人工智能侵权的核心法律问题,首先是归责原则的选择,应适用“无过错责任”还是“过错责任”?
王利明认为,人工智能侵权应适用“过错责任”。无过错责任可能严重阻碍人工智能发展,若一旦发生侵权,模型开发者、设计方、服务提供者就需承担责任,会使其承受过大风险。此外,无过错责任主要适用于产品责任等领域,而人工智能提供的是服务而非产品,服务瑕疵不会像产品瑕疵那样对受害人人身、财产造成现实重大损害,无需将严苛的产品责任归责原则适用于人工智能侵权领域。适用过错责任既能为人工智能的开发、设计、制造、服务提供创新空间,鼓励技术发展,也能兼顾受害人权益保护,是较为妥当的选择。
王利明还提出,人工智能侵权的过错判断标准,应以“违反注意义务”为核心,同时遵循场景化原则,结合具体场景权衡风险防控成本与合理义务,避免“一刀切”。比如,利用人工智能收集他人碎片化信息,若为用户提供个性化推荐且无不当用途,未必构成侵权;但针对特定个人收集碎片化信息并打包出售,则可能构成侵权。此外,过错认定还需考虑现有技术水平,人工智能存在技术无法克服的困境,如生成信息出现“幻觉”,可借鉴民法典侵权责任编中的发展风险抗辩、医疗侵权中的现有技术无法诊治的抗辩,综合考量风险程度与防范风险的成本。例如,要求模型服务提供者删除每条虚假生成信息,可能带来巨大成本,该方式的适用性值得研究,相较之下,针对相关关键词进行合理过滤,更具实操性。
同时,王利明还表示,需明确区分人工智能服务提供者与用户的过错。生成式人工智能运行具有交互性,生成结果既依赖语料来源,也依赖用户输入指令,若用户通过输入虚假信息诱导大模型做出错误判断并造成损害,主要过错在用户,不能直接认定服务提供者存在过错。
“为促进人工智能发展,建议类推适用《民法典》第1195条的避风港规则,即服务提供者收到用户关于侵权内容的整改通知后,未在合理期间采取过滤、优化模型等合理措施的,再承担相应侵权责任,而非一旦发生侵权就直接追责。”王利明称。
禁止利用深度伪造技术侵害他人权益
人工智能常以海量已公开个人信息作为语料,对已公开个人信息的利用是否要取得信息主体同意亦引发争议。
对此,王利明建议,适用《民法典》第1036条,区分已公开与未公开个人信息,仅当已公开个人信息的利用造成信息主体重大利益侵害时,信息主体有权拒绝。例如,收集已公开信息用于模型训练且进行匿名化处理,无需逐一取得同意;但将已公开个人信息打包出售,可能构成重大利益侵害,需承担责任。
王利明还提到,对于已公开数据作品的处理,应区分输入与输出两个阶段:输入阶段,对大模型开发者获取已公开作品数据用于训练,应秉持开放态度,可考虑纳入著作权法合理使用范畴,无需要求每篇作品都取得作者同意,避免影响语料来源;输出阶段,需严格把关生成结果,模型处理者应采取技术措施,确保输出结果多样化、模糊化,避免与他人享有著作权的作品内容雷同,否则可能构成侵权。
此外,深度伪造技术的规范也尤为重要。王利明认为,深度伪造本身是中性概念,但易被用于以假乱真、栽赃陷害、无中生有,均会严重侵害他人权益。建议依据《民法典》第1019条,禁止利用深度伪造技术侵害他人权益,关键在于充分解释该条款,应对人工智能领域的深度伪造侵权问题。
“生成式人工智能发展伴随着风险与挑战,我们需秉持‘在发展中规范,在规范中发展’的监管理念,面对新领域、新技术、新挑战,坚持审慎、包容、开放的态度,保障人工智能在安全、可靠、可控的前提下有序发展,营造鼓励创新的良好营商环境。”王利明称。
采写:南都N视频记者刘嫚 发自北京



































