一、杭州奥特曼被低估的判决

由杭州互联网法院一审(2024浙0192民初1587号)、杭州中院在2024年最后一天终审判决(2024浙01民终10332号)的上海新创华诉杭州水母智能触手AI侵犯奥特曼著作权案,虽偶有媒体报道但被DeepSeek-R1刷屏和春节的欢乐遮蔽了声量。虽然杭州法院对这起AI案件的裁判引起的关注还不如广州互联网法院在去年初就相同原告和作品判决的第一起AI相关奥特曼侵权案,但个人认为意义远远大于后者。杭州法院在当下被低估的这起判决(以下称杭州奥特曼案)最大意义是司法实践直面技术挑战,推动版权法理论踏出重要一步。杭州奥特曼案判决缩短了版权法和飞速发展的技术之间的距离,将对人工智能司法以及未来立法产生重大影响。

对杭州奥特曼案判决报道不多,其中最有影响的应该是南方都市报对案件的相关报道。报道采访参与该案审理的法官助理,但可能受过于细分的法律专业壁垒影响,记者提问集中在被告AI平台是否侵害信息网络传播权的问题,没有深一步触及本案裁判隐藏的推理核心。本文以下部分简介本案案情,通过对比法院总结的案件争点以及AI版权侵权的法律焦点问题,还原判决尝试建构的分析框架。

杭州奥特曼案基本事实是享有奥特曼系列作品在中国地区著作权独占授权的上海新创华文化发展有限公司(以下称上海新创华或新创华)起诉杭州水母智能科技有限公司(以下称杭州水母),主张被告提供生成式人工智能服务的触手AI平台(即水母智能网smalld.cn)允许用户上传奥特曼相关图片进行模型训练并生成与奥特曼形象相似图片的行为构成侵害著作权及不正当竞争,要求被告承担停止侵权、赔偿经济损失及合理费用30万元。


(触手AI官网)

根据法院查明,触手AI支持文生图、 图生图、参考生图、模型在线训练等AI功能,但杭州水母并不是AI模型提供方而是部署基于第三方Stable Diffusion开源模型(以下称SD模型)的Checkpoint模型,向用户提供AI生图及训练等服务。和本案争议相关的几种生图方式,均包括用户在基础模型基础上自行上传或者调用LoRA素材库作为定向训练/微调以生成指定特征图像的步骤。杭州互联网法院一审认定原告有权起诉,被告未构成不正当竞争也不构成直接侵权,但因未合理预防明显侵权内容因此承担帮助侵权责任。二审法院驳回新创华上诉,维持包括停止侵权和赔偿包括经济损失与合理费用3万元在内全部一审裁判。

二、数据训练的合理使用

一审法院(2024)浙0192民初1587号判决书总结本案争议焦点为:“一、新创华公司是否有权提起本案诉讼,二、水母公司的涉案行为是否构成信息网络传播权侵权,三、水母公司的涉案行为是否构成不正当竞争,四、本案民事责任的确定。”

以上争议焦点中,第一项原告权利主体身份只与个案相关,不涉及判定AI版权争议的法律规则;第三项关于不正当竞争的裁决其实并无悬念,二审法院都认为被告商业模式和经营方式合法,同时依《著作权法》已足以评价本案且《反不正当竞争法》第二条适用不应与专门法相抵触或平行保护为由驳回诉请。本案争议核心在于争议行为是否侵犯版权及其民事责任认定,这两项认定其实也是同一个问题的两面。而作为这两项认定的共同前提,则是模型数据训练是否适用合理使用以及人工智能服务提供者是否可以作为平台或者技术服务提供者主张避风港规则

模型数据训练的合理使用是极具挑战性的争议,法院在本案中并没有规避而选择直面挑战并给出非常清晰的答案,以至于看判决书时容易感到一点意外。一审裁判对数据训练是否可以适用合理使用的论证实际上分成两个部分,先将AI模型生成的全流程切分为不同阶段,再在判决尾部针对原告诉请阐述结论。在前述第一部分中,法院提出对人工智能法律纠纷的审理应坚持“发展和安全并重、促进创新和依法治理相结合的原则,对生成式人工智能服务实行包容审慎,兼顾权利保障和服务产业健康高效发展,推动形成公平合理、开放包容的人工智能治理体系”的基本理念,但其出彩部分并不在对法政策的论述,而是将生成式人工智能分成数据输入、数据训练、内容输出、内容使用四个阶段,并主张对不同阶段区别处理的策略:

“对于大模型的数据输入、数据训练行为的侵权认定,宜采取相对宽松包容的认定标准,对大模型的生成内容输出、生成内容使用行为的侵权认定,则宜采取相对从严的认定标准,通过分类施策实现发展与保护的平衡”。

在杭州奥特曼案判决之前,版权界对AI版权侵权争议的分析流行。在整体判断论的整体判断模式下,对输入和输出中任何一个环节的侵权判断都会影响甚至覆盖对另一个环节的判断。“训练与生成两个行为之间的关联方式也并非很多人默认的直线因果,而是仅仅是抽象的概念因果。概念上的因果关系不同于具体的因果链条,输入与输出之间并非一一对应,在很多场景下甚至无法进行因果推导。”杭州奥特曼案判决明确区分模型生成过程中的不同阶段并区别处理,是AI版权法的进步,也为进一步说明模型数据训练可适用合理使用论证了前提条件。

法院在评价原告新创华要求被告对奥特曼及相关关键词在全平台进行屏蔽的诉讼请求时,首先表示应区分情形予以判定。在支持要求被告删除已构成侵权的奥特曼图片及 LoRA模型部分后,法院表示“生成式人工智能的创设与发展,需要在输入端引入巨量的训练数据,其中不可避免会使用他人作品。鉴于生成式人工智能在数据训练阶段使用他人作品的目的,原则上应是用于学习分析在先作品所表达的思想感情、语言特征、特色风格等内容,从中提取出相应的规则、结构、模式、趋势,便于后续转换性创作新作品。该种使用行为聚合大量作品作为分析样本数据进行提高作品创作能力训练,并非以再现作品的独创性表达为目的,且一般情况下数据训练只是对语料数据作结构特征分析时暂时保留了在先作品,数据训练及生成过程中也未将在先作品展示给公众,因此,本院认为,在无证据证明生成式人工智能是为使用权利作品的独创性表达为目的、已影响到权利作品正常使用或者不合理地损害相关著作权人的合法利益等情形下,可以被认为是合理使用。”

以上一段判决是中国法院首次认定生成式模型的数据训练符合著作权法合理使用的要求,是版权合理使用规则在人工智能环境下的重要突破。这段判决或许是因为尚未官方公开所以没有引起足够关注,却一定会成为版权法发展的风向标。理论解释可能不够直观,举两个例子来说明模型数据训练使用作品的结果和特征:

用梵高作品训练模型不是为照抄向日葵、麦田、鸢尾花和夜空,而是学习梵高魔幻的用色、对比和构图;使用米老鼠形象训练模型,并不是为了复制而是为了分析和学习鼠类卡通画法。只要训练样本多样,模型可以学会生成和米奇以及任何一种已有作品不同的全新卡通老鼠。

模型数据训练是机器学习的核心环节,对数据训练适用合理使用可以做几点补充论证:

首先,机器学习和人类学习是平行的学习行为。

机器学习和人类学习虽然各种实现路径不同,但两种行为的起点都是输入素材,终点都是生成新内容,在学习的本质上高度近似。人类学习可以适用合理使用,机器学习也是同理;

其次,模型数据训练过程是通过分析训练素材数据分布规律和数据结构特征的方式进行学习,但目的和人类学习一样是为了掌握基础素材中的思想。

有专家认为数据训练是为再现训练素材中的表达,这个观点离事实相去甚远。生成式模型学习的一个重要结果是产生泛化能力,即类似通过学习上联即能对答下联的能力,这说明数据训练的效果是掌握素材中的思想而非照抄表达。所有主流模型的数据训练均采取数据增强、限制模型复杂度、加强正则化和丢包策略(Dropout)等通行策略,这些都是公认有效的防止模型出现过拟合即防止生成内容和训练素材过于接近的技术。

最后,数据训练过程中对训练素材的复制是附随和临时性的环节,训练完成之后模型并不保留训练素材。换言之,学习不是为了复制,而复制仅仅是为了学习。

随着欧盟人工智能法(AIA)支持模型预训练援引数据挖掘(TDM)的合理使用,全球范围立法接纳数据训练作为版权法例外规则的大趋势已足够清晰。至于AI数据训练会摧毁现有版权保护制度的主张实为担心过度。在区分模型训练和生成阶段情况下,对AI生成结果适用和人类同样的版权侵权判定标准就足以保护已有智力成果。在这个意义上杭州奥特曼案判决走在学术和立法之前,是兼具勇气和思辨力的司法实践。

三、AI技术服务的法律责任

虽然根据法院认定本案被告水母公司并非图像大模型的提供者,但也属于在基础模型之上提供人工智能应用服务的服务商。几乎所有人工智能法律问题都有相当争议,但法律责任可能是其中最复杂的问题。《生成式人工智能服务管理暂行办法》(以下称暂行办法)第九条规定生成式人工智能服务提供者应当依法承担网络信息内容生产者责任,事实上是站不住脚的。这不但因为暂行办法是以行政监管作为目标插入到民事法律规范,而且这项规则也明显偏离了客观条件。生成式技术远远不止用于生成内容,而是渗透到包括自动驾驶和机器人的广泛场景。以自动驾驶为例,端到端的驾驶数据强化学习技术取代了规则主义的代码预置,模型生成结果是驾驶决策而不是内容,所谓内容生产者责任连承担的现实基础都不存在

杭州奥特曼案在版权侵权责任争点上,新创华主张被告应作为内容提供者承担直接侵权责任,即使对用户上传内容也应承担间接侵权责任;水母公司主张其属于对用户上传内容提供信息存储空间的网络服务提供者,调用第三方模型属于提供网络技术服务,得以网络平台身份主张承担“避风港”规则下的一般注意义务,即主张只对平台侵权内容承担“通知-删除”义务。法院对生成式AI服务的版权侵权责任判定在本案中给出了非常出色的分析:

1. 放弃内容责任和直接侵权的固定模式

杭州互联网法院审理奥特曼案思路和广州互联网法院审理相同原告(2024)粤0192民初113号案判决中多次援引暂行办法的路径实际大相径庭。一审(2024)浙0192民初1587号判决书中仅在确认“生成式人工智能服务提供者”这一节事实时援引暂行办法第二十二条,完全没有提及暂行办法对AI服务商承担内容提供者责任的规定。与其说这是不同法院对相同问题的不同认知,更可能是司法机关在首个奥特曼纠纷判决后经过多半年的近距离观察,开始对生成式AI和纠纷裁判有了准确的体感和更好的裁判方法。

杭州互联网法院根据审查证据结果,在判决中准确指出被告AI平台的争议内容是由用户上传和指令:“本案用户数据训练的奥特曼图片由用户上传,案涉LoRA模型的封面图或者示例图也是用户上传….客观上,下达指令决定生成内容的是用户,AI平台未参与到用户实施的上传、发布和分享行为中;主观上,亦缺乏被诉AI平台和用户之间共同提供作品的意思联络,故此被诉AI平台未直接实施受信网权控制的特定行为,不构成直接侵权”。

2. 根据具体证据个案认定事实与责任

在认定争议内容上传和指令的事实后,杭州互联网法院在判决中进一步指出:“在判断生成式人工智能服务提供者是否构成侵权时,应结合具体应用场景、具体被诉行为,分类分层分别界定侵权责任…”。

根据个案证据和场景具体认定事实和责任,是裁判在放弃AI服务提供者承担内容责任后进一步深化的推理,这相比无条件要求生成式人工智能服务应承担内容提供者责任的抽象规定是法理原则上取得的进步。

3. 生成式人工智能服务属于新型网络服务

一审判决指出:“应当注意到,生成式人工智能服务提供者提供的网络服务有别于传统的网络内容提供行为、网络存储空间服务提供行为和搜索链接服务提供行为等,生成式人工智能服务提供者兼具内容生产者与平台管理者的双重身份,属于一种新型的网络服务”。面对生成式人工智能服务属于传统内容提供者抑或技术服务/平台服务者的问题,杭州奥特曼案裁判大胆提出AI技术服务属于具有混同特点的新型网络服务的全新观点。

在提出AI服务属于新型网络服务的基础上,判决针对涉案内容是由用户上传和指令的事实进一步指出:“在由用户输入提示词、上传侵权图片等训练语料并决定是否生成及公开传播时,生成式人工智能服务提供者既没有提供侵权训练语料,也不能对输出的内容以及输出的过程进行完全的控制和干预,此时,生成式人工智能服务提供者系提供生成式人工智能技术服务,对用户输入的提示词、训练图片等数据内容,以及生成物的传播等行为并不当然负有事先审查的义务…”。

杭州法院提出AI服务属于具有复合特征的新型网络服务,进一步摆脱了AI服务应承担内容责任的错误定式。生成式人工智能服务不仅涉及大量由用户而非平台决定的内容,而且以技术本身发展阶段而论也不应该简单以内容责任笼统覆盖。即使以当下最先进的生成式模型和训练技术而论,训练模型也和老师教孩子写作文相类似,理论和实际上都无法做到有效预见和对生成结果的控制,例如爆火的DeepSeek模型内容创造力就强大但似乎有点失控。对AI服务不加区分的套用内容责任,会超过目前技术发展的实际阶段。

4. 可操作的法律责任判断标准

经过系列分析的铺垫,法院对模型服务提供方法律责任的过错认定列举了具有可操作性的原则和具体标准。一审(2024)浙0192民初1587号判决书先分析了生成式人工智能服务过错的认定规则,提出:“…应综合考量生成式人工智能服务的性质、当前人工智能技术的发展水平、避免损害的替代设计的可行性与成本、可以采取的必要措施及其效果、侵权责任的承担对行业的影响等因素,通过动态地调整过错的认定标准,将平台注意义务控制在合理的程度。具体而言,即以同质行业理性人标准予以考量,当生成式人工智能服务提供者可以证明施以同业一般服务提供者注意力难以发现该生成内容可能构成侵权,或者能够证明自身已经采取了符合损害发生时技术水平的必要措施来预防损害,但仍无法防止损害的发生,应认定其已尽到合理的注意义务,不具有过错”。

简要的说,法院认为AI技术服务提供者的过错认定应当坚持综合动态理性人的原则,对过错因时因地的具体判断。判决并在对被诉侵权行为是否构成帮助侵权的评析中展开1、提出生成式人工智能服务的性质;2、权利作品的知名度和被诉侵权事实的明显程度;3、涉案生成式人工智能可能引发的侵权后果;4、平台营利模式;5、预防侵权的合理措施等在内的具体判断因素。

尽管法院在认定数据训练合理使用以及建构侵权责任模型时大胆突破传统理论,但判决书在阐述侵权认定具体原则和条件时并没有另辟蹊径而是很好的借鉴与整合现有网络侵权判断规则,理论突破和规则延续并行不悖。结合人工智能法律研究中的实践经验,杭州奥特曼案判决提出的法律责任认定标准实际可以增加模型服务提供方对生成结果的合理预见和实际控制能力的条件,这样判断的全面性和准确性将更好。

四、靠近实践是理论突破的前提

算是一点个人看法,中国司法审判水平近年来给人大幅起落的感觉,但在人工智能法律纠纷审判方面司法步伐稳定的走在学术(和立法)之前。这大概率源于司法审判远比学术界贴近实践一线,以及法院在裁判过程中通常愿意走入各方了解一手的真实情况。

苏州中院在审理苏州蜗牛诉成都天象等《花千骨》游戏抄袭《太极熊猫》游戏案中,从来不玩游戏的主审法官为求准确心证专门下载、反复通关和对比争议游戏,最终写出中国游戏版权研究至今绕不过的经典判决(该案终审案号2018苏民终1054号);中国AI审判某第一案(本文不提案件审理信息)中,主审法官为了解AI技术专程调研几个案外的知名人工智能平台,足称难能可贵。

技术远远走在法律之前,人工智能时代的立法和司法当然需要理论突破。但和纯粹理论研究同样重要的是走入一线,真实了解生成式技术的基本逻辑和表现,感受技术、社会与法律进化的真实脉搏。如果没有务实的司法基础,很难想象杭州奥特曼案裁判是凭空在版权理论上迈出这一大步的。

中国和世界都需要更多的杭州奥特曼案判决。

1、《用户生成奥特曼侵权图片,AI平台为何要担责?对话杭互法官》,https://news.qq.com/rain/a/20250123A05VNH00

2、《大模型深陷版权博弈 数据训练坚冰将破》,https://mp.weixin.qq.com/s/WndsVEaSHsPaLoV8YvdCPQ

3、2024浙0192民初1587号判决书

4、关于AI法律责任复杂程度的分析,可参见《以进为路—AI法律责任的分析和建构》,https://mp.weixin.qq.com/s/9aNlANSxZzPQvatCfBOvxQ

5、《警惕!DeepSeek在应用于科研检索时,会一本正经地胡说八道》https://mp.weixin.qq.com/s/0otz8jZsakjuNw4twWcEOw

ad1 webp
ad2 webp
ad1 webp
ad2 webp