生成式人工智能服务输出侵犯版权内容的救济研究*
关键词:
本文引用格式
王杰.
随着人工智能技术的发展,其应用不断深入人类社会的生产、生活,已是不可逆转的趋势。据德国劳工部长海尔(Hubertus Heil)预测,最迟到2035年,世界上将没有与人工智能应用无关的工作。[1]技术发展带来的收益总是与风险相伴。当人工智能受到极致追捧之时,其可能导致的侵权风险也日益引发关注。据统计,截至2024年3月11日,美国一共发生了21件针对生成式人工智能的版权诉讼,全部涉及大模型训练中复制、传播作品的行为,其中2件诉讼同时还主张生成内容侵犯作品的复制权和演绎权。[2]在我国,广州互联网法院也于今年2月做出“全球范围内首例生成式AI服务侵害他人著作权的生效判决”。[3]人工智能作为一项快速迭代发展的技术,其开发者须对技术应用产生的侵害后果承担何种责任不仅关系到相关主体合法权益的维护,也会对技术发展产生深远影响。从当前的诉讼来看,围绕生成式人工智能服务平台的版权责任争议体现在两个方面:其一,输入端爬取复制巨量作品作为训练资料;其二,输出端因“记忆”生成与先前作品构成实质性相似的内容。对于前一争议,学者抑或在合理使用的框架内讨论[4],抑或主张设定新的法定许可。[5]本文的研究聚焦于后者,即当生成内容构成对在先作品的复制或演绎时,应当如何认定人工智能平台的版权责任。为了回答该问题,本文首先界定生成式人工智能服务平台在版权制度中的角色定位,指出其应当就输出侵犯版权的内容承担过错责任;接着分析当前学界和实务界提出的几种过错判定标准,反思其不足;最后从生成式人工智能输出侵权内容的风险和成因等两个角度指出,侵权救济应落脚于生成式人工智能的商业利用端。这既能较好地保护版权人的利益,也有助于实现侵权负外部性的内部化。
1 角色定位:内容服务提供者或技术服务提供者
当生成式人工智能服务平台根据用户提示词生成侵权内容时,对平台应采何种归责原则,当前主要存在过错责任与无过错责任两种观点。王利明教授认为,出于保障人工智能产业发展的需要,过错责任是处理生成式人工智能侵权的一般归责原则,仅在侵害个人信息权益的特殊情形适用过错推定。[6]周学峰教授则主张整体上采用过错推定的归责原则以解决受害人举证困难的问题。[7]徐伟教授认为,即使采用过错推定,依然无法有效解决过错证明的难题,应将生成式人工智能侵权界定为一种新型的危险责任类型,适用无过错责任。[8]在版权领域,对技术开发应用者(通常也是内容的传播者)采何种归责原则曾长期存在争议,最终形成内容服务提供者与技术服务提供者的分类。若传播的内容侵犯版权,前者构成直接侵权,适用严格责任;而对于后者,则适用过错责任判定是否构成间接侵权。因此,在版权侵权语境下,对生成式人工智能服务平台应采何种归责原则,首先需判定其在侵权内容传播中的角色定位。
网络服务提供者(internet service providers)诞生之前,在版权法层面为作品传播提供技术渠道的主体一般视作内容服务提供者。如提供广播技术的广播组织性质上为内容提供者,须对传播的侵权内容承担严格责任。尽管有学者指出,知识产权侵权并非民法规制的特殊侵权行为,应采过错责任的归责原则[9],我国法院也一般依据《著作权法》第59条要求传播者就版权侵权承担过错推定责任。但在实践中,除了侵权作品的出版者
生成式人工智能服务平台应归入哪种类别存在界定上的难题,因为从技术特征角度,其与典型的网络内容服务提供者、网络技术服务提供者既有共同点但也存在区别。首先,生成式人工智能根据用户输入的提示词输出相关内容,与数据库根据用户检索输出相关内容类似,符合内容服务提供者的特征。尽管如此,与数据库不同,生成式人工智能输出的内容并非事先存储于平台的服务器中,而是根据用户的指示“即兴创作”。因此,若非用户的介入,则不存在侵权。这点又跟网络技术服务提供者根据用户指令存储、传播内容有相似之处,尽管内容并非由用户提供。鉴于生成式人工智能服务平台的独特技术特征,有学者主张其构成一种新型的网络技术服务提供者。[12]笔者认同此观点,因为上述“优待”网络技术服务提供者的两个理由同样适用于生成式人工智能服务平台。其一,在教义学层面,虽然侵权内容看似由生成式人工智能平台直接提供,但由于大模型算法的复杂性,服务平台无法控制大模型运算的结果,而缺乏控制的内容生成不应视为直接提供。其二,在法政策层面,生成式人工智能属于快速迭代中的新兴技术,对其施加严格责任会导致技术开发成本过高,从而阻碍技术发展。[13]与之相对,过错责任能较好地兼容政策考量,将保障技术发展融入过错判定。近现代过失标准的客观化意味着过失已不再“是对个人的道德责难,而是风险分配的工具或手段”[14]272。这为政策目的融入过失的判断提供了空间。Prosser教授即指出,判断过失的注意义务本身并非神圣的道德信条,而不过是一套通过政策综合考量确定原告受到保护的说辞。[15]该观点得到美国法院的广泛认同,Friedman法官甚至据此发展出了衡量注意义务范围的八大因素,并称之为“精致的政策判断”(delicate policy judgements)。
2 生成式人工智能服务平台的过错判定标准分析
关于如何认定生成式人工智能服务平台的过错,学界亦是众说纷纭。有学者主张借鉴产品责任中的“现有技术抗辩”来判定生成式人工智能服务平台是否尽到注意义务。[16]有学者认为,生成式人工智能服务平台兼具内容生产者与平台管理者的双重角色,对数据、模型、模拟训练、生成内容等负有审核的安全保障义务,若违反该义务造成他人人格权、著作权的损害,需承担侵权责任。[17]还有学者建议,通过立法对人工智能的“研发、设计、运行、测试、监测和维护”进行具体的管制,若违反这些管制性规定,则推定人工智能服务平台对损害的发生有过错。[7]126值得注意的是,由于生成式人工智能服务平台被界定为新型网络技术服务提供者,不少学者主张引入改进的“避风港”条款与“通知—删除规则”,从而避免给技术开发者施加过重的负担,为人工智能技术的发展提供制度保障。[7,11,15]在生成式人工智能侵权第一案中,法院以《生成式人工智能服务管理暂行办法》《生成式人工智能服务安全基本要求》中的公法义务为依据,要求被告承担设立投诉举报机制、潜在风险提示和显著标识等三项义务,并依此判定生成式人工智能服务平台是否要承担版权侵权责任。[18]
2.1 “现有技术水平”标准之否定
所谓“现有技术水平”标准,是指按照侵权发生时的技术水平,若生成式人工智能服务平台能够预知和防止侵害的发生,但怠于采取相关必要措施,则应被认定为有过错。[16]23从表面看,“现有技术水平”标准的内涵似乎很符合我们对过错判定的认知。但若深究便可发现该标准在规范逻辑与实践操作层面皆存在问题。首先,“现有技术水平”标准脱胎于产品责任中的“发展风险抗辩”或“现有技术抗辩”,这一点该标准的主张者也不讳言。[16]22众所周知,产品责任是典型的无过错责任。“现有技术水平”标准的主张者一方面通过大量篇幅论证生成式人工智能服务平台不应适用产品责任;另一方面又将“现有技术抗辩”改头换面成“现有技术水平”标准,用来判定生成式人工智能服务平台的过错。这显然会导致规范适用上的逻辑错位,使得所谓的过错责任向产品责任转化。其次,从实践操作角度,“现有技术水平”标准也缺乏可操作性。生成式人工智能属于高度复杂的大语言模型,且仍处于高速迭代发展中,因而何为现有技术水平难以衡量。尽管人工智能产业如火如荼,但全球真正量产大语言模型系统的企业屈指可数,且差异较大,难以形成公认的行业标准,确认所谓更好的替代设计也非常困难。[7]126即使能够确定行业标准,也需要考量标准的高低。若以行业的高标准来划定“现有技术水平”,则初创型中小人工智能企业难以企及,会抑制最具活力的初创企业的发展,致使人工智能成为巨头独享的竞技场。若为照顾初创企业采用较低的行业标准,则意味着头部企业必然符合“现有技术水平”,这会导致它们怠于采取制止侵权的措施,而这些企业恰恰优化算法、防止侵权的能力最强。概言之,依“现有技术水平”标准判定过错容易形成抑或“强人所难”抑或“放任自流”的局面。
2.2 安全保障义务标准之分析
安全保障义务标准的理论依据为“危险控制理论”,由于生成式人工智能服务平台带来的输出侵权内容这一危险,因而应当对其课以平台管理的安保义务,减少侵权的发生。[17]51对于安全保障义务的内容,主张者列举欧盟《人工智能法案》第14条第4款、《网络信息内容生态治理规定》第7条、《生成式人工智能服务管理暂行办法》第19条以及《互联网信息服务深度合成管理规定》第10条。[17]51欧盟《人工智能法案》第14条针对高风险的人工智能系统施加了人工监管义务,该条第4款则对委派的监管人的适格性做了具体要求,如能够有效地理解高风险人工智能的能力与不足、了解高风险人工智能内容输出的趋势、能正确解释高风险人工智能输出的内容。
安全保障义务与一般性的“注意义务”不同,只适用于“宾馆、商场、银行、车站、娱乐场所等公共场所的管理人或群众性活动的组织者”等特殊主体。[14]458-459随着人类活动从物理世界向网络世界迁移,有学者主张将网络技术服务提供者作为新的义务主体,因为“开启或加入交往空间者对其中的他人负有安全保障义务,应在合理限度内照顾他人权益”。[19]尽管扩张安全保障义务的主体范围日益获得支持,主体范围却依然限于各种类型的网络技术服务提供者。安全保障义务标准的主张者却将生成式人工智能服务平台界定为内容提供者,理由是其对内容生成过程具有“不可或缺”的控制力。[17]51如前文所言,内容提供者应对侵权内容承担严格责任,安全保障义务并无适用空间。安全保障义务标准除了在证成逻辑上存在缺陷外,所包含的义务内容也与防范版权侵权缺乏相关性。如《网络信息内容生态治理规定》第7条针对的是低俗、血腥、歧视等不良信息,与侵犯版权并不相关,自然不能成为版权注意义务的内容。在有关网络存储空间服务提供商的版权争议案件中,权利人曾试图以服务提供商须审查过滤淫秽内容为由主张服务提供商有内容审查义务,应对侵权内容的传播承担责任,但法院以不相关为由拒绝支持该主张。
2.3 “通知—删除规则”之障碍
“通知—删除规则”随“避风港”条款诞生,虽然其适用效果受到诸多质疑,但不可否认的是其至今仍在解决网络平台侵权纠纷中发挥重要作用。因此,当前的学界观点和司法判决(设立投诉举报机制)几乎皆认为“通知—删除规则”可适用于生成式人工智能服务平台。尽管如此,在生成式人工智能的场景下,“通知—删除规则”的运行面临难以克服的障碍。
“通知—删除规则”自诞生之初便有其适用限制。美国“避风港”条款在引入该规则时明确将网络接入服务提供者排除在外,仅将网络缓存、网络存储以及网络搜索服务提供者涵盖在内。
“避风港”条款之所以将“通知—删除规则”限定适用于特定类型的网络服务提供商,实质上源于不同服务商间的技术差异对利益均衡的影响。首先,删除的措施要考虑技术上的可行性,避免给网络服务提供者施加无法完成之义务。美国“避风港”条款虽然将“通知—删除规则”适用于网络缓存服务提供者,但对其适用的情形做了严格限制,即投诉的内容已经从原始网站上删除或者法院已经下令将投诉的内容从原始网站上删除。因为从技术角度,若原始网站上的内容不删除,则该内容会被再次自动保存到网络缓存服务器中。
通过技术可行性与法律可行性来判断“通知—删除规则”的适用范围已在新的网络服务提供场景中得到验证,如微信小程序平台与阿里云服务平台。在技术上,无论是微信小程序平台还是阿里云平台均可通过切断服务制止侵权,因而“删除”具备技术上的可行性。尽管如此,在微信小程序案中,切断服务却会给被投诉人造成不成比例的损害,因为被投诉人在线提供众多作品的播放,通知人仅投诉一部作品的在线播放侵权,而要制止一部作品的侵权却需切断所有作品的在线播放服务。在阿里云服务平台案中,切断服务会给平台造成不成比例的负担,因为切断服务会使其严重违反合同义务,也会在技术和经济方面给其增加不合理的负担,影响整个云计算行业的发展。[21]
生成式人工智能服务平台无法通过技术可行性与法律可行性的双重检验,因为对其适用“通知—删除规则”目前尚属技术不能。大语言模型并非存储内容的数据库,而是利用人工神经网络对巨量数据进行分析学习后“自主”生产新的内容,若要删除生成的侵权内容,则须对整个模型进行重新训练,而这是个极其昂贵的过程。[22]法律显然不应当认可一项收益微乎其微但成本高不可攀的措施。有人还提出过滤“有问题”提示词的替代方案[23],但由于大语言模型生成内容有很高的自主性,模型设计者自身也无法预见提示词产生的具体表达,因此“删除”提示词并非有效的侵权制止方案。此外,介于自然语言的丰富性,用户总能轻易地规避这些“有问题”的提示词。如针对OpenAI构建的安全护栏,网络上有很多绕开建议。[22]
3 生成式人工智能服务平台的版权注意义务内容
注意义务的高低应当与行为造成的风险相对应。[24]生成式人工智能的应用场景非常广泛,不同应用场景存在不同程度的权益损害风险,因而应当区分应用场景来设定生成式人工智能服务平台的注意义务。欧盟《人工智能法案》便对人工智能设定风险级别,包括不可接受的风险(unacceptable risks)、高风险(high risks)、有限风险(limited risks)和低风险(low risks),并设定了不同的义务内容。
3.1 生成式人工智能的“记忆”风险
人工智能系统是否为高风险不仅取决于其执行的功能,还取决于该系统被使用的具体目的和方式。
3.2 生成式人工智能的“记忆”成因
经典人工智能范式分为符号主义与联结主义。前者是基于规则的推理模型,强调规则上的封闭性;后者是基于数据的推理模型,强调数据上的开放性。[26]当前的生成式人工智能采用后一技术路线,其开放性意味着人工智能的开发者无法“通过规范其设计和部署过程”解决生成致害内容的问题。[27]在联结主义范式的指引下,生成式人工智能的开发运行体现为对巨量作品中的现有表达进行拆解、抽象与重新组合,根据大量数据训练提炼出表达联结的习惯,以前面的符号预测后面的内容,具有结果上的不可控性。[28]因此,即便人工智能的开发者没有刻意模仿某个版权作品,人工智能依然可能生成侵权内容。[29]据学者进行的大模型记忆测试,在下列情况下,生成内容较易存在“记忆”复制的问题:
3.3 生成式人工智能的“记忆”救济
版权制度被称为技术之子,技术开发者的版权责任一直是版权制度的核心议题之一。著名版权学者Ginsburg教授指出,版权制度试图维持这样一个平衡,即创作者需维持对新市场的足够控制以保障版权的激励意义,但该控制不得窒息新技术的应用。[30]协调技术发展与版权保护的典型示例当属美国最高院在SONY录像机案中创设的“实质性非侵权用途”规则,即当某产品兼具侵权和非侵权的双重功用时,不能认定产品开发者构成直接侵权。
既然无法认定生成式人工智能开发者就输出侵害版权内容存在过错,那么如何救济版权人因侵权遭受的损失呢?本文认为,救济应聚焦于生成式人工智能的商业利用端,即以商业利用为目的生成侵权内容的行为。首先,个人利用人工智能生成他人享有版权的内容大概率能主张合理使用。我国《著作权法》第24条第1款第(1)项规定“为个人学习、研究或者欣赏,使用他人已经发表的作品”的私人使用例外。虽然有学者主张并非所有私人使用均构成合理使用,还需要通过“三步检测法”的评估。[33]如,从网上下载电影供个人欣赏由于会不合理地损害著作权人的合法权益,因而不能主张私人使用例外。但对于生成式人工智能而言,其因“记忆”输出的侵权内容一般皆是网络上特征显著的高频内容,故即使不利用生成式人工智能,公众通常也能方便地从网络免费获取。因此,私人利用人工智能生成含有版权的内容一般不会不合理地损害版权人的合法权益。其次,针对人工智能生成内容的商业利用可使版权人获得较好的救济。从赔偿能力角度,商业利用主体虽然不尽属于资金充沛的“深口袋”,但偿付能力显然要高于私主体,且在商业侵权中赔偿额度通常要高。再者,从商业策略的角度,版权人起诉私人侵权者并不明智,因为这类诉讼既不经济又容易招致消费者的怨恨。[34]从举证难易的角度,商业侵权由于一般涉及公开传播,因而取证较为容易;而私人侵权通常发生于朋友、家庭等私人环境中,涉及个人隐私因而取证非常困难。最后,规制商业侵权还能促使生成式人工智能服务平台与侵权用户通过合同调配权利义务,降低生成侵权内容的概率,实现负外部性的内部化。如,微软在服务条款中承诺,对于因使用Copilot生成内容而被诉版权侵权的商业用户,只要其遵守Copilot内置的护栏和内容过滤机制,微软将帮助用户应诉并承担因诉讼产生的任何不利判决或和解的费用。[35]因此,在追究商业用户侵权的情形下,出于提升竞争力的需要,生成式人工智能服务平台有主动承担类似“瑕疵担保责任”的意愿,从而实现侵权负外部性的内部化,促进平台不断改进大模型以降低侵权概率。
4 结语
自OpenAI推出ChatGPT大语言模型后,大型网络公司纷纷推出自己的生成式人工智能服务。生成式人工智能在技术上的突飞猛进让版权人感到忧惧,进而在世界范围内引发系列版权诉讼。版权制度自诞生便持续面临技术进步的冲击,如何应对已逐步形成共识,即在保护版权人利益的同时保障技术开发的自由。就内容输出而言,生成式人工智能造成版权侵权的风险低、损害小,且侵权是根据技术要求对训练语料进行客观标注的附带不可控结果。因此,不应对生成式人工智能服务平台施加过重的版权注意义务。在生成式人工智能场景下,版权侵权的救济应聚焦于商业利用端,既能较好地保护版权人的合法权益,也能保障服务平台的技术开发自由,还有助于推进侵权负外部性的内部化,实现版权保护与技术发展之间的动态有机平衡。
参考文献
Master List of lawsuits v. AI,ChatGPT,OpenAI,Microsoft,Meta,Midjourney & other AI cos
[EB/OL]. (
Reducing digital copyright infringement without restricting innovation
[J].
Will AI destroy the DMCA copyright compromise?
[EB/OL]. (
Generative AI has a visual plagiarism problem
[EB/OL]. (
Artificial Intelligence’s Fair Use Crisis
[J].
Copyright and control over new technologies of dissemination
[J].
Impact of legal threats on online music sharing activity:an analysis of music industry legal actions
[J].
/
| 〈 |
|
〉 |
