生成式人工智能服务提供者版权注意义务的构建
Establishment of Copyright Duty of Care for Generative Artificial Intelligence Service Providers
| 基金资助: |
|
The advancement of artificial intelligence (AI) technology has posed significant challenges to traditional copyright systems, particularly with the emergence of generative AI, which has disrupted conventional copyright industries. Balancing copyright protection with AI innovation necessitates expertise in legislative, judicial, and enforcement domains. The rapid proliferation of large-scale models and their applications has intensified debates over whether and how generative AI service providers should fulfill copyright obligations. This paper adopts the position that such providers must exercise appropriate copyright due diligence, aiming to refine the subjects, scope, and legal consequences of these obligations. This research employs a multidisciplinary methodology, integrating historical analysis to trace the evolution of AI-related copyright norms; literature review to synthesize global regulatory frameworks and scholarly discourse; normative analysis of legal provisions, including China's Interim Measures for Generative AI Management; comparative studies of international legislative practices; and case studies of judicial rulings on AI-generated content disputes. By integrating existing legal frameworks with empirical insights, this paper proposes a copyright due diligence framework for generative AI service providers. Specifically, generative AI service providers should implement primary responsibility for copyright governance and fulfill reasonable copyright duty of care. This duty does not equate to ex-ante filtering obligations; service providers should qualify for "safe harbor" protections but must avoid adopting an "ostrich policy"—taking necessary measures to prevent infringement and mitigate damages after receiving valid infringement notices. The establishment of such duty should avoid overly stringent standards, instead considering technological limitations and practical constraints. It should align with the principle of utmost good faith and the diligence obligations of a prudent manager, ensuring flexibility and adaptability. Providers must adopt comprehensive copyright management mechanisms, including: (1) preventive measures: Ensuring model explainability, disclosing training data, and establishing content labeling systems; (2) real-time monitoring: Developing robust user guidelines and complaint-handling mechanisms; and (3) post-infringement actions: Implementing user relationship governance and bearing adverse consequences of burden of proof reversal in specific cases. Generative AI service providers bear fault-based liability for copyright infringement. If infringement occurs despite compliance with duty-of-care standards, liability should be exempted. This study clarifies critical ambiguities in AI copyright governance by rejecting the “ostrich policy” of willful negligence while affirming the “safe harbor” principle; providing standardized criteria for courts to adjudicate infringement claims; and offering a compliance roadmap for AI developers to foster innovation without compromising creator rights. This paper advocates transcending the micro-level "liability-centric" framework and instead constructing the copyright protection obligations of generative AI service providers through a macro-level governance perspective, tailored to the constraints of existing technological conditions. Specifically, it argues that traditional approaches overemphasize post-infringement liability allocation while neglecting systemic governance mechanisms to prevent copyright risks at their source. This paper argues that the copyright governance framework for generative AI service providers should adopt a comprehensive lifecycle approach—spanning pre-emptive, real-time, and post-infringement measures—while ensuring that the imposition of copyright duty of care aligns with principles of legitimacy, rationality, and practicality. These contributions advance theoretical discourse on AI law and promote sustainable development across creative and technological sectors.
Keywords:
本文引用格式
卢海君, 王芷若.
LU Haijun, WANG Zhiruo.
人工智能是新质生产力的重要驱动力,大力推动人工智能产业的发展是我国的国策。现阶段,我国人工智能产业发展尽管存在算力短板,但在算法和数据方面具有后发优势。然而,我国的数据优势尚未得到充分开发和利用,这主要是由于围绕数据的开发和利用过程中存在诸多风险,其中,版权风险便是其中的一个方面。具体而言,人工智能模型训练对版权数据
有关生成式人工智能,目前现有学术成果多关注其他风险[1-3],但一些研究成果关注了版权风险,并对生成式人工智能服务提供者版权注意义务进行了研究。[4-11]机器学习对训练数据的利用存在“非侵权说”[12]、“合理使用说”(可分“解释论视角”[13]和“立法论视角”[14])、“法定许可说”(“立法论视角”)[15]、“强制许可说”(“立法论视角”)
人工智能技术的发展带来新的生产关系、法律关系,而相对于科技的快速发展,法律本身具有一定的滞后性。各国的产业发展格局和水平存在差异,导致了不同的政策选择。从世界范围来看,美国与欧盟在相关产业政策的选择上存在差异,主要原因是两者在新科技产业以及内容版权产业的现状不同。相较之下,中国的新科技产业相对发达,强于欧盟,弱于美国,内容版权产业发展势头也较为迅猛,到底是优先保护内容产业还是新科技产业存在政策选择问题。但鉴于两个产业呈现齐头并进的发展态势,我国更应选择兼顾新科技产业发展和传统版权产业促进的应对方案,避免因版权注意义务及责任的不合理配置可能导致的重大利益失衡。在生成式人工智能开发和应用各个阶段的规范尚不明朗时,宜结合“现有”
1 我国生成式人工智能服务提供者侵权第一案的启示
2024年2月,广州互联网法院审理了一起“生成式人工智能服务平台著作权侵权案”
其一,该案拟解决的是著作权问题,然而,所适用的法律规范并非《著作权法》。例如,该案法院对被告“过错”的界定并非基于《著作权法》,而是基于《生成式人工智能服务管理暂行办法》
其二,该案判决并未明晰责任主体承担责任的正当性。具体而言,该案中被告并非模型提供者,而是以API
其三,判决中并未阐明生成式人工智能服务提供者对外提供的生成内容是否满足“接触+实质性相似”的版权侵权构成要件。对模型训练阶段是否存在复制版权作品的行为存疑,在将原作“打成碎片”之后所形成的生成物是否构成对原作品的“市场替代”亦存疑。
其四,该案判决对生成式人工智能服务提供者版权注意义务的具体内容、违反该义务的后果及能否适用侵权豁免均未详细阐述。换言之,即便可以通过建立投诉举报机制、进行潜在风险提示,以及进行显著标识等行为来判断其是否满足版权注意义务的要求,但该案判决并未细化注意义务标准的建构,亦未阐明生成式人工智能服务提供者违反注意义务的后果。例如,若认定生成式人工智能服务提供者构成版权侵权,应承担哪些侵权责任?如何停止侵权?如何赔偿损失?从模型中删除相关版权素材是否具有可行性?如何有效避免版权侵权内容生成?再者,若生成式人工智能服务提供者履行了上述注意义务,但仍未避免大模型“生成”同版权作品实质性相似的内容,该生成式人工智能服务提供者是否依然要承担版权侵权责任亦未明确。
综上,“奥特曼”案虽然尝试对生成式人工智能服务提供者的注意义务进行司法“续造”[22],但留下了诸多疑问:如生成式人工智能服务提供者的定性、责任分配和责任主体、注意义务的标准、是否承担类似于避风港原则的“通知—必要措施”义务即可免责、在何种情形之下适用“红旗原则”、违反注意义务的责任及责任豁免等。
2 生成式人工智能服务提供者版权治理的主体责任
生成式人工智能市场主体大致可以区分为三类:一是基础大模型研发者(如OpenAI,Deepmind),二是面向垂直行业的模型研发者(如Bloomberg,Aidoc),三是面向公众提供内容生成的服务提供者(如OpenAI的产品:ChatGPT)。在人工智能产业中,“服务提供者”这一术语指代的范围相对广泛,既包括应用层的服务提供者,亦包括技术提供者及toB服务提供者(即面向企业赋能大模型能力的服务提供者)。《办法》及“奥特曼”案判决中的“服务提供者”仅针对应用层的服务提供者。生成式人工智能服务提供者不同于网络服务提供者,其更趋近于内容提供者,身份区别于传统的搜索引擎(仅提供信息定位服务,并不进行内容输出),也区别于传统的信息存储服务。应对生成式人工智能带来的版权风险,现行法中网络服务提供者的版权规范虽可借鉴,但难以完全照搬。
生成式人工智能服务提供者作为人工智能产业链直面消费者以及直接参与产品及服务市场竞争的主体,在生产内容合规方面扮演了“守门人”[23]的角色。由于其对模型是否生成涉嫌侵权内容具有控制力,因此,基于生成式人工智能带来的版权侵权风险,服务提供者应就版权侵权风险的防范
2.1 版权治理的维度:首要责任和次要责任
人工智能产业生态庞大,主体多样,关系多变。基于全球产业实践,欧盟抽象出了模型提供者、模型部署者、模型进口者、模型分销者、用户等参与主体,并基于人工智能系统的技术特点和人工智能产业的发展实情,在《人工智能法案》
实际应用中,模型的能力与相关主体的控制力共同作用,决定生成内容的质量。所谓模型能力,即模型处理特定任务的能力,该能力由模型开发者与模型部署者共同培植,前者起到决定性作用,后者亦起到关键性作用。此外,剖析生成式人工智能模型的“学习”和“成长”过程,模型提供者主要存在以下几种情况:一是其自身为模型开发者,二是其集成了一个(或多个)大模型的能力对外提供相关服务,三是其通过API接口接入模型,四是其在开源模型基础上将自身所持有数据加以喂养,而后对外提供相关服务。模型的部署方式决定了模型提供者和模型部署者的控制力,因此,内部责任的分配也应基于此加以区分。
具体而言,当部署者通过API接口接入模型时,模型提供者对模型应用的全过程都有着极强的控制力。此种情形之下,模型提供者决定了模型研发的全过程,包括预训练所使用的数据、算法及参数,通过提供微调服务等对模型的风险管理和质量控制形成了把控,此外,还可以分析模型部署者、模型使用者的模型应用情况,并设置访问条件,来应对下游对模型的滥用。最重要的是,模型提供者可以凭借对模型强大的控制力来制定模型商业化的战略。相较之下,当模型部署者基于开源模型进行部署时,模型提供者对模型的控制力虽未明显减弱,但由于模型部署者更直接作用于模型的功能,相对而言其在模型生成内容上具有更大的影响力。另外,当模型部署者通过其持有的数据供养模型,并赋予模型以更强能力的情形之下,模型部署者在模型能力上具有更为实质性的影响力。
不同的模型开发及部署模式对模型最终生成内容的合理责任分配明显产生了影响。从版权治理的视角,当模型提供者对模型能力具有决定性作用时,应由其承担版权侵权的主要责任;当模型部署者对模型能力具有决定性作用时,此时其应承担版权侵权的主要责任。基于此,应由模型开发者与模型部署者承担版权保护的主体责任,再根据实际情况,分别承担首要责任与次要责任。
2.2 责任承担的视角:内部责任与外部责任
通过“人工智能+”赋能的应用场景纷繁复杂,在生成式人工智能服务提供过程中,主体的贡献度和利益关系亦较为复杂,从外观来看,均为用户通过生成式人工智能服务提供者所提供的服务进行内容生产。但生成式人工智能服务提供者可能是模型提供者、模型部署者,亦可能是模型使用者,往往存在主体身份混同,其同模型提供者、模型部署者及模型使用者的内部关系他人无法确知。为保证交易安全及公平竞争,他人亦不应有义务对生成式人工智能的全产业链条进行调查。例如,若模型开发者通过购买合法数据包进行数据喂养,在用户并不存在违规行为时,模型仍然生成了涉嫌侵权的内容,可能的原因是数据供给者所供应的数据中存在侵权内容。此时,仅从理论上讲,应当由数据供给者承担版权侵权责任。然而,模型提供者从哪购买的合法数据包他人并不知道。
另外,细化生成式人工智能模型产业链条,虽存在“基础模型—专业模型—服务应用”等多层级的分级体系,不过,由于各层级的参与者之间并不存在泾渭分明的界限,在分级分类视角下对相关主体追责亦存在困难。因此,生成式人工智能服务提供者作为第一责任主体是较为恰当的,若用户利用生成式人工智能服务涉嫌侵犯版权,那么先由“离用户最近的”生成式人工智能服务提供者承担第一责任;至于数据供给者、模型开发者、模型部署者、模型使用者之间如何进行责任分配应属于“内部”问题,而在“外部”的责任承担,应该由生成式人工智能服务提供者来承担责任。服务提供者可在承担“外部”责任之后向其上游供应商追责。
实践中,许多生成式人工智能服务是基于开源大模型的能力。但开源并不意味着免责,在开源模型基础之上训练大模型,若生成版权侵权内容,仍需要追究其侵权责任。此外,在开源模型基础上训练大模型,违反开源协议还可能构成其他侵权或违约。若后端应用(生成式人工智能服务提供者)集成上游开源大模型并基于该开源大模型进行开发及应用,而生成式人工智能生成了侵权内容,该生成式人工智能服务提供者仍应作为第一责任人对外承担责任。
当模型是应用户要求生成侵权图片时,用户可能因涉嫌诱导侵权而担责。假设上述“奥特曼”案的奥特曼图片及改编图片并非基于简单提示词生成,而是用户输入类似“北互文生图一案”
3 生成式人工智能服务提供者版权侵权的归责原则
生成式人工智能服务提供者在版权侵权问题上的归责原则是当前法律领域讨论的热点问题。有关此问题主要有以下几种观点。一是过错责任原则。根据传统的侵权法理论,服务提供者一般按照过错责任原则来确定责任,即如果服务提供者未能履行应有的注意义务,则可能需要承担责任。[24]二是无过错责任原则。有学者提出,在人工智能生成内容应用场景下,侵权责任体系需要重构,并主张应由人工智能的开发者对人工智能的“自主”生成行为承担严格责任。[25]三是过错推定责任。有学者提出,生成式人工智能服务提供者侵权采用过错推定责任原则有一定的合理性。[26]四是替代责任。在某些情况下,服务提供者可能被视为替代责任主体,类似于雇主对雇员的责任,由服务提供者承担侵权责任。[27]根据生成式人工智能的产业布局、特点及发展现状,生成式人工智能服务提供者对版权侵权承担过错责任更为适宜。
3.1 过错责任原则
按照《办法》,“生成式人工智能服务”为《办法》的统一表述和术语选择,因为生成式人工智能为服务提供者而非产品提供者,也非技术服务提供者。因此,生成式人工智能致版权侵权责任,应适用过错责任原则。虽《产品责任指令》(Product Liability Directive)
3.2 注意义务的标准及内容
注意义务是从预防法学的角度考虑问题,故其成立的标准应从事前预防的角度来判断,即危险是否可预见且可避免,此外,该义务的设定标准及内容应从社会大多数人的利益出发。[29]一方面,在实践中,部分生成式人工智能已生成涉嫌侵权内容,因此,服务提供者可概括预见版权侵权风险;另一方面,服务提供者可通过一定措施防范和避免(至少在一定程度上)涉嫌侵权内容的生成、传播和利用。综上,与生成式人工智能相关的版权侵权风险是可预见且可避免的。因此,生成式人工智能服务提供者应承担一定的版权注意义务。如何建构注意义务的标准及内容需要考量生成式人工智能产业发展的实际情况。
3.2.1 注意义务标准设定的考量因素
考量人工智能产业的实况及我国现阶段人工智能产业发展所处的阶段,不宜过高设定生成式人工智能服务提供者的注意义务标准。生成式人工智能服务提供者应就版权治理承担主体责任,加之“避风港原则+红旗标准”对其版权注意义务进行一定程度的“稀释”较为符合现阶段生成式人工智能服务提供者注意义务标准设定的实际情况。
其一,生成式人工智能服务提供者的版权注意义务并非事前过滤义务。具体而言,生成式人工智能服务提供者可能是模型开发者,更多的是集成大模型在应用端提供服务的民商事主体。当生成式人工智能服务提供者同时亦为模型开发者时,当其在最大诚信原则下力求训练数据来源合法时,但仍生成侵权内容,则只有在版权人发出合格侵权通知的情形之下,服务提供者才有义务采取必要措施防范侵权的继续发生;反之,若版权人并未发出合格侵权通知,则服务提供者主观上并不知道侵权行为的存在,并无过错,则无责任。当服务提供者并非模型开发者时,其更应当受到“避风港规则”的庇护。
其二,生成式人工智能服务提供者的版权注意义务并非被动义务。具体而言,给予生成式人工智能服务提供者以一定程度的“避风港”庇护,并不是鼓励其在版权保护上实施“鸵鸟政策”[30]。当服务提供者同时是模型开发者的时候,其应尽善良管理人的注意义务去获得合法数据来源;在其可通过技术手段进行一定程度的版权侵权防范时,应在最大诚信原则的指引下,尽量采取可行技术手段避免版权侵权的发生。
其三,生成式人工智能服务提供者版权注意义务的设定应考虑当下的技术条件和其他实际情况。尽管模型开发、部署及应用存在参与主体及利益主体的多元性和复杂性,应采取审慎包容的监管政策,至少现阶段让模型开发、部署及使用等模型能力实质贡献和参与者承担过重负担并不合适。因此,不宜建构生成式人工智能服务提供者的强制性事前过滤义务,但亦不能走向相反极端,放任服务提供者不承担任何版权保护的注意义务。当权利人发出合格的侵权通知时,通过过滤词的设置诚然可以在特定情形之下达到较好的版权保护效果,但并非在任何情形之下都可以达到完全覆盖侵权内容的结果。由于受技术及其他条件的限制和约束,在现有技术条件允许的情形之下,若服务提供者尽到了善良管理人的谨勉义务而仍然生成了少量、个别的侵权内容,不宜认定服务提供者主观上存在过错。另外,服务提供者尽管应采取相应措施防范版权侵权的发生,但不宜过高设定防范的标准。在“奥特曼”案中,法院认为服务提供者的版权侵权防范应该达到用户“正常使用”与奥特曼相关的提示词,不能生成侵权图片的结果。此种界定较为符合现阶段生成式人工智能服务提供者的实际情况。具体而言,若用户并不直接用“奥特曼”这一关键词,而是通过“奥特曼”的描述作为提示词,若人工智能生成了侵权图片,则不宜判定服务提供者主观上存在过错,进而应当承担版权侵权责任。
总之,尽管在当前的环境中,应为生成式人工智能服务提供者设定一定的版权保护义务,但受限于技术条件及其他条件的约束,不宜设定过高的注意义务标准。
3.2.2 最大诚信原则下善良管理人的注意意义标准
人工智能产业发展存在不平衡的状态,不同类型企业的科技能力、经济能力及管理能力等诸方面均存在很大差异,要求所有模型开发者都设置一套事前规则(如过滤规则[31])存在合理性及正当性的争议,企图用“一刀切”的方式建构所有人工智能利益相关者应遵守的版权注意义务规范尚不现实。因此,现阶段人工智能服务提供者的注意义务标准只能在较为“抽象”和较为“原则”的层面建构。虽如此,并不意味着生成式人工智能服务提供者在版权保护方面可以不作为,而是应按照“事前预防—事中发现—事后处置”三个阶段尽到谨勉的版权保护注意义务。
一是在“事前”预防阶段,既要履行研发合规义务,又要履行用户监管义务。目前,用于模型训练的数据大概有自采数据、互联网数据及交易数据三种类型。模型训练应最大限度取得合法来源的数据,做到“合法获取”
二是“事中”发现阶段,既要履行内容标识义务,又要建立健全投诉、举报机制。生成式人工智能服务提供者应:①建立知识产权问题的投诉举报渠道,在投诉举报渠道中支持第三方就语料使用情况以及相关知识产权情况进行合理查询;②及时根据国家政策以及第三方投诉情况更新知识产权相关策略;③采取关键词、分类模型等方式对使用者输入信息进行检测,对明显诱导生成侵犯知识产权的问题,拒绝回答,使用者多次输入违规问题的,采取暂停提供服务等处置措施。
三是“事后”处置阶段,依据侵权内容的生成原因不同,承担不同的处置义务。生成式人工智能服务提供者须采取一系列措施来应对和解决可能发生的侵权问题,即遵守《著作权法》《著作权法实施条例》等相关法律法规,对侵权行为进行及时有效的制止和纠正。在接到权利人的合格通知后,服务提供者应积极配合,采取必要措施,如删除侵权内容、断开链接等,以减少权利人的损失。服务提供者应采取技术性措施,如关键词过滤及其他可行的措施
3.2.3 注意义务的核心内容
尽管“避风港规则”是生成式人工智能服务提供者版权保护主体责任的合理内核,但其版权保护的注意义务不应简单照搬“通知—必要措施”,而应是在生成式人工智能的全生命周期和全产业链条都应遵守最大诚信原则,遵循谨勉的善良管理人标准进行版权侵权风险的防范、版权侵权的处置及版权侵权的治理。生成式人工智能服务提供者版权注意义务的核心是“采取合理、有效的侵权预防措施”。[34]
3.2.3.1 模型生成可解释性
在生成式人工智能的业态中,非自研模型(生成式人工智能服务提供者使用他人大模型赋能对外提供服务)只关乎“输出侧”,而自研模型(生成式人工智能服务提供者本身就是模型提供者)涉及“训练侧+输出侧”。对于“输出侧”而言,在采用的业务及推广模式一致的情况下,两种服务提供者(非自研模型和自研模型)在注意义务上没有明显区别。其注意义务的主要区别关键在于训练侧(主要表现为对“训练数据”的治理)。为落实监管诉求及采取针对性的版权保护措施,模型生成应具有可解释性。[35]
3.2.3.2 训练数据披露义务
为降低前端机器学习及后端生成内容的版权侵权风险,在合理且可行的前提之下,大模型开发者应该进行训练数据的披露。美国众议员向众议院提交了《生成式人工智能版权披露法案》(Generative AI Copyright Disclosure Act)
3.2.3.3 健全的投诉机制
生成式人工智能服务提供者须建立完善的投诉机制与畅通的投诉渠道。根据《办法》,提供者应当建立以下机制和渠道。一是投诉举报机制。提供者应当建立健全的投诉、举报机制,确保用户在使用服务过程中遇到问题时可以方便地提出投诉或举报。二是便捷的投诉入口。提供者应在其服务平台上设置明显的投诉、举报入口,使用户能够轻松找到并使用这些功能。三是处理流程和反馈时限。提供者应公布详细的投诉处理流程和预期的反馈时限,让用户了解投诉处理的步骤和时间框架。四是及时受理与处理。提供者在接到投诉或举报后,应当及时受理并进行处理,确保用户的问题能够得到迅速响应和解决。五是反馈处理结果。处理完毕后,提供者应将结果反馈给投诉或举报的用户,保持透明度,让用户了解问题处理的实情。六是保护用户隐私。在处理投诉和举报的过程中,服务提供者应保护用户的隐私和个人信息安全,不得泄露或非法使用用户的个人信息。七是持续改进服务。服务提供者应根据用户反馈持续优化投诉处理流程和服务质量,提升用户满意度。八是记录保存。服务提供者应保存投诉和举报的记录,以备内部审查和监管机构检查。上述措施为针对保护合法权益及维护服务秩序的普遍性措施,当然适用于版权保护。通过上述措施,服务提供者能够更好地维护用户权益,提升服务水平,促进行业的健康发展。涉及版权保护,服务提供者应该建立健全投诉举报机制,权利人可以通过该机制来保护其版权。接到权利人合格的侵权通知之后,服务提供者应该及时采取技术条件允许的必要措施应对版权侵权行为的发生及扩大。
3.2.3.4 生成内容标识义务
服务提供者应当按照《互联网信息服务深度合成管理规定》及《人工智能生成合成内容标识办法》等规范对图片、视频等生成内容进行标识。经标识之后,权利人可以明确内容由特定人工智能生成,进而采取更具有针对性和更为有效的维权措施。标识可分为显著标识、显式标识、非显著标识及隐式标识。其中,显著标识是可感知度较高的显式标识,显式标识包括了显著标识和非显著的显式标识(也即可感知度较低的显式标识),而隐式标识属于非显著标识的一种。要求“添加不影响用户使用的标识”并不意味着服务提供者仅能添加隐性标识或隐式标识,其还可以添加可感知度较低的显式标识或显性标识。进行适当的内容标识不仅是服务提供者落实行政责任的要求,亦是落实版权保护责任的必须。
3.2.3.5 完善的用户规范及用户关系治理
生成式人工智能的一个重要特点在于,用户向系统提供的信息会影响到机器学习,从而影响到系统对外输出的自动生成内容。用户对系统的不当诱导行为、恶意调教输出(如OpenAI案
当直接侵权行为由用户实施时,服务提供者往往因权利人通知后未采取必要措施或者对于知道/应当知道侵权内容未采取必要措施,而可能承担连带责任。对此,服务提供者一方面应当加强“事前”预防,另一方面应当及时履行“事后”处置义务。具体而言,为防止用户实施侵权行为,服务提供者应当事前采取技术、管理等措施,积极履行内容审核、身份认证、提示警告等义务。当发生侵权事件后,应当及时采取必要措施,包括但不限于“删除、屏蔽、断开链接”等。对于存在较大版权侵权风险的行为,可参考《生成式人工智能服务管理暂行办法》及《深度合成管理规定》
3.2.3.6 服务提供者承担证据披露义务
《人工智能责任指令》(Artificial Intelligence Liability Directive)(欧盟委员会于2022年9月28日提案)拟就人工智能产品或服务使用过程中可能产生的侵权纠纷的证明难题,减少对实体法的依赖,确立更多有利于消费者侵权主张的证据规则,如被告承担证据披露义务。此种证据披露义务的规范,在版权领域具有一定的借鉴意义。具体而言,就权利人和生成式人工智能服务提供者而言,版权侵权的证据往往“偏在于”生成式人工智能服务提供者一方,因此,在版权侵权诉讼中,服务提供者应承担适当的证据披露义务。即当生成内容涉嫌侵权时,服务提供者应在最大诚信原则及技术条件允许的情况之下,尽量向法院呈现其所能够呈现的训练数据,否则可能承担证据妨害的不利后果。
3.3 违反注意义务的后果、责任及免责
生成式人工智能服务提供者违反版权保护的注意义务时主观上存在过错,应对版权侵权行为的后果承担责任。一是,生成式人工智能服务提供者知道或应当知道版权侵权行为时应该停止侵权。在服务提供者收到权利人合格的侵权通知之后应及时采取停止生成、停止传输、消除等处置措施,采取模型优化训练等措施进行整改。此外,服务提供者发现用户利用生成式人工智能服务从事侵权活动的,应依法依约采取警示、限制功能,暂停或者终止向其提供服务等处置措施,保存有关记录。上述停止及防范侵权扩大的措施应该达到在现有技术条件约束之下的“必要性”程度。例如,在“奥特曼”案的情形中,当服务提供者收到权利人发出的合格侵权通知时应停止侵权,并采取关键词过滤等措施以达到用户“正常使用”与奥特曼相关的提示词不能生成与案涉奥特曼作品实质性相似的照片的效果。二是,生成式人工智能服务提供者应当在一定情形之下承担赔偿责任。根据《办法》,生成式人工智能服务提供者在提供服务时应尽合理注意义务,尊重知识产权。
生成式人工智能服务提供者的若干监管规范尚不明朗,但其发展又不得不面对版权保护的现实问题。然而,至少在现阶段,强求生成式人工智能服务提供者在版权保护方面做到尽善尽美不太现实。因此,在考虑不同主体的合规成本和必要的技术原理及行业实践,也考虑到相关市场主体对于上述义务履行中的控制力(如针对某些数据、技术的控制程度等),若以善良管理人的标准进行衡量,生成式人工智能服务提供者在遵循最大诚信原则尽到谨勉的注意义务的情形之下,即便存在涉嫌侵犯版权的行为,也应在停止侵权的情形之下免除赔偿责任。
4 结语
中国、美国是人工智能产业竞争中两个主要的角逐者,美国对生成式人工智能产业发展持鼓励和促进的态度,以灵活监管模式应对生成式人工智能挑战。2023年10月30日,拜登政府签署了首项对人工智能技术具有约束力的人工智能监管行政命令《关于安全、可靠和可信的人工智能的总统行政命令》,其在多个方面均对人工智能安全提出了新标准。现阶段,美国人工智能监管侧重点在于梳理“现有”法律如何适用于人工智能技术,而非颁布和应用新的、专门针对人工智能的法律。美国在新技术新领域治理方面、最常采用的仍然是行业自律与部门监管、司法诉讼,以灵活、宽松的治理方式保证不损害技术与市场创新。
相较而言,我国无论在人工智能立法还是司法上似乎都走在世界前列。尽管《人工智能法》已经成为人大可预案的法案,但市场失灵和市场无序之时,法律才粉墨登场,规则不能成为产业发展的“绊脚石”。意图通过合规将版权侵权风险降低至零几乎不可能,需通过“算力伙伴”“算法伙伴”“数据伙伴”及“应用伙伴”等合作模式的创新,以及通过协议来解决潜在的问题。为促进人工智能产业的大力发展,我国各地也在尝试通过“算力券补贴”的方式促进算力发展、通过各种举措推动数据基础设施的发展、实施“监管沙盒”政策进行监管实验。鉴于目前数据短缺已经严重制约了我国人工智能产业的发展,宜通过建立数据平台的方式加强数据供给。虽本文探索建构生成式人工智能服务提供者的版权注意义务,但相关规范更像是“软法”规范,不宜过度解读。相反,应该在尊重和保护版权的大前提下,通过“现有”法律规范的分析和适用,配以辅助性举措,最大限度地实现版权保护与人工智能产业发展的利益平衡。能够通过技术解决的通过技术路径解题,另可探索建立后端生成物自动比对系统:若生成内容构成对版权作品的侵权,则采用技术手段阻止其进一步传播和利用。
① 本文为方便表达,以“版权数据”来代指承载保护期内作品的数据。
② 著作权强制许可使用,是指在特定条件下,由著作权主管机关根据情况,将对已发表作品进行特殊使用的权利授予申请获得此项权利的使用人的制度,在国际著作权公约中,又被称为强制许可证,属于一种非自愿的许可情形。著作权强制许可起源于1909年《美国版权法》,我国并没有在法律上确定著作权的强制许可制度。
③ 目前涉生成式人工智能的版权诉讼在全球范围内蔓延。具体案件详情可以参见:互联网法律匠. 你该知道的全球180个重磅人工智能诉讼案件(2004-2024年)[EB/OL].(2024-06-14)[2024-06-20].
④ 2024年6月20日,北京互联网法院在线开庭审理了四起画师起诉AI绘画软件开发运营者的著作权侵权案件。原告插画师主张三被告未经原告允许将其作品用于生成式人工智能大模型训练并应用于商业用途,已经远超合理使用范畴,共同对原告权益造成严重侵害。庭审中,诉辩双方围绕“原告是否享有主张作品的著作权”“某内容分享平台是否是适格被告”“被诉侵权行为是否存在、是否构成侵权或合理使用”“如构成侵权,侵权的内容如何确定,侵权责任又应如何承担”等争议焦点进行了举证质证和法庭辩论。原告申请技术辅助人员出庭,就AI大模型训练相关技术问题进行了说明。目前,该案正在进一步审理中。参见:董文佳,任惠颖. 北京互联网法院开庭审理全国首例涉及AI绘画大模型训练著作权侵权案[EB/OL].(2024-07-08)[2024-07-08].
⑤ 本文有关生成式人工智能服务提供者版权注意义务的探讨是建立在现有著作权法律规范的要求之上,既不“创制”,亦不“续造”新规则。
⑥ 参见:广州互联网法院(2024)粤0192民初113号判决书。
⑦ 《生成式人工智能服务管理暂行办法》是由国家网信办联合国家发展改革委、教育部、科技部、工业和信息化部、公安部、广电总局共同公布的,自2023年8月15日起施行。
⑧ API(Application Programming Interface,应用程序编程接口),通过API方式接入的服务提供者更多负责维护模型的运行环境,确保其所提供的服务具有可用性与稳定性。
⑨ 此处所谓“模型使用者”是指通过集成大模型对外提供生成式人工智能服务的服务提供者。
⑩ 《生成式人工智能服务管理暂行办法》第7条规定:生成式人工智能服务提供者应当依法开展预训练、优化训练等训练数据处理活动,遵守以下规定:(一)使用具有合法来源的数据和基础模型;(二)涉及知识产权的,不得侵害他人依法享有的知识产权;(三)涉及个人信息的,应当取得个人同意或者符合法律、行政法规规定的其他情形;(四)采取有效措施提高训练数据质量,增强训练数据的真实性、准确性、客观性、多样性;(五)《中华人民共和国网络安全法》 《中华人民共和国数据安全法》 《中华人民共和国个人信息保护法》等法律、行政法规的其他有关规定和有关主管部门的相关监管要求。
⑪ 参见《互联网信息服务算法推荐管理规定》第7条之规定:算法推荐服务提供者应当落实算法安全主体责任,建立健全算法机制机理审核、科技伦理审查、用户注册、信息发布审核、数据安全和个人信息保护、反电信网络诈骗、安全评估监测、安全事件应急处置等管理制度和技术措施,制定并公开算法推荐服务相关规则,配备与算法推荐服务规模相适应的专业人员和技术支撑。
⑫ 欧盟委员会在2021年4月提出了关于人工智能监管框架的建议,同时提出了《人工智能法案》提案的谈判授权草案。2024年5月21日,欧盟理事会正式批准《人工智能法案》。
⑬ 参见北京互联网法院(2023)京0491民初11279号民事判决书。
⑭ See
⑮ “合法获取”是通过保留著作权人合法访问作品的权限而实现作品获得酬劳的机制。事实上,“合法获取”正契合本文生成式人工智能服务提供者应负版权保护的“主体责任”的治理理念。“合法获取”路径实际上并不考虑“机器学习”是否构成版权侵权或者是否构成合理使用,而是“搁置争议”,从利益平衡及合作共赢的视角,主张大模型训练时应当在取得许可(通常是需要支付报酬)的前提之下“合法获取”版权数据。仅从表象来看,欧盟存在数据挖掘的例外性规定,然而,欧盟亦并非完全牺牲版权方的利益,欧盟《数字单一市场版权指令》第4条的限制性规定事实上同“合法获取”路径具有异曲同工之妙。
⑯ 有关避免模型生成侵权内容的技术在不断探索过程中,如“遗忘”(unlearning)技术,即通过微调从模型记忆中删除原始文本在一定程度是可行的。
⑰ 大模型参数规模提升、数据特征高维、模态格式多样及计算复杂度增加会导致人工智能的可解释性变差。因此,“模型生成可解释性”的要求只能够在技术及其他各项条件允许的情形之下尽量做到,而不能无视实际情况要求过高。
⑱ 参见《互联网信息服务算法推荐管理规定》第24条之规定。
⑲ See
⑳ 欧盟《人工智能法案》第53.1(c)条:通用AI模型提供者应制定遵守欧盟版权法的政策,尤其是通过现有技术,识别并遵守权利人根据《数字单一市场版权指令》第4(3)条作出的权利保留。
㉑ OpenAI已要求联邦法官驳回部分原告诉求,称原告媒体雇用电脑“黑客”操纵OpenAI的生成式人工智能聊天机器人ChatGPT等人工智能系统,进而生成“误导性证据”。See
㉒ 参见《深度合成管理规定》第10条第3款的“警示、限制功能、暂停服务、关闭账号等处置措施”。
㉓ 参见《生成式人工智能服务管理暂行办法》第7条之规定。
㉔ 归责原则通常仅针对损害赔偿责任而言,并不包含停止侵权。若生成式人工智能服务提供者尽到注意义务,则其没有过错,按过错责任原则,不承担赔偿责任,但仍须停止侵权。
㉕ 尽管从目前的技术而言,出现这种现象的可能性较低,但也不排除这种可能性。
参考文献
生成式人工智能的三大安全风险及法律规制:以ChatGPT为例
[J].
生成式人工智能服务提供者侵权过错的认定
[J].
人工智能生成物著作权侵权的认定及其防范:以全球首例生成式AI服务侵权判决为中心
[J].
论生成式人工智能服务提供者的注意义务
[J].
论生成式人工智能版权侵权“双阶”避风港规则的构建
[J].
人工智能服务提供者的版权侵权责任研究
[J].
Generative AI and Author Remuneration
[J].DOI:10.1007/s40319-023-01399-4 [本文引用: 1]
/
| 〈 |
|
〉 |
