|
css躲猫猫欧盟《人工智能法》是欧盟基于其人权保护、伦理道德和法律价值标准之上的对于新产业的回应过程。欧盟《人工智能法》最根本的价值基础在于《欧盟宪章》中的基本权利权利保障需求和法律价值评价标准等最基本共识上的的价值判断。在这个价值判断基础之上欧盟采用了分级分类的方式包括风险的分级和行业的分类并以横纵交叉的方式贯穿了上述基本价值搭建了关于人工智能产业的一张网。有人说这张网是阻碍行业发展的网也有人说这张网是保障产业运行安全的网。从伦理、基本权利保障、社会运行、经济安全等多方面博弈与平衡的角度来说我认为这张网应该是保障人工智能作为工具在应用过程中不会对社会总体福利和公民基本权利造成侵害的一张安全网。中国究竟要选择怎样的治理模式与规制措施来规范人工智能相关产业运行这是我们立法者、学者、行业各方面需要研究的问题。在这个过程当中需要区分我国与欧盟对于共识性伦理和价值判断以及差异性伦理和价值选择分别有哪些对于产业运行上的共同目标有哪些以及我国当下发展和需要解决的差异性问题有哪些。在面临共识和差异的情况下我们“织网”的方式可能会有所不同。所以应当允许这样的差异性存在。但是也不能忽视欧盟在伦理、价值选择及产业运行保障中运用的方法论、价值平衡和取舍的过程这无疑是欧盟能为我们提供的经验。
就欧盟《人工智能法》总体的立法目标和调整内容而言我们今天所讨论的“生成式人工智能规范”只是欧盟《人工智能法》规范和调整的一个很小的部门和领域。在处理具体问题的过程中我们还需要着眼于更大的范围去观察人工智能对于不同产业和部门法究竟有怎样的影响。总的来看人工智能应用的领域非常广泛在确定价值标准、选择解决路径、设计具体方案时还应适当着眼于更大的范围去观察生成式人工智作为子问题如何在协调统一的方法论指导下做出宏观的价值考量并为其他子问题的解决提供借鉴。
通过系统地总结和分析我将欧盟《人工智能法》有关著作权的规定总结为以下四个方面第一明确了责任主体第二确定了限制和例外第三提出了域外适用第四规定了与信息提供和信息公开相关的证据规则。我将从以上四个方面进行简单介绍。
《人工智能法》明确了通用人工智能模型的提供者是著作权责任承担的主要主体。正如张鹏老师所提及的对人工智能应用的规制是全链条的其中最重要的一个主体是“通用人工智能模型的提供者”。原因是欧盟立法者认为通用人工智能模型提供者在整个产业链条中扮演的角色是最基础的所以其承担的责任也是最重的。大型生成式人工智能模型是通用人工智能模型应用一个典型的例子他们能灵活地生成内容例如文本、音频、图像或视频的形式这一应用可以很容易地根据用户的需要完成各种独特的任务。
鉴于通用人工智能模型的提供者在人工智能价值链中的特殊作用欧盟《人工智能法》要求通用人工智能模型提供者必须制定相称的透明报告完成信息公开的义务包括起草和更新说明文件提供有关人工智能模型的信息包括合规信息供下游提供商使用以及向人工智能办公室和其他主管部门提供。关于信息提供的内容可以参考欧盟立法的几个文件。一是立法理由书其中会解释清楚立法理由其也是欧盟法院未来解释法律适用的依据。二是正文。三是附件其中有很多格式性的文件即相关主体在什么情况下需要填写什么表格、提供怎样的信息相应模板会在附件里明确这是非常明确和具有指引性的。
原则上在不属于《数字单一市场中的版权指令》规定的文本和数据挖掘例外的情况下通用人工智能模型的提供者在开发、训练模型的过程中对著作权法保护客体的任何使用都要取得著作权人的许可。
欧盟《数字单一市场中的版权指令》EU2019/790第3条与第4条引入了有关文本和数据挖掘应用的例外与限制允许行为人在某些条件下使用者出于文本和数据挖掘的目的复制和摘录作品或其他客体权利人可以选择保留对其作品或其他客体的权利以防止使用者进行文本和数据挖掘《数字单一市场版权指令》第4条除非这是出于科学研究的目的《数字单一市场版权指令》第3条。易言之除了那些以适当方式机器可读明确保留选择退出权的情况通用人工智能模型的提供者如果出于非科学研究目的想对此类作品进行文本和数据挖掘都需要获得权利人的单独的授权欧盟《人工智能法》第53条第1款c项。
因此欧盟境内的很多著作权集体管理组织在欧盟《人工智能法》出台之后都代表其管理作品的权利人集体宣布权利保留并开启了与大型人工智能服务商对线c;进行著作权保护交易谈判。目前虽然全球范围内还没有一例法院做出的生效判决但可以观察到很多纠纷都通过谈判和解达成了共识即通用人工智能模型的提供者在开发、训练模型的过程中对著作权法保护客体的任何使用原则上需要征得许可例外情况下可以不征得许可。
域外适用方面将通用人工智能模型投放到欧盟市场的提供商都应确保遵守《人工智能法》的相关著作权合规义务。对此欧盟立法者认为无论支持这些通用人工智能模型训练的著作权相关行为发生在哪个司法管辖区通用人工智能模型的提供者都必须制定明确的著作权合规审查规则并遵守欧盟《人工智能法》中有关著作权规则的相关要求。因为相关规则的域外适用对于确保通用人工智能模型提供商之间公平的竞争环境是必要的因为在这种竞争环境中任何提供商都不允许通过借助低于欧盟著作权相关标准来在欧盟市场上获得竞争优势。
中国学者前几年特别关注其他国家法律的域外适用问题特别是美国对我国贸易及出口管制的问题。事实上域外适用问题在很多部门法中都有谈及比如在与反垄断、食品安全相关的部门法中。其实域外适用的问题是一直存在的比如其他国家的农产品想要进入欧盟市场必须要符合欧盟农产品相关的安全体系再如相关产品在满足环保、不使用童工、不违背人权的价值共识与法律标准下才能进入欧盟区域市场进行销售。那么如果不能满足《欧盟人工智能法》提出的诸项要求就不能进入欧盟市场来应用人工智能模型、开展相关的服务也是一样的道理。欧盟《人工智能法》就是按照属地主义标准构建起来了价值判断之下的产品运行基本规则。对于中国具备出海能力的企业而言需要注意进口国标准的适用。
证据规则方面通用人工智能模型的提供者需要起草并公开提供其用于训练通用模型的内容的足够详细的摘要摘要包括受版权法保护的文本和数据的来源。具体来说在适当考虑保护商业秘密和机密商业信息需要的同时摘要的范围应总体上全面而不是技术上的详细以方便具有合法利益的各方包括著作权人行使和执行其根据欧盟法律享有的权利。
这一说明义务对应的是我国知识产权权利救济中的证据规则其实质上是举证责任的倒置。为了应对人工智能的黑箱问题《人工智能法》要求事先披露用了哪些数据集进行训练并且要求行为人承诺版权是合规的。在信息呈现的过程中欧盟规则并不要求行为人提供的信息具体到其所使用的每一个作品只要能够承诺是合规的并且说明从哪里合法得到这些数据即可监督机关也不需要做实质性审查。
国际化环境下中国企业面临出海问题也面临着我国在经济高速发展阶段下的技术和人文关怀、伦理价值的综合性评估和安排判断问题欧盟经验确实值得我们分析和思考。同时作为一个法律工作者一个著作权、知识产权研究者我个人的基本立场是要立足于法律解释理解相关问题。法秩序整体有其存在的逻辑法律制度有制度演进的内在价值取舍和逻辑安排不能够根据某些阶段性的目标随意进行添改。法律制度稳定运行的价值逻辑背后体现的是很多国家在历史中总结的基本共识如果为了满足某一个时期的需求突破了这些共识点也就打破了开展国际对话、进行国际交往所认同的基本价值共识这就可能会导致一些多冲突和误解。。
针对我国需要面对的几个问题可以从著作权制度的保护规则、限制例外规则、授权与集体管理规则、权利救济规则四个方面来谈谈欧盟《人工智能法》对我国的启示。
第一从著作权保护规则看我国的著作权制度有必要细化复制权的调整范围明确被允许使用的“临时复制”的构成要件。全球范围内已经出现了多个权利人依据复制权侵权维权的案件例如纽约时报在针对OpenAI的起诉书中认为聊天机器人向用户提供了《纽约时报》文章的近乎逐字摘录之所以OpenAI和Microsoft特别强调使用《纽约时报》新闻来训练他们的人工智能程序因为这些材料被认为是可靠和准确的。建议我国在《著作权实施条例》中对临时复制行为进行必要的界定以完成技术发展和立法目的之间的适配。具体在立法中需要严格界定临时复制各个构成要件的内涵为权利人和作为使用者的人工智能模型提供者创造可预期的法律依据。
正如很多学者所说临时复制不属于复制权的调整范围因为临时复制是不具有独立的经济价值的一旦具有独立的经济价值就属于复制权的调整范围不能享受法律的豁免而需要征得许可、支付相应的报酬。对于临时复制内涵的界定版权理论界的同仁们还需要进一步加强研究。新技术发展的情况下如何界定临时复制豁免的范围很大程度上影响到我国对于许可收费判断的问题。同时也需要关注国际上对于临时复制基本共识避免出现其他国家保护的内容在我们国家不保护的情形出现。至于《著作权法实施条例》是不是在短时间内能够予以回应由于时间紧迫还需要慎重。
第二从著作权限制规则看我国《著作权法》有必要增添有关保障通用人工智能模型提供者开展人工智能训练的合理使用和法定许可规则。欧盟《人工智能法》明确了通用人工智能模型的提供者可以使用开源的著作权保护客体以及在欧盟文本和数据挖掘例外制度的适用下进行系统的开发和训练。我国应当尽快通过《著作权法》修订增添有关文本和数据挖掘的合理使用制度以便让相关主体特别是以科学研究为目的的主体能够享受到技术带来的开发利用著作权法保护客体的便利。但通过概念扩张完全免除以营利为目的相关主体的付费义务会背离文本和数据挖掘原本产生的立法意图。因此也可以在引入有关文本和数据挖掘合理使用规则的同时考虑引入新的法定许可机制以求保障创作者群体能够针对人工智能系统对其著作权法保护客体的开发与利用获得适当合理的报酬。
通过历史考察可以发现在文本和数据挖掘制度产生时其立法目标并不是为了给生成式人工智能开放合理的正当性。在文本和数据挖掘诞生时我们无法预测到生成式人工智能会产生如此大的影响。文本和数据挖掘的目的主要是“分析、判断和预测”而现在的生成式人工智能已经变成了“生成、传播和利用”使用目的发生变化。
德国和欧盟立法者也在考虑现有的文本和数据挖掘合理使用是否在适用过程中过度侵害著作权人的权利打破了文本与数据挖掘立法时所希望达到的平衡。当初引入文本和数据挖掘的逻辑前提和基本判断是这种复制行为是侵权的因为有一些复制产生了竞争性替代品因而需要通过合理使用正当化。
对于我国来说有必要创造文本和数据挖掘制度但需要限定制度的适用范围。在生成式人工智能使用作品的过程中如何平衡好产业发展需求和保护创作者权益的价值要求之间的关系需要立法者去考量。个人认为建立法定许可为原则一些具体场景之下的退出机制是比较合理的。至于授权机制个人比较期待集体管理的运用。
第三从著作权授权许可规则看我国应尽快完善已有的著作权集体管理制度特别是完善集体管理组织的内部治理、外部监管规则确立并建立对非会员权利的集体管理制度。
为什么说集体管理制度比较适合高质量、可信赖的人工智能系统需要通过高质量的数据集完成训练这些数据集合中包含了著作权法所保护的客体。这就是为什么国外很多大型的数据库正在寻求高质量的数据库、可信赖的数据库作为素材来投喂训练的原因。为了在合法的框架下利用高质量数据集进行训练OpenAI已经和包括美联社、阿克塞尔·斯普林格在内的多家新闻出版集团达成了使用其著作权法保护客体的协议。如果人工智能模型的提供者需要承担著作权合规的义务必将出现从以出版商为代表的个体授权向以著作权集体管理组织为代表的集体授权机制进行过渡的现象。为了让权利人获得适当的报酬瑞士和德国的著作权集体管理组织已经发表了针对人工智能模型训练的文本和数据发掘的适用保留并启动了相应的授权谈判。对此高效运行的著作权集体管理机制可以实现权利人和使用者的利益平衡在保障权利人权利的同时促进使用者取得授权并开展利用版权保护客体的行为。
使用者比较关心的是分配难的问题这一问题是可以克服的。当下遇到的很多问题在历史上都已经出现过历史上的方法其实可以用于克服当下遇到的困境。概括性收费和付费的制度在历史上就已经存在比如欧洲和德国设立的私人复制补偿金制度就是一种概括性付费和概括性收费的方式。从成本上看一对一收费并不是著作权制度中实现利益平衡的唯一付费机制和方式。在此条件下其他国家可能只是把制度工具箱中已经存在的制度工具拿出来运用而已然而中国在解释部分可能面临更大的难题。解决好历史遗留问题、做好历史研究对于应对当下问题是非常有价值和必要。
第四从著作权救济规则看为了充分保障权利人的权利我国在在制定人工智能相关的法律时应当在明确责任主体的同时要求其承担训练数据的来源说明义务标识义务。《人工智能法》要求特定主体所承担的信息提供义务有利于权利人展开维权。权利人只有知悉其权利被用于数据训练后才能据此要求责任主体承担具体的侵权责任。对此我国《人工智能法学者建议稿》明确了人工智能开发者和人工智能提供者需要承担标识和信息溯源义务其可以理解为与著作权有关的信息提供义务《人工智能法学者建议稿》第24和48条。这种举证责任的分配能够提高权利人维权的效率并降低权利人维权的难度。从比例性的角度看我国在制定相应规则时也应当明确信息提供和信息公开的义务并不用具体到每一个具体的作品只需要以说明数据集的权利来源即可。对于不提供相应数据来源信息的责任主体需要承担相应的责任。
透明度和信息来源披露义务在应对黑箱问题上有很大的优势但是这样的举证责任的倒置和披露义务的设置对产业来说是一种义务的增加。这种义务增加的最终目的是让产业对其的使用行为支付适当合理的报酬具体到什么程度个人认为应当满足比例性要求。
中国北京市东城区东长安街1号东方广场东方经贸城东一办公楼1501-1502室
|