分享

【知产财经】杨德嘉:算法推荐与平台责任

 知产财经 2022-04-15

当前网络发展日新月异,技术带来创新模式的同时也带来了新的挑战。尤其在司法实践中,新技术对互联网服务平台法律责任的影响以及相关技术措施法律边界的认定一直存在不小争议。在技术带给互联网服务提供者更好的经营便利的同时,是否可能对其行为定性产生影响?该采取哪些行之有效的手段才能制止和预防侵权行为发生?为了深入探讨上述问题,4月2日,知产财经举办了“网络平台技术发展与法律责任认定”研讨会,力邀司法界、学术界、产业界代表从不同角度出发,共同探讨和研究本领域的法律和实务问题。

  会上,北京市海淀区人民法院知识产权审判庭庭长杨德嘉围绕“算法推荐与平台责任”主题进行了演讲,知产财经对其内容进行了整理,以飨读者。以下是其演讲实录。

  感谢有这个机会,跟大家分享一下算法推荐与平台责任方面的一些思考,汇报一下相关的心得。我主要从三个方面分享,第一是关于技术和应用的问题,第二是关于算法推荐的主体与责任问题,第三是我们如何在动态当中去实现各方利益平衡的问题。

 一、技术与应用

  关于技术与应用,这里涉及到讨论算法推荐问题时经常出现的一个词——技术中立。谈到技术中立时,往往也会随之出现这样一个举例:枪不杀人,是人杀人。与此对应的价值中立论也认为:一项技术本身并不具有任何道德价值,只有当人使用它的时候才具有价值。因此,有观点将之套用在平台的算法推荐问题中,主张平台、算法,都只是“枪”,而侵权用户才是使用枪的那个“人”。中立的平台和算法,不应当对用户个人的侵权行为承担责任。在讨论技术中立的法律问题时,我们也经常会看到著名的“索尼Bebamax”案被援引。在该案中,美国最高法院的多数法官最终认为,索尼出售了具有“非实质性侵权用途”的录像机,不构成对用户行为的帮助侵权,无须为消费者个人的侵权行为承担责任。

  姑且不论技术中立本身是否在任何条件下都是绝对成立的,因为很多所谓中立技术的研发也是受到法律严格限制的,例如人类基因改造、大规模杀伤武器的研制等。即便抛开这些极端情况,回到日常的技术中立语境下,最重要和首要的是区分“技术研发”与“技术应用”。同样是带着“技术”两个字,但是研发和应用有完全不同的本质和效果。技术研发有可能还存在中立的问题,但技术的应用,特别是市场化层面的大规模应用,永远不可能是中立的。其往往带有市场主体明显的目的性,精准的利害取舍和鲜明的价值追求。

  我们在谈论“技术中立”时,特别应当避免落入到“技术使用中立”的逻辑陷阱。枪当然不能杀人,是人用枪杀了人。所以法律此时所关注的,并不是被使用的枪,而是开枪者应当对其用枪杀人的行为承担什么责任,亦即当行为人将中立的技术进行非中立的应用时,其对该使用行为和使用后果应当承担怎样的责任。

  回到算法推荐的具体场景来看,“算法”只是协助经营主体进行信息推送的工具,而“推荐”行为则是作为经营主体的平台所实施的主动的、有选择的、目的明确的、利用算法进行推广的行为。此时法律问题的本质并不是作为工具的算法本身,而是平台使用算法进行内容推送这一行为的性质。与索尼案的比较,索尼对于其销售出的录像机,售出去以后就完全失控,对消费者的具体使用方式和后果,索尼公司无从了解、难以干预。然而,对于算法推荐的内容或者作品,用户和平台到底谁是算法的真正使用者?我想恐怕不是用户。谁是算法的控制者?当然也不是用户。平台对于其使用算法推荐技术所产生的后果,是不是就像索尼对于其所售出的录像机一样,完全失去控制,完全无从干预?恐怕也还是有区别的。

  其实,即便我们认识到技术应用的不中立这一本质,也并不代表会无条件地要求经营者对其平台内的全部侵权行为承担责任。失去了所谓技术中立的保护,我们对于平台责任的认定也只是回归到正常的路径上来,即综合考量其行为方式、行为后果、主观过错等,对其是否应当承担责任作出认定。

 二、主体与责任

  近年来,我们在探讨技术问题,涉及到人工智能、大数据、算法、AI时,似乎出现了一种将主体神秘化的倾向,不断出现一些新概念和表述,例如AI创作、自主学习、自动决策、算法黑箱、算法歧视、算法共谋等。这些表达,在有意无意中就会对人们认识相关问题产生的模糊化的效果,似乎AI、算法等技术已经成为了独立的行为和责任主体。因此,弄清楚到底是谁,什么样的主体在实施什么样的行为,损害后果如何产生,责任如何承担?这也是我们讨论算法相关问题的起点。我们首先应当拜托那些拟人化的想象与表达的影响,去寻求问题的本质和根源。也就是说到底是谁在控制算法推荐,谁在实施推荐行为,谁在从中获利,谁导致了损害后果的发生。公司法中有一种说法叫做“揭开公司面纱”,即公司的人格否定,去掉马甲去揭示真正的行为人和责任主体。我想我们面对算法推荐这一问题也是一样,应当去揭开算法的面纱,看到算法背后真正的技术使用者和行为实施者是谁。由此才可以准确地认识到,算法推荐和平台之间的关系,本质上就是工具与工具的使用者之间的关系。

  三、动态与平衡

  算法推荐的结果、风险、损害,并不是绝对的不可预见、不可控制和不可避免的。综合和比较各种因素之后,我们主要是看作为平台经营者的经营主体,是如何计算利弊和选择最终结果,这其中包含侵权的概率、控制侵权的成本、获得的收益、竞争优势等问题。

  每一家的算法会有不同,但有一个不容否定的客观事实:不论算法多么神秘,算法黑箱如何难以捉摸,我们从来没有见过一种“中立”的算法把平台自身算垮;中立的算法搬起来的石头,砸到的总是别人的脚,损害的总是其他法律主体的利益。结合算法等多种技术和手段,更加高效地制止平台内侵权内容的传播,甚至加以屏蔽,在技术水平和经营成本方面,是否真的是无法实现和难以承受的?如果是二十几年前,我想对各大平台来说可能确实是强人所难,但时至今日仍然持这种观点,恐怕与实际情况是有所脱离的。

  我们在谈及网络服务提供者,也就是平台的注意义务时,总会提到源于1998年DMCA的避风港规则。但与此同时,我们一定要注意到互联网市场、技术、应用从彼时至今日的动态发展与巨大变化。二十多年前制定DMCA时的互联网生态,与2022年的今天已经不可同日而语。避风港中的“风”已经不再是当年的“风”,相应的“港”一定也不能再是当年那个“港”。也正是因为如此,美国版权局从2015年至2020年,花了五六年时间,对避风港实施的效果进行了深入的评估,他们自己也承认,制定DMCA时所希望达到的利益平衡早就已经被打破,只是对于如何恢复平衡,他们仍然建议要对法律进行局部而非全面的修订,从而应对现在互联网中的侵权问题。同期的欧盟《单一数字市场版权指令》,对于平台责任的承担恐怕就没有那么温和了,在我看来算得上是“猛药”了,时间关系,我们不做展开讨论。但无论是美国式的温和调整,还是欧盟式的严厉规定,它们的指向都是一致的:当年的避风港规则已经无法实现利益平衡,必须通过规则的调整来重新使得新的避风港能够合理的“避风”,而不是任由“避风港”异化为盗版横行的“海盗湾”。

  谈到平衡,还有两方面值得关注,一个是权利人、网络服务商、网络用户三方主体间的权利、义务平衡。前面专家也有提到“二创”的问题,近一两年看到很多涉及到算法推荐、短视频文章的讨论中,都有这么一个顾虑——会不会由于这种“通知-必要措施”甚至是版权过滤措施等,打击到对视听作品进行二次创作和合理使用的用户,不合理地限制他们的权利、删除他们的“二创”作品?从实践案件来看,这种打击“二创”、限制合理使用的担忧,似乎更多是存在于想象之中。目前似乎还没有足够的数据和事例来证明,平台在进行删除、屏蔽侵权内容的过程中产生大量“误伤”,严重损害到“二创”甚至原创用户的合法权利。是否实际出现过大量用户在接收到平台转送的侵权通知后,理直气壮地依法提出反通知,要求平台恢复上架自己依法享有权利的短视频作品?至少从进入诉讼的纠纷情况看,这种情况是缺乏证据证明的。相反的,大量案件反映出来的是著作权人的作品受到了实际的、严重的侵害。那么在以上“设想中的隐忧”和“现实中的损害”这二者中,我们将什么作为普遍情况、将什么例外情况进行考虑,怎么去实现不同情况下各个主体之间的利益平衡,怎么对应地去设置规则、作出判断,也是值得深入考虑的问题。

  另一个问题是,我们在很多案件、文章当中不断地围绕“避风港”来开展研究的同时,似乎经常会忽视当年的DMCA,以及现行的《民法典》中,除了“避风港”以外,还有一个对应的“红旗原则”。而只有将这二者结合在一起,才是整套规则的全貌。如果只有避风港,却没有红旗原则,最终的结果只可能是导致网络平台中侵权的泛滥。

  当然,我们并不是要求不允许任何侵权的UGC内容存在于平台中。我们也要有合理、适度的容错,给平台的发展、完善留出一定空间。对于平台中存在的小概率、小范围、轻微的侵权损害,权利人应当有一定的容忍度;而对于其中大概率、大范围、严重的侵权损害,平台恐怕还是应当尽到相应的注意义务并且采取必要措施切实加以有效处理和避免的,否则应当承担相应的侵权责任。在个案中,我们进行判断的核心,仍然是“利益平衡”。

来源:知产财经
关注更多知识产权财经资讯,可登录知产财经官网

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多