摘 要:人工智能算法的发展给传统侵权责任的适用带来了挑战,我国现行立法尚未对其法律属性作出明确认定。尽管目前算法的智能化程度已能使其摆脱人类控制、进行自主学习,但它并未发展出独立人格,本质上仍具有工具的产品属性。因此,应从权利客体属性出发,适用产品责任来解决算法侵权问题。然而,由于算法具有不可解释性、虚拟性和动态性,在适用产品责任时面临责任主体难以确定、因果关系难以查明等困境。本文将从理论、司法实践以及法经济学角度进行分析,论证算法侵权适用产品责任的合理性,并界定产品责任的具体适用标准,以满足现实司法需求。
关键词:算法;侵权责任;产品责任
一、问题的提出
随着信息技术与人工智能技术的不断发展,算法逐渐进入大众视野,并广泛应用于大众生活的各个领域,如推测人的犯罪行为、财务状况、社会关系以及图形识别等。算法在为人们生活带来便利的同时,也带来了一些风险。如何应对这些风险,解决算法系统可能对社会造成的潜在危害,是算法能够更好地服务人类的前提。
当前,我国尚无明确的法律法规来约束算法风险引发的侵权行为。研究算法风险侵权能否适用产品责任,首先要明确算法的法律属性,判断其是符合“产品”的相关属性,还是具备独立主体资格,能够成为责任主体。其次,面对算法侵权,在产品责任法律框架下,算法产品的生产者和销售者应承担产品缺陷致人损害的赔偿责任。但在实践中,许多算法致人损害的行为是由设计缺陷导致的,算法软件瑕疵引发的侵权事故往往更具破坏性。因此,能否将算法设计者纳入产品责任范畴,使其成为责任主体,以及如何认定算法产品的缺陷、证成因果关系等问题随之而来,这对传统法学理念带来了重大挑战。
二、算法的法律属性
(一)算法应用实现形式
算法本质上是一种编码过程或方法步骤,没有物质实体外形,需要借助外力来实现目标。一般而言,算法对人的影响主要通过两种方式呈现:第一种是应用于无物理实体的人工智能,如网站利用算法进行个性化推送,法庭利用算法判决犯罪分子,此类算法的主要功能是代替人进行简单思考;第二种是应用于有实物实体的人工智能,如人工智能机器人、无人驾驶汽车等,这些算法可以通过输出结果控制物体的物理行为,进而对人产生影响,其主要功能是代替人的行动。目前,学术界针对算法侵权问题的研究多聚焦于实物形式的算法侵权,而对其侵权责任及救济问题的研究较少。既有研究对当前法律框架内的救济手段进行了详细总结,主要包括产品责任和结果监管路径下的平台责任。
(二)算法法律主体资格之辨识
目前,学界对于算法法律资格的研究主要存在反对说、支持说和折中说三种观点。反对说认为,算法无法理解和响应法律的行止要求,无法接受法律调整,也无法理解财产之于自身的意义,智能机器人本质上仍为物,属于动产中的产品,具备产品的一切属性。支持说则认为,算法已趋近人类高度自主思考和感知能力的水平,可以通过法律赋予其人格,使其参与社会生活。折中说主张,既不完全否认人工智能机器人的法律主体资格,也不完全肯定其地位,而是将其类比于罗马法中的“没有人格的奴隶”,似人而非人,可以赋予其一定的法律地位。
总体而言,尽管智能机器人或智能算法具有自主学习能力,能与人互动并做出自我决策,但它们不可能成为“理性的人”,因为它们不具备人类的辩证思维能力。同时,折中说完全颠覆了民法的基本逻辑与理念,试图在物和人之间创造出市民社会的第三种物质存在形式,这与现行民法的基本规则和逻辑相悖。因此,在当前人工智能发展阶段,不适合赋予算法或智能机器人民事主体资格,它们只能作为客体存在于法律关系中。
(三)算法的产品属性之辨识
算法究竟属于产品还是服务,学界尚存争议,这对确定算法设计者和生产者的侵权责任具有重大意义。在我国,目前学界对算法产品属性的探讨尚不深入,关于算法的产品属性,关键在于区分算法是产品还是服务,以及服务是否也属于产品。
有学者认为,算法若与有体物结合,即为一种产品。无形的智力商品原则上无体,不属于产品范畴,但无形智力成果与物体结合形成有体物后,该有体物可认定为产品。笔者支持算法属于产品的观点,因为含有算法程序的产品,无论是否具有有形物质载体,无论是经过定制还是标准化开发,只要脱离行为人的控制,且能满足消费者需求,就不应再认定为服务,而应认定为产品,进而适用产品责任的相关规则。
三、算法侵权对现行法律框架的挑战
算法侵权主要表现为三种情形:第一,侵权人直接或间接操纵算法侵害他人权利;第二,算法使用者因不当使用导致损害后果;第三,算法因自身缺陷侵害他人合法权益。在第一种和第二种情形下,算法实际上充当工具角色,我国《民法典》侵权责任编能够有效解决此类问题,在此不再赘述。因此,算法侵权适用传统侵权责任的主要难点在于第三种情形,本文所研究的“算法侵权”特指该类型。
算法致人损害的侵权行为,在适用传统侵权责任规则时,主要存在以下问题。
(一)责任主体确定困囿
目前,学界普遍认为算法尚不具备独立主体地位,现阶段算法的民事责任在意志自由、责任承担等概念和实践方面仍存在问题。算法不能成为责任主体,只能由其背后的人类承担侵权责任。然而,算法具有高度智能化特征,潜在风险难以控制,尤其是经过自主学习后,其决策系统可能演变成“黑箱”,涉及的责任主体愈发复杂,面临责任如何在各主体间分配的困境。
(二)因果关系难查明
因果关系的认定通常分为两步:第一步从事实层面考察行为是否为损害的充分原因,第二步从法律层面考察该因果关系是否符合法规目的。与传统侵害行为相比,算法侵害的因果进程更为冗长、复杂且不透明,导致在事实层面认定因果关系存在困难。算法具有不可解释性、不确定性等特性,尽管可以通过公布算法程序解决部分算法黑箱问题,但算法学习模型的内部决策逻辑可能连大众甚至程序设计者都难以完全理解,这使得算法侵权因果关系的证成难上加难。
(三)主观过错难认定
算法侵权责任的主观过错难以认定,主要体现在侵权行为人常将算法错误归咎于“技术错误”,而非自身主观过错。平台会依据“技术中立”原则免除自身责任,“技术中立”和“行为人与责任人分离”的情形愈发常见。然而,这使得侵权人能够借算法黑箱属性合理掩盖主观过错,无论确实是技术问题还是自身过错,都可认定为“技术错误”,从而免于承担侵权责任。
四、算法侵权的处理应回归产品责任
(一)算法侵权适用产品责任的合理性
尽管算法的智能化程度已能使人工智能机器人的行为摆脱人类控制、进行自主学习,但目前算法仍不具备与人一样的独立法律主体资格,本质上仍是为人类服务的工具,具有工具产品属性。无论是从理论层面还是司法实践角度,产品责任原则在解决算法侵权问题上都具有必要性和可能性。
1.从民事法律责任承担角度来看,产品责任具有规范算法生产行为的作用。与许多法律规范一样,产品责任兼具保护当事人合法权益、规制生产行为的职责。产品责任适用无过错责任归责原则,通过加重算法产品生产者、销售者的责任,防止算法及相关配套产品盲目生产并流入市场,避免其滥用优势地位损害消费者合法权益,这是一种合理的制度安排。
2.从司法实践角度出发,适用产品责任有助于法院妥善处理算法侵权纠纷。若对算法侵权适用过错责任原则,由于算法黑箱的存在,受害者将面临证明生产者过错以及生产者过错与损害之间因果关系的难题。而适用产品责任,受害者只需证明产品存在缺陷,法院即可推定因果关系成立,无须受害者另行证明因果关系。
3.从危险开启理论角度而言,危险开启理论认为,危险物品的设计者和生产者开启了对他人人身、财产权益造成损害的危险源,因此法律要求开启危险状态的主体承担高度注意义务,并承担更严格的责任。在人工智能算法领域,算法产品的设计者和生产者作为危险开启者,理应承担可能产生损害的责任。
(二)算法侵权适用产品责任的完善
1.缺陷判断标准,引入伦理因素。当前,我国产品缺陷分为设计缺陷、制造缺陷和警示缺陷三大类。目前,我国尚未制定与算法或人工智能相关的国家和行业标准,且这些标准未涉及社会道德伦理问题。
然而,算法产品的缺陷可能并非受外界影响,内部缺陷也可能存在,尤其是在算法对道德观念和行为进行判断时,现有判断标准可能力不从心。早在2015年,霍金就曾发出警告,超级聪明的人工智能若目标与人类不一致,可能引发麻烦。由于算法产品不具备人类的思考能力,无法进行道德评判,因此应在算法程序中添加道德规范,确保其行为和决策不违背人类道德规范。
2.责任主体扩大,将设计者纳入产品责任中。根据我国《民法典》侵权责任编及《产品质量法》规定,适用产品责任时,受害人可向产品的生产者或销售者请求赔偿。但实际上,许多因设计错误导致的算法致害,让制造商承担责任并不合理。
由于算法产品具有自身特点,涉及海量数据和复杂算法程序,专业性要求极高,只有设计者才能充分理解和掌握算法产品的开发过程。同时,因算法设计环节专业性强,为确保研究成果安全、降低投资风险,许多算法产品设计人员会选择单独成立法人或其他独立市场主体。因此,对于因设计缺陷导致的算法产品侵权,即便追究生产商或销售者的责任,也难以达到预防风险的目的。在此情况下,应将算法产品的设计者作为独立主体,与制造者和销售者共同承担无过错的产品侵权责任。
3.免责事由,发展风险抗辩的否定。在产品责任领域,发展风险一直存在较大争议。争议焦点在于,日益严格的产品责任制度是否应要求生产商对当时科技水平无法发现的产品瑕疵负责。由于人工智能技术处于前沿,无论是设计师还是制造者,都只是技术的探索者和试验者,因此“冰冷”的法律应给予一定“温度”,适当容忍设计人员和制造者的失误,以实现真正的公平公正。
开发风险抗辩对人工智能具有激励作用,但在人工智能算法情境下并不适用。适用发展风险抗辩会导致产品责任主体与消费者之间利益失衡。算法侵权应遵循产品责任原则,使产品的生产者、销售者和运营商能够合理预测可能面临的侵权风险,并将其内化到成本中,进而提高产品单价,将风险分摊给消费者。
五、结束语
当前,我国算法发展尚未达到与人脑等同的程度,不具有独立法律主体地位,仍为一种特殊的物,可适用产品责任规制算法产品致人损害问题。但需对传统产品责任进行适当改造,以使更好地适用:第一,在缺陷判断标准中引入伦理因素,因人工智能缺乏道德标准,仅依据算法和程序做出决策,为保护用户应加入伦理考量;第二,将设计者纳入产品责任的责任主体,算法内容设计在算法运用中至关重要,应让算法产品设计者与制造者、销售者共同承担无过错产品侵权责任;第三,在产品责任免责事由中否定发展风险抗辩,坚持该抗辩事由会导致产品责任承担方与消费者之间利益失衡。
(文 / 苟尔丹兰)
【课题信息:青海民族大学研究生创新项目“算法风险致人损害侵权适用产品责任规范构成研究”(项目编号:04M2024059)】
【作者简介:苟尔丹兰,青海民族大学法学院,法律硕士(2022—2025年)。研究方向:民商法】
参考文献
[1]王莹.算法侵害责任框架刍议[J].中国法学, 2022,227(03):165-184.
[2]彭诚信,陈吉栋.论人工智能体法律人格的考量要素[J].当代法学,2019,33(02):52-62.
[3]袁曾.人工智能有限法律人格审视[J].东方法学,2017,59(05):50-57.
- 本文固定链接: http://www.dlqsyzz.com/10282.html
- 转载请注明: 《大陆桥视野》 于 大陆桥视野 发表