人工智能侵权法律问题简析(上篇)
作者:丁峰 王枫伟 孔琴 段雨欣 2025-03-28人工智能(Artificial Intelligence,AI)作为现代科技的前沿领域,已深刻影响社会生产和人类生活。信息技术发展从规则驱动的计算机程序,到依托神经网络、大数据和深度学习的自主学习型智能系统,在此过程中,人工智能的应用场景不断扩展,从传统的语音识别、计算机视觉、自动驾驶,到生成式人工智能(Generative AI),使其具备了文本、图像、视频、音频等内容的自主生成能力。特别是在法律、医疗、金融等专业领域,AI正逐步渗透、辅助甚至替代人类的分析与决策。
以生成式人工智能(如自然语言处理工具)为例,其核心在于通过大规模数据训练,实现高维度信息处理并产生自主创造内容的能力。与传统基于规则驱动的技术不同,生成式AI并非简单执行指令,而是通过自主学习的方式模拟人类智能。其运作模式通常包括语料数据的采集与整理、深度学习模型的训练与优化、实时信息的动态抓取,以及最终内容的生成与输出。因此,生成式AI的产出内容远远超越了早期AI的功能范畴,不再仅仅是数据的简单提取和组合,而是通过复杂算法建构出的新型表达。这种特性在推动技术进步的同时,也带来了新的法律挑战,特别是在知识产权、隐私权、名誉权等方面,引发了广泛争议。
AI技术的应用日趋广泛,涵盖了司法辅助、医疗诊断、自动驾驶、智能客服等多个领域。然而,这些技术的迅猛发展并非毫无代价。AI系统在运行过程中,由于算法设计的不确定性、训练数据的瑕疵以及使用者输入指令的多样性等因素,往往导致其输出内容存在不可预测性,进而引发侵权纠纷。例如,生成式AI所产生的虚假信息有可能侵犯个人名誉权,自动驾驶系统的判断失误有可能导致交通事故,对个人私密数据的滥用将构成对隐私权的侵犯。因此,现有法律体系是否可以有效规制AI带来的风险,是否需要创设专门法律制度对AI侵权行为进行规制,成为亟待研究或解决的问题。本文将对现行侵权责任体系部分内容进行梳理,并结合AI侵权的特殊性,尝试探析不同AI类型对侵权责任的影响,并提出AI时代侵权责任认定的法律思路。
当前AI侵权理论观点
由于我国目前并未出台专门针对人工智能侵权责任的法律法规,在人工智能侵权时,哪些主体应当承担民事责任以及如何承担民事责任,理论界和实务界尚未形成统一的观点。
在探讨人工智能侵权责任时,首先需要解决的是人工智能(包括但不限于AI系统、AI工具或安装AI的其他载体等)是否具有民事主体资格的问题。若人工智能具有民事主体资格,则需要承担侵权责任。目前理论界众说纷纭,主要观点分为主体资格否定说、主体资格肯定说和主体资格折中说三种。主体资格否定说是当前主流观点,如,吴汉东教授认为机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。[1]杨立新教授认为智能机器人的民法地位属于人工类人格,即智能机器人所享有的、通过人工制造的、类似于或者接近于自然人的自然人格的民事法律地位,仍然属于物的范畴,是权利客体,而不是民事主体。[2] 殷秋实学者认为人工智能不具备如同自然人一样的“理性”,并且其能力也不足以使其成为新的主体。[3]与赋予人工智能民事主体资格相对的另一种观点,可概括为主体资格肯定说。这一学说,主要是建立在对人工智能技术迭代进化的基础上,主要根据 “技术”事实赋予人工智能发展相匹配的民事主体资格。[4]对生成式人工智能而言,孙那认为根据其涌现出的独特的思维和理解能力、打通虚拟与现实边界的可交互性以及向人脑规模发展的模型参数量等特征,应在法律层面上赋予其相应的独立法律主体资格。[5]最后一种观点试图调和上述两种观点,从而形成了第三种“折中说”。如,许中缘教授认为应当赋予人工智能法律人格,但人工智能属于一种智慧型工具,法律人格是有限的,这种有限性尤其体现在行为能力、权利义务、责任能力的有限。[6]
学界主流观点认为人工智能不具有主体资格,司法实践中目前也基本持该观点。在生成式人工智能侵犯著作权案件中,法院通常在认定人工智能生成物是否构成作品时,间接否定人工智能作为法律主体的资格。如,在北京互联网法院受理“菲林诉百度”案中,判决中明确计算机软件自动生成的文字内容因未传递软件研发者和使用者的独创性表达而不构成作品,实际上否定了人工智能作为法律主体的资格。[7]
当人工智能不具有民事主体资格,就需要解决由谁来承担民事责任的问题。在不同的人工智能应用场景中,被侵犯的民事权利及承担责任的民事主体有所不同。以生成式人工智能为例,其引发的侵权类型或有多种:第一,服务提供者可能未经同意,大量收集了涉及他人隐私、个人信息以及商业秘密等数据用于训练,此种信息处理行为可能构成侵权。第二,服务提供者开发的生成式人工智能生成各种虚假信息,或者生成具有侵权性质的文字、图片、视频等。第三,用户使用生成式人工智能的产品时,采取故意引诱等方式使生成式人工智能产生虚假信息,并且对虚假信息进行传播,这也可能构成侵权。[8]在第一种情形中,普遍认为在服务提供者大规模采集个人信息的情况下,应当根据《民法典》和《个人信息保护法》等法律法规,以过错推定来确定侵权责任,对此没有争议。当服务提供者的行为涉及侵犯除个人信息以外的其他权利时,王利明教授认为其与一般侵权没有本质差异,理应适用过错责任,在用户和服务提供者均有过错的情况下,利用过错进行分担,有利于准确地认定各方主体的责任。[9]在第二种情形中,服务提供者可能构成侵权的行为可细分为两个阶段:一是生成阶段,二是移除阶段。前者指服务提供者因为生成了侵权内容而需承担侵权责任;后者指服务提供者在知道侵权内容后(典型是受害人通知服务提供者),未能及时采取必要措施(比如,采取内容过滤技术来避免侵权内容的再次生成),而应承担侵权责任。[10]在第三种情形中,周学峰认为可以借鉴美国《侵权法重述》第二版,将虚假陈述分为人身损害和物质经济的虚假陈述,紧接着再次分为故意、过失和无辜虚假陈述,对其侵权责任承担也有细致的归责路径。[11]王利明主张用户利用AI制造虚假信息并对该虚假信息进行传播,应当承担独立的侵权责任,至于 AI服务提供者则不需要承担责任。用户以及用户进一步传播虚假信息所使用的网络服务提供者的责任,则按照传统侵权法的规则处理即可。[12]
欧盟人工智能侵权责任相关立法
人工智能侵权责任的立法实践经验,美国、英国、欧盟等国家及地区相对于我国来说较为完善。其中,欧盟对人工智能侵权责任的立法研究最具有创新性,包括人工智能的法律主体地位、责任承担大小等方面。
在 2016 年时,欧洲议会发布了《机器人民事法律规则的决议》,提出了让最先进的人工智能拥有电子化的身份,从而对潜在的伤害承担责任,并公开承认了人工智能拥有法律主体地位的可能性。[13]同时,强调了由人工智能侵权所引起的责任承担问题:即将人工智能的自主性与责任主体的责任承担相关联,依据人工智能自主能力的差异,对其承担的义务类型进行差异区分。人工智能的自主性越高,则其对于责任主体的依赖性越小,其实施侵权行为与责任主体之间的关联性越小,责任主体的主观过错就越小,相应的责任主体应承担的责任就越低,反之则越高。此外,为帮助查明侵权事实,明确了以下规定:一是在欧盟内部成员国以及国际之间建立统一的技术标准,推动人工智能安全发展,并为人工智能产品缺陷的判定标准提供依据。二是在处理人工智能侵权案件时,适用因果关系推定原则,能够显著减轻受害者的举证责任,降低因果关系证明的要求。三是要求人工智能制造商对人工智能必须安装“黑匣子”,从而记录人工智能的决策过程,确保发生侵权事故时能在一定程度上还原事故原因。
2024 年,欧盟通过了全球首部涉及人工智能监管的《人工智能法案》,该法案遵循“基于风险”(risk-based)的方法来监管人工智能,将人工智能产品的风险划分为四种:不可接受风险、高风险、有限风险和最低风险。[14]该法案针对不同群体规定了不同的义务,区分了人工智能系统提供者(第2条第1款a项)、人工智能系统运营者(第2条第1款b项)、人工智能系统进口者和分销者(第2条第1款d项)、将人工智能系统与其他产品一起投放市场或投入使用的制造者(第2条第1款e项)、未在欧盟境内设立场所的提供者的授权代表(第2条第1款f项)以及位于欧盟境内的受影响主体(第2条第1款g项)。其中,大部分义务规定在高风险人工智能系统提供者身上,同时要求对高风险人工智能系统运营者承担严格责任。
人工智能侵权案件的特殊性
相较于传统侵权案件,AI的自主性、不可预测性以及决策过程的复杂性,使得责任主体的界定、因果关系的认定极为复杂和困难。在法律适用层面,如何在维护当事人权利与促进技术发展之间寻求平衡,是当前AI侵权责任体系构建的核心问题。
(1)主体的复杂性
AI技术的应用涉及多方主体,既包括算法开发者、模型训练者,也包括具体的产品运营商和终端使用者。在传统侵权责任体系下,责任的承担往往聚焦于单一责任主体。然而,AI的特殊性导致责任主体的界定不再局限于单一环节,而需要综合考量多个因素。
在AI侵权案件中,产品提供方与使用者的责任划分可能成为争议焦点。以自动驾驶系统为例,若车辆因AI决策失误发生事故,则该等决策失误是算法存在缺陷,或是训练数据存在瑕疵,还是车辆所有者在使用过程中的不良习惯影响AI系统,抑或前述因素综合造成了AI决策的失误,对责任的甄别与分担将更为困难。同样,在生成式AI引发的侵权问题上,若AI自动生成侵权的内容,究竟是提供算法的技术支持者存在过错,还是运营AI服务的企业训练数据存在差错,还是认定直接使用AI工具的个人故意输入不当提示词所致,也将成为实践中的难点。
AI的训练数据、使用方式以及算法优化过程均可能对最终结果产生实质性影响,因此在责任分配上,传统的单一主体归责方式已不足以应对AI引发的复杂法律问题。
(2)侵权因果关系的复杂性
因果关系的确立是侵权责任认定的核心要素,然而,在AI介入的侵权案件中,损害结果往往由多重因素共同作用,如何确定AI系统的行为是否构成法律上的因果关系,成为亟待解决的难题。
首先,AI的自主学习机制使其决策过程高度复杂,算法的运行不仅依赖于开发者的初始设定,还受到后续学习数据和用户交互的影响。例如,在自动驾驶事故案件中,若事故源于AI对环境数据的错误解析,责任是否应当由软件开发者承担,还是由数据提供者或车辆制造商承担,将影响因果关系的具体认定。
其次,生成式AI在内容生产中的不可预测性,使得因果关系的链条更加复杂。现行法律尚未对此给出明确答案,而在司法实践中,这类问题往往需要结合具体案件的技术特征、用户意图以及AI的自主性水平进行细致分析。
此外,AI产品的决策往往受到多重外部因素的影响,如数据输入的偏差、算法模型的调整以及用户操作的不同,这些都可能成为法律上的“介入因素”,使得因果关系的认定更加复杂化。在传统侵权法中,当第三方介入行为导致损害发生时,原侵权人的责任可能被削弱甚至免除。然而,在AI侵权案件中,由于算法的复杂性与数据输入的动态变化,如何判断AI是否具有“独立介入”的能力,以及该能力是否足以影响因果关系的认定,仍是法律适用中的重大难题。
注释
[1] 吴汉东.人工智能时代的制度安排与法律规制[J].法律科学(西北政法大学学报),
2017,35(05):128-136.DOI:10.16290/j.cnki.1674-5205.2017.05.012.
[2] 杨立新.人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任[J].求是学刊,2018,45(04):84-96.DOI:10.19667/j.cnki.cn23-1070/c.2018.04.011.
[3] 殷秋实.民事法律关系理论视角下的人工智能[J].法治研究
,2024,(01):74-87.DOI:10.16224/j.cnki.cn33-1343/d.20240003.006.
[4] 向鑫,张恩,王威涛.赋予人工智能民事主体资格的现实困境与未来证成[J/OL].人工智能,
1-7[2025-02-17].https://doi.org/10.16453/j.2096-5036.202450.
[5] 孙那.确立人工智能法律主体地位的再思考[J].法学论坛,2024,39(05):112-121.
[6] 许中缘.论智能机器人的工具性人格[J].法学评论,2018,36(05):153-164.DOI:10.13415/j.cnki.fxpl.2018.05.014.
[7] 参见北京互联网法院(2018)京0491民初239号民事判决书——北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷一案。
[8] 王利明.生成式人工智能侵权的法律应对[J].中国应用法学,2023,(05):27-38.
[9] 王利明.生成式人工智能侵权的法律应对[J].中国应用法学,2023,(05):27-38.
[10] 徐伟.生成式人工智能侵权中因果关系认定的迷思与出路[J].数字法治,2023,(03):129-143.
[11] 周学峰. 生成式人工智能侵权责任探析[J/OL]. 比较法研究: 1-16. http://kns.cnki.net/kcms/detail/11.3171.d.20230714.1413.004.html, 2023-07-21.
[12] 王利明.生成式人工智能侵权的法律应对[J].中国应用法学,2023,(05):27-38.
[13]https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.pdf
[14]https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX:32024R1689