AIGC 著作权规制路径研究——基于理论分歧与文化产业实践
作者:刘星 李成蔚 黄姝垚 2026-02-06一、引言
生成式人工智能(AIGC)技术的突破性发展,彻底颠覆了传统内容创作与传播范式,其在文本、图像、音频、视频等领域的广泛渗透,使 “人机协同创作” 成为数字经济时代的普遍现象,尤其在文化产业中,已深度融入短视频生产、视觉设计、图书出版等核心场景,成为产业创新的重要引擎。但技术赋能的背后,AIGC 对传统著作权法律体系发起了系统性挑战,核心矛盾集中于三大维度:模型训练数据的合规边界如何界定、AIGC 的可版权性与权利归属如何认定、多主体参与下的侵权责任如何划分。
2023 年以来,中美欧相关标志性案例相继落地 —— 中国广州奥特曼案、江苏常熟 AIGC 视觉作品案、美国 Thaler 案、英国 Getty Images 案等,为理论争议提供了司法实践样本,推动了 “人类实质性智力投入”“技术中立有限适用” 等共识的形成,但在合理使用边界、平台责任认定等方面仍存分歧。与此同时,文化产业中授权素材优先、二创脱密、算力 - 模型协同等实践探索,既为法律困境提供了现实解法,也催生了独创性评价冲突、思想 - 表达边界模糊等衍生问题。
本文以 “理论争鸣 — 法律困境 — 产业实践 — 衍生问题 — 制度完善” 为逻辑主线,先厘清 AIGC 著作权的核心概念与学界分歧,再系统剖析模型训练、内容输出、侵权归责中的法律难题,结合文化产业的应用现状与合规实践提炼现实经验,进而探讨传统独创性评价、作品类型划分等衍生法律问题的破解路径,最终提出适配 AIGC 特性的著作权制度优化建议,为司法裁判统一、产业合规操作与立法完善提供理论支撑与实践参考。

二、生成式人工智能著作权的概念与理论争鸣
(一)核心概念界定
1. 生成式人工智能与AIGC
《生成式人工智能服务管理暂行办法》明确将生成式人工智能界定为“具有文本、图片、音频、视频等内容生成能力的模型及相关技术”,核心特征是依托大规模数据训练实现自主或半自动内容创作。而AIGC作为其直接产出,指通过大语言模型(LLM)、生成对抗网络(GAN)等机器学习模型生成的各类数字内容,涵盖文本、图像、代码等多元形态,其生成逻辑依赖模型对训练数据中规律、风格的习得,而非人类直接创作。

2. 核心参与主体
生成式人工智能的核心参与主体主要包括服务提供者与服务使用者两类。服务提供者指运用相关技术提供服务的组织或个人,涵盖模型研发者、平台运营者等,其业务覆盖训练数据处理、模型部署全流程,是著作权风险防控的核心主体;与之相对应,服务使用者指通过输入提示词、调整参数等方式生成 AIGC 的组织或个人,其参与深度直接影响 AIGC 的权利归属与可版权性判定。
3. 关键规范依据
《生成式人工智能服务管理暂行办法》第七条明确了服务提供者的核心义务,包括采用合法来源数据、不侵害他人知识产权等,为著作权规制搭建基础性框架。同时,该领域需衔接《著作权法》《网络安全法》《数据安全法》等法律法规,形成多层次规范体系。
(二)模型训练阶段数据使用的理论争议
模型训练阶段的核心法律争议集中于数据获取与使用的合法性,主要围绕复制权认定、合理使用适用、转换性使用标准展开。

1. 复制权认定的争议焦点
著作权法意义上的“复制”需满足“固定性”与“可再现性”要件。模型训练过程中,作品需被存储于服务器并转化为算法可识别格式,这一行为是否构成复制存在分歧:否定说认为临时存储且未用于传播的行为不构成复制;肯定说主张,只要作品被固定于有形载体且可再现,即符合复制构成要件,司法实践中多数案例支持这一观点。
2. 合理使用的适用边界争议
我国《著作权法》第四十二条采用封闭性列举模式规定合理使用情形,模型训练能否纳入该范围存在巨大争议。AI开发者主张训练行为构成合理使用,训练的核心目的是让模型习得数据中的规律与结构而非复制传播原作品具体表达,属于典型的“转化性使用”,且训练过程提取的是不受著作权保护的思想、事实与统计规律而非作品独创性表达,构成“非表达性使用”,通常不会与原作品正常使用形成竞争,也不会不合理损害权利人合法市场利益。反对者则认为,商业性模型训练具有明确营利目的,使用完整作品且可能替代原作品市场,若认定为合理使用将严重损害权利人权益。
3. 转换性使用的标准模糊
转换性使用强调使用目的与作品原用途存在实质性差异,且不损害权利人合法利益。模型训练通过提取作品规律形成生成能力,与原作品传播、欣赏用途存在差异,但这种差异是否达到“转换性”标准缺乏统一界定。司法实践中,若生成内容与原作品构成实质性相似,通常会否定转换性使用的成立。
(三)AIGC可版权性认定的理论分歧
AIGC能否构成《著作权法》意义上的“作品”,核心争议聚焦于“独创性”与“人类参与”的关联,中外学界与司法界形成三大理论路径。
1. 美国“人类作者”中心主义立场
美国版权局(USCO)与法院秉持“人类创作”核心立场,主张版权保护的前提是“人类运用创造力产出的内容”。在“Thaler案”与“Zarya of the Dawn案”中,法院明确仅输入泛化提示词不足以使用户成为作者,完全由AI生成的内容无法获得著作权登记。仅当人类对AIGC进行实质性修改,使自身独创性表达可清晰分离时,该部分贡献才受保护。其理论根基源于版权激励理论——激励对象限定为人类,机器无需通过版权获得创新动力。
2. 中国“人类实质性智力投入”裁判逻辑
中国法院采取务实灵活的裁判逻辑,不直接否定AIGC的可版权性,而是聚焦用户在生成过程中的“智力投入”。在北京互联网法院AI文生图案、江苏常熟“林某诉某技术公司案”中,法院明确AIGC构成作品的核心要件包括:提示词的具体设计与迭代、参数的针对性调整、多轮筛选与后期修改。崔国斌教授进一步指出,关键在于用户是否“直接触发创作行为并贡献足够多的独创性表达”,若用户的智力投入对AIGC的独创性具有决定性作用,则应认定为作品。

3. 欧盟“智力创作”标准的模糊性
欧盟尚未形成权威判例,其核心标准是作品是否构成“作者自身的智力创作”,但如何将该标准适用于AIGC缺乏明确指引。欧盟《人工智能法案》对训练数据透明度的要求,可能间接影响著作权生态,但尚未直接回应可版权性认定的核心争议,整体呈现“介于中美之间”的模糊状态。
(四)权利归属的理论分歧
在可版权性认定的基础上,AIGC 若构成作品,其权利归属的核心争议集中于开发者与用户的贡献定性。中美欧主流观点趋于一致,即 AI 工具开发者通常不被视为具体 AIGC 的作者,北京互联网法院在相关案件中明确,开发者设计的是通用工具,无法预见和控制用户使用后的具体内容,其智力投入体现在工具本身,可通过软件著作权、专利等方式获得保护,而非具体作品的表达,无需借助 AIGC 的版权获得额外激励。用户的贡献则存在显著差异,司法实践与学界倾向于类型化处理,仅输入 “画一只猫” 这类泛化指令的低贡献行为,因缺乏独创性难以认定为作者;而经过多轮提示词迭代、参数调整、后期修改的高贡献行为,因对最终表达具有实质性干预,更可能被认定为权利人。部分学者还提出 “作者链” 理论,认为复杂 AIGC 的创作过程中存在数据提供者、算法开发者、用户等多方主体的贡献,未来可探索基于贡献度的权利共享机制,平衡各方主体的合法权益。
三、生成式人工智能著作权的法律困境
(一)模型训练阶段
1. 训练数据获取的合规阻碍
生成式人工智能模型训练需依托海量受著作权保护的作品,数据获取面临三重挑战:一是授权成本居高不下,逐一获取海量权利人授权的谈判成本与时间成本超出企业承受范围,部分权利人分散导致授权链路断裂;二是权利限制与著作权人专有权利的冲突,模型训练需对作品进行复制、提取,与著作权人的复制权、信息网络传播权形成冲突;三是权利人识别难度大,网络公开数据的权利状态复杂,部分作品权利人身份不明,企业难以完成全面权利核查。
2. 训练后模型的权利保护困境
生成式人工智能模型的核心构成包括架构设计、参数设置、权重配置,其法律属性与保护路径存在诸多争议。
具体来说,参数设置是开发者在模型开发阶段提前设定的可调变量,相当于给模型定下的基础运行规则,像学习率、迭代次数这类都属于参数。它的主要作用是规范模型的训练方式和运行范围,参数设置合理,才能让模型正常高效地训练,避免出现训练不充分或过度训练的问题。
权重配置则和参数设置不同,它不是开发者预设的,而是模型在训练过程中,从数据里自主学习、慢慢调整形成的。简单讲,权重就像是模型学会的“判断标准”,用来衡量不同输入信息的重要程度,它直接决定了模型输出结果的准确程度,也是模型能实现“智能生成”的关键所在。
回到法律保护的争议上,若将生成式AI模型视为计算机软件,可通过软件著作权保护架构与代码,但参数和权重的创造性难以满足“独创性”要求;若主张发明专利保护,需满足新颖性、创造性、实用性要件,多数通用模型难以达到授权标准。即便获得保护,架构设计、参数组合等要素的保护范围也难以界定,模型“反向工程”的合法性认定缺乏明确标准。
(二)AIGC输出阶段
1. 可版权性认定的实操困境
尽管“人类实质性智力投入”成为中国司法实践的主流标准,但该标准的实操性仍存疑问:一是“实质性”的界定缺乏量化指标,用户需达到何种参与程度方可认定为“实质性投入”无明确指引;二是投入与成果的关联性证明困难,用户需举证其智力投入直接影响AIGC的独创性,而实践中多数用户未保留提示词迭代、参数调整等过程性证据;三是多主体参与下的投入归属复杂,多人协作生成的AIGC难以区分各自智力投入的边界。
2. 实质性相似与训练数据侵权的关联性难题
若AIGC与在先作品构成实质性相似,能否倒推训练数据存在侵权,是实践中的核心争议。权利人通常主张相似性源于训练数据中的侵权作品,但这种倒推存在逻辑缺陷:模型可能通过合法数据习得类似风格,或相似性源于公共领域元素、思想层面重合,而非对具体作品的复制。司法实践中,法院倾向于否定直接倒推,要求权利人提供训练数据侵权的直接证据,如未经授权的复制记录,但算法黑箱导致因果关系举证极为困难。
(三)侵权责任的归责
1. 避风港规则的适用困境
传统避风港规则要求网络服务提供者收到侵权通知后删除侵权内容,但 AIGC 的技术特性让这一规则难以直接适配。核心问题在于侵权内容的 “非存储性”,即AIGC 是根据用户实时指令生成的,不存在固定存储载体,传统 “删除” 义务根本无从履行;同时,生成式人工智能平台的法律定位始终存在争议,是属于内容提供者、传统网络服务提供者还是新型责任主体,不同定位对应不同的合理注意义务,目前司法实践中仍缺乏统一的认定依据。广州奥特曼案中,法院正是综合考量平台的营利模式、权利作品的高知名度以及侵权行为的可预见性等因素,最终否定了避风港规则的适用。
2. 多主体责任划分困境
生成式人工智能产业链条涵盖基座大模型研发者、垂类小模型开发者、平台部署者、终端用户等多重主体,责任划分的难点集中在三个方面。一为平台部署者的法律定位模糊,其究竟属于传统 “网络服务提供者” 还是适配技术特性的 “新型责任主体”,直接决定责任认定的标准;二为多重主体的行为相互交织,要判断各方是否存在共同故意或过失、是否构成共同侵权,实践中操作难度极大;最后,由于算法黑箱的存在,生成内容的不可控性让侵权结果与各主体行为之间的因果关系难以厘清。
3. 算法开源引发的新型争议
与此同时,算法开源带来的新型法律争议也逐渐凸显。算法开源已成为行业主流趋势,开源内容涵盖参数、权重、架构、测试集等多个层面,不同开源范围对应不同的法律责任边界。部分开发者忽视开源许可证的 “传染性” 条款,将基于开源组件开发的模型闭源商用,这种行为已构成明确侵权;开源协议中常见的免责声明也并非绝对有效,不能完全免除开发者的法定责任,若开发者存在故意或重大过失,仍需承担相应法律后果;还有企业自行拟定开源许可证,其条款若违反《著作权法》《反垄断法》等相关规定,相关内容可能被认定为无效,无法产生预期的法律约束力。
四、文化产业AIGC应用现状分析
(一)AIGC应用常态化渗透,主体分层特征显著
根据国家互联网信息办公室信息,截至2025年12月31日,我国累计有748款生成式人工智能服务完成备案,435款生成式人工智能应用或功能完成登记。[1]与生成式人工智能服务相关产品快速增长表现相一致,我国生成式人工智能用户规模也呈现出爆发式增长态势。2025年1-10月,AIGC赛道渗透率提升至33.2%,反映AIGC已从“尝鲜工具”转向大众级应用,AIGC应细分赛道中,语言模型、智能工具等生产力场景将持续占据主流。[2]
近年来,生成式人工智能技术在视频内容生产中的应用日益广泛,为短视频与AI短剧产业带来变革。[3.]在视觉设计领域,图书封面生成、宣传海报创作、插图设计成为高频应用,江苏首例AIGC著作权侵权案中,当事人通过 Midjourney 生成“黄浦江边爱心气球的夜景”图片并经后期加工,最终被法院认定为受保护的美术作品。[4]常熟市人民法院知识产权庭副庭长胡越接受采访表示如果仅提示一些简单的关键词、一次性的创作,对于生成的结果是不可控的。但是本案中和“一次性生成”的区别在于,它经过了多轮迭代的引导,以及经过人工的干预,所以最终认定这个平面的美术作品,它是可以受到著作权法的保护的。此外,AIGC在文本处理领域中的内容校正、格式排版、多语种翻译等场景渗透率较高,学术期刊编辑部借助大语言模型对来稿进行语法纠错与逻辑梳理,可使审稿效率提升。在内容衍生领域,基于核心文化产品生成短视频脚本、有声书文案、推广软文等,AIGC成为延伸文化产品传播形态的重要方式。

应用主体呈现鲜明分层差异。民营企业与个人的AIGC应用范围相较于国有企业更加广泛。民营企业大部分以效率提升与成本控制为核心诉求,决策链条短、风险容忍度高,更容易在业务场景中规模化应用 AIGC;个人创作者则聚焦AIGC降低创作门槛的优势,广泛应用于自媒体内容、独立出版、个人设计等场景。而国有企业受合规审查、国有资产监管等制度约束,对新技术应用风险评估程序更多,需经过多层级合规论证,且出于保密性需要,AIGC的使用多局限于非核心业务场景的辅助工作。例如《江苏省“人工智能+”行动方案》中明确提到支持人工智能“一人公司(OPC)”创新创业模式。在南艺·元和塘大学生文创园,推出了“OPC青年艺术家合伙人计划”的轻资产创业平台,帮助创作者依托AI工具实现剧本生成、视觉设计、自动分发,显著降低创业门槛,助力青年艺术家从个人创作发展为工作室,实现版权自主与可持续收益,让个人艺术家能够独立完成从创作到运营的全流程。
(二)授权素材优先使用,构建源头合规防线
面对AIGC训练数据与生成内容的版权风险,文化产业主体优先采用图片社授权素材从源头合规以规避风险成为核心路径。作为国内头部版权素材平台(视觉中国关联企业),汉华易美在指南中明确将“人工智能生成合成类素材”纳入授权管理范畴,直接为文化产业主体提供图片社授权素材+AI应用的合规路径。企业普遍通过两种方式获取合法素材:一是与视觉中国等专业图片社签订长期合作协议,获取经版权认证的图片、字体、模板等素材,用于AIGC提示词输入或二次创作,比如视觉中国与生数科技签订战略合作协议,为生数科技提供AI模型训练所需全链路合规素材。二是接入图片社API接口,将授权素材库与 AIGC工具直接对接,确保生成内容的素材来源可追溯,例如图虫与火山引擎合作,接入 veImageX(一站式图片解决方案)API 接口,将图虫授权素材库与火山引擎豆包文生图模型直接对接。
这种选择的核心逻辑是基于司法实践判决思路,广州互联网法院在“奥特曼案”中认为,被告未经许可,复制、改编了案涉奥特曼作品,侵犯了原告对案涉奥特曼作品的复制权和改编权。[5]因此企业使用授权素材是可以作为合规抗辩的有效依据,可降低侵权风险。同时,部分图片社已推出 AIGC专项授权服务,明确素材用于模型训练、内容生成的权利边界,为企业提供清晰的合规指引。
(三)二创脱密形成行业趋势,强化原创性转化
针对AI大模型提供的基础素材,文化产业主体在二次创作中可采取标准化脱密处理流程,通过技术手段强化生成内容的原创性,切断素材与原授权来源的直接关联,避免侵权争议。脱密处理主要围绕三个维度展开:一是元素重构,对AI生成内容的核心视觉元素(如图形、色彩、构图)或文本结构进行实质性修改,如调整封面构图比例30%以上、修改核心图形的形态特征;二是风格重塑,通过多轮提示词优化改变内容风格,如将AI生成的写实风格插图转化为水墨风格、手绘风格,注入个性化表达;三是原创增补,在AI生成内容基础上添加企业专属元素如 Logo、专有符号或原创文本,形成AI 生成+人工原创的复合形态。
同时AIGC服务提供者在模型训练阶段和内容生成阶段可能会对AI输出结果产生实质影响,应根据不同环节的技术特征,履行以技术过滤为核心的注意义务。[6]一是过滤重复训练作品的义务,AIGC服务提供者在进行模型的二次训练时,应过滤训练数据集中的重复数据,以降低输出版权侵权内容的概率。二是过滤特定侵权输出的义务。在《庆余年》AI剪辑案中,法院认为某度亦未能证明其已采取合理、有效的侵权预防措施,未能符合该司法解释第七条、第八条关于免责或减责条件的要求,故应认定其存在过错,[7]这实质上是要求其承担一定的过滤义务。实践中应结合侵权发生概率,考虑生成内容类型、涉案作品知名度等因素为AIGC服务提供者设置针对特定作品的过滤义务。因为不同类型的内容构成版权侵权风险的概率有所不同,相较于文字,美术、摄影等图片内容更容易构成版权侵权。其次,类比传统知识产权侵权,当涉案作品为知名作品时,更容易被认定为存在主观过错,并承担相应的版权侵权责任。
但过滤义务属于注意义务,适用技术避风港原则,并非强制性规则,行为人自行选择是否履行,若造成损害后果且未履行,则应当承担损害赔偿责任,反之则予以免责。行业内部分设计机构制定了合规手册,明确脱密后的内容需满足与原素材有实质性差异的标准,同时要求留存提示词设计记录、参数调整日志、后期加工文件等,形成完整的原创性证据链。
(四)算力+模型合作模式流行,构建协同生态
文化产业已逐步形成以算力支持+模型适配为核心的固定合作模式,资源互补特征显著。典型模式包括“阿里算力+ Deepseek 模型”“腾讯云算力 +文心一言模型”“华为云算力+讯飞星火模型”等,部分规模化文化企业已建立长期合作机制。该模式通过云计算企业提供稳定高效的算力支持,以解决 AIGC大规模内容生成、多场景并行处理的算力需求;AI企业则针对文化产业细分场景优化模型参数,提升生成内容的专业性与适配性。
在图书出版行业,“阿里算力+ Deepseek模型”在实现手稿-封面设计-内容排版-推广文案全流程协同,缩短出版周期。中国版权保护中心为解决AIGC内容版权登记审核效率低、人工成本高的问题,核心依托DeepSeek大模型与本地化算力部署,实现AIGC内容(文字作品、计算机软件)的智能登记确权。但该模式也暗藏法律风险,如开源模型使用可能引发的许可证“传染性”条款冲突、多主体合作中的责任划分模糊等问题,需通过协议约定明确权利义务。
五、AIGC著作权的衍生法律问题
(一)传统独创性评价领域的合规性冲突
一项“作品”能否获得法律保护,法院会从该“作品”是否属于文学、艺术或科学领域,以及其是否具备独创性判断。而全面认可AIGC为使用者创作的作品,将对依赖“人类独创性”进行评价的传统领域例如是学术论文、研究成果,造成合规性危机。
其一,人类智力投入与AI生成部分的边界模糊。浙江大学教育学院黄亚婷团队从2024年初开始对国内大学生使用AI工具的情况进行了调研,发现确有比例不低的学生不当使用生成式人工智能,也有部分学生表示习惯于借助AI完成任务,对AI产生了依赖。此时,如何区分人类原创的观点与论证和AI生成的辅助性内容,成为独创性认定的核心难点。若仅以存在人类修改程序即认定作品具备独创性,可能纵容AI代写后人工微调的学术不端行为;若过度严苛要求人类全程独立创作,又可能抑制AIGC在学术研究中的合理应用。
其二,现有评价体系缺乏适配性规则。虽然《人工智能生成合成内容标识办法》(以下简称《标示办法》)作出明确规定,要求用户在发布人工智能生成合成内容时主动声明并加以标识,同时要求网络信息内容传播服务者采取必要措施,规范相关内容的传播活动。部分大学也出台相关规定以约束学生使用AI,如复旦大学发布《复旦大学关于在本科毕业论文(设计)中使用AI工具的规定(试行)》,明确列出了研究设计与数据分析、原始数据收集、结果图片与重要插图创作、论文撰写、答辩与检查、涉密内容等涉及原创性、创新性以及本科教育重点考察的内容禁止使用AI工具。但学术期刊、科研机构的评审标准仍以人类独立创作为默认前提,尚未建立AIGC使用的披露机制与独创性分级标准。部分期刊也已要求作者声明是否使用AIGC,但对于使用程度、AI 生成部分占比、是否影响独创性等问题缺乏明确判断标准。若作者未披露AIGC使用情况,即使作品形式上符合独创性要求,其著作权主张的合法性也存在争议。
其三,侵权风险的传导性问题。若AIGC生成的学术内容存在侵权,因AIGC的“黑箱”特性,使用者因难以完全核查AI生成内容的来源,可能在不知情的情况下构成侵权。而现有司法实践中,对使用者是否尽到合理核查义务的认定标准不统一,导致使用者的合规风险激增。
而司法实践中各地也尚未对利用AI生成“图片”是否构成作品的判断标准形成统一观点。北京互联网法院观点只要体现出人的独创性智力投入就应当被认定为作品予以保护,体现作者的个性化表达,排除“机械性智力成果”,庭审中通过现场变更个别提示词或参数生成了不同的图片,可以认定其作品不属于机械性智力成果。江苏省常熟市人民法院认为在场景、环境、色彩和光彩、角度及其排列组合等方面,体现了作者的独特选择与安排,具有独创性,构成著作权法意义上的美术作品。武汉市东湖新技术开发区人民法院认为原告对生成的图片作品有一定的掌控和预判,创作过程反映了原告的构思、创作技巧与审美选择,体现个性化表达。
(二)AIGC作品与非AIGC作品的法定类型区分争议
AIGC作品的创作方式与传统作品存在本质差异,其权利构成要件如独创性来源、权利主体、保护范围,也呈现特殊性,引发是否需要增设法定作品类型的深层争议。
在本文看来,支持区分的核心理由在于:一是权利构成要件不同,传统作品的独创性源于人类的智力投入与个性化表达,而AIGC作品的独创性需结合人类提示词设计、参数调整、后期加工与AI 算法生成的双重贡献,现有法定类型难以完全涵盖其创作特征。二是保护范围与行使规则不同,AIGC作品的保护范围应排除AI自动生成的非独创性部分,仅保护人类智力投入的核心内容,而传统作品的保护范围通常及于整体表达。三是侵权责任认定不同,AIGC作品的侵权可能涉及模型训练数据侵权、生成内容侵权、使用者未尽合理注意义务等多重维度,与传统作品的侵权责任认定逻辑存在差异,需针对性的规则适配。
反对区分的观点例如:一是现有类型可通过解释适配,通过扩大解释文字作品、美术作品等类型的内涵,将符合独创性要求的AIGC作品纳入现有类型,可避免法律体系的过度复杂。二是新增分类可能抑制技术创新,增设专门类型可能导致规则僵化,难以适应AIGC技术快速迭代的特点,且可能增加企业与创作者的合规成本。三是核心争议在于独创性认定而非类型划分,AIGC作品能否受保护的核心是是否具备独创性,而非类型归属,过度纠结于类型区分可能偏离问题本质。
司法实践中已出现这种争议的具象化。在深圳市腾讯计算机系统有限公司(以下简称腾讯公司)与上海盈讯科技有限公司(以下简称盈讯公司)侵害著作权及不正当竞争纠纷案中,⼴东省深圳市南⼭区人民法院认定腾讯公司末尾注明“本文由腾讯机器⼈ Dreamwriter自动撰写”的涉案文章属于我国著作权法所保护的文字作品,是腾讯公司主持创作的法⼈作品。[8]而在北京菲林律师事务所(以下简称菲林所)与北京百度网讯科技有限公司(以下简称百度公司)侵害署名权、保护作品完整权、信息网络传播权纠纷案中,一审法院认定分析报告系威科先行库利用输入的关键词与算法、规则和模板结合形成的,不是著作权法意义上的作品,二审法院认为图形形状的不同是基于数据差异产生,而非基于创作产生,因此涉案文章中的图形不构成图形作品。[9]这种裁判差异的根源,在于现有法定类型对AIGC作品的适配性不足,亟需明确规则回应。
(三)对思想-表达两分法原则的背离
思想-表达两分法是著作权法的核心原则,即著作权保护思想的具体表达,而不保护思想本身。但AIGC的生成逻辑本质上是对训练数据中思想、风格、规律的习得与再现,可能模糊思想与表达的边界,引发原则性背离。
其一,AIGC可将思想转化为实质性相似的表达。传统创作中,不同创作者对同一思想的表达通常存在差异,但AIGC通过学习海量同类作品的风格、逻辑与表达范式,可生成与原作品思想同源、表达相似的内容,可能对原作品的市场利益造成替代影响。此时,著作权法是否应保护风格化表达,成为原则性挑战。
其二,思想与表达的融合难以拆分。部分AIGC生成的内容如特定领域的技术文档、标准化报告,其思想(技术方案、研究结论等)与表达(表述方式、结构布局等)高度融合,会出现思想只有唯一或有限表达的情况。根据思想-表达合并原则,此类表达不受著作权保护,但AIGC可通过学习多个同类作品,生成既相似于原表达又未完全复制的内容,导致原作品的独创性表达被间接挪用,而现有规则难以对此进行规制。
其三,对转换性使用认定的冲击。转换性使用的核心是使用目的与原作品不同,且未损害原作品的市场利益,但AIGC对原作品思想与风格的习得,可能生成与原作品用途相同的内容,即使表达存在差异,也可能构成对原作品市场的替代,导致转换性使用的认定标准失灵。
(四)AI 创作不可控性对实质性相似判定的影响
AIGC的创作过程受算法特性、训练数据、随机参数等多重因素影响,存在显著的不可控性,即使使用者未意图生成侵权内容,AI 也可能随机生成与在先作品构成实质性相似的表达,这种不可控性对传统实质性相似判定规则构成严峻挑战。
首先,不可控性导致侵权意图认定困难。传统著作权侵权中,实质性相似通常与侵权意图相关联,但AIGC的随机生成特性可能导致无侵权意图却生成侵权内容。此时,如何认定使用者的过错,是否尽到合理注意义务,成为责任认定的核心。若要求使用者对AI生成内容进行全面查重核查,将大幅增加合规成本,若不要求核查义务,则可能纵容侵权风险。
其次,实质性相似的比对标准难以适配。传统实质性相似判定通常采用对比作品的整体风格、核心表达与关键要素的方式,但AIGC生成的侵权内容可能呈现碎片化相似如部分段落、局部设计与原作品相似但整体不相似,或风格化相似如整体风格、逻辑结构与原作品相似,具体表达不同。现有比对标准难以准确界定此类相似是否构成侵权。
最后,因果关系举证困难。使用者需证明AI生成的相似内容源于算法随机生成而非训练数据侵权,但算法黑箱导致训练数据与生成结果之间的因果关系难以举证。而权利人也难以证明AI生成的相似内容直接源于某一在先作品,导致双方的举证责任分配陷入困境。在平台判定用户内容AI生成首案中,法院采取了初步证明责任+再分配的方式,认定网络内容服务平台未对算法决策依据和结果进行适度的解释和说明,未对涉案内容属于AI生成合成的判断依据和结果作出合理解释,应对其没有事实依据的情况下对涉案账户的处理行为承担违约责任。[10]《标识办法》第六条也规定了平台有核验文件元数据隐式标识的义务,因此本文认为未来可在此类纠纷中通过立法明确由平台承担涉案内容是否由人工智能生成的证明责任更具合理性,不然对于使用者而言,仍缺乏有效的举证规则保障其合法权益。
六、结语
AIGC著作权规制的核心是平衡权利保护与产业创新,结合我国现行法律法规、司法裁判及文化产业实践,已形成明确的阶段性指引:可版权性认定以“人类实质性智力投入”为核心,纯AI自动生成内容不受著作权保护,训练数据使用需坚守“合法来源+授权优先”原则,未经授权使用受保护作品进行模型训练可能构成侵权,平台责任排除绝对避风港适用,需履行针对性侵权预防义务,二创脱密需满足“实质性差异+过程证据留存”要求,举证责任则侧重直接证据,否定“相似即侵权”的简单倒推逻辑。从国际视野来看,美国坚守“人类作者”底线,仅保护人类可分离的实质性修改部分,欧盟更侧重训练数据合规透明度与平台注意义务强化,而技术中立不构成绝对免责、多主体责任按过错与因果关系综合认定已成为中外共识。对于文化产业中的企业、创作者等市场主体而言,需重点关注合规风险防控:使用AIGC时应确保训练数据来源合法、授权完备,注重留存自身智力投入的过程性证据,二创行为严格遵循“实质性差异+证据留存”要求,平台则需落实针对性侵权预防义务,唯有主动适配这些实践指引,才能在享受技术红利的同时,有效规避著作权侵权风险,推动行业在合规轨道上实现可持续发展。
[1]参见《国家互联网信息办公室关于发布生成式人工智能服务已备案信息的公告》,发布日期:2024年04月02日,https://www.cac.gov.cn/2024-04/02/c_1713729983803145.htm?sessionid=,最后访问日期:2026年2月2日。
[2]艾瑞咨询:《2025年中国移动互联网AIGC赛道流量报告》,发布日期:2025年12月11日,https://report.iresearch.cn/report/202512/4777.shtml,最后访问日期:2026年2月2日。
[3]Xie Q, He T. Battle between ‘Long’ and ‘Short’ Videos: Fragmented Uses, Diversified Purposes, and the Evolution of China’s Copyright Limitation Rules in theAIEra[J]. The Chinese Journal of Comparative Law, 2023, 11(3): cxae001. https://doi.org/10.1093/cjcl/cxae001.
[]4参见江苏省常熟市人民法院(2024)苏0581民初6697号民事判决书。
[5]参见广州互联网法院(2024)粤0192民初113号民事判决书。
[6]胡开忠,江璐迪.人工智能生成内容服务提供者的著作权侵权责任研究[J].华中科技大学学报(社会科学版),2025(5):49-61.
[7]参见湖南省长沙市中级人民法院(2024)湘01民终18114号民事判决书。
[8]参见广东省深圳市南山区人民法院(2019)粤0305民初14010号民事判决书。
[9]参见北京知识产权法院(2019)京73民终2030号民事判决书。
[10]参见唐某某诉某科技有限公司网络服务合同纠纷案——北京互联网法院涉人工智能典型案例之五。






