×

打开微信,扫一扫二维码
订阅我们的微信公众号

首页 锦天城概况 专业领域 行业领域 专业人员 全球网络 新闻资讯 出版刊物 加入我们 联系我们 订阅下载 CN EN JP
首页 > 出版刊物 > 专业文章 > 《生成式人工智能服务管理办法(征求意见稿)》十问十答

《生成式人工智能服务管理办法(征求意见稿)》十问十答

作者:张丹 夏星悦 2023-05-04

随着GPT4.0的问世,由美国人工智能研究公司OpenAI开发的聊天机器人ChatGPT又引发了新一轮的热潮,使AIGC产业再次成为大众的视野焦点。“人工智能”迅速登顶各类报道,爆发程度使今年成为名副其实的“人工智能元年”。AIGC是指人工智能生成内容,也即利用ChatGPT这样的生成式人工智能工具,根据用户输入的关键词或要求来生成新的内容。这样的生成式人工智能技术毫无疑问为我们的工作、学习等场景带来了极大的便利,但随之而来的个人信息保护、虚假信息、侵权等风险也不容小觑。


百度、360、阿里巴巴等一众国内企业也相继发布类似人工智能产品,为促进生成式人工智能技术健康发展和规范应用,4月11日,国家互联网信息办公室发布《生成式人工智能服务管理办法(征求意见稿)》(以下简称《办法》)向社会公开征求意见,拟进一步促进生成式人工智能技术健康发展和规范应用,对类似ChatGPT、文心一言等生成式人工智能服务提出合规要求。本文通过十个问答的形式,对《办法》进行解读,为读者更好理解《办法》中的条款提供参考。


问题一:什么是“生成式人工智能”?境外生成式人工智能产品是否适用《办法》?


第二条 研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。本办法所称生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。


从上述规定看,《办法》对“生成式人工智能”的定义与《互联网信息服务深度合成管理规定》(“《深度合成规定》”)中对“深度合成技术”的定义相接近。两者的区分在于,不同于《办法》采用概括方式介绍生成式人工智能生成内容与场景,《深度合成规定》中以“概括+列举”的方式列明“深度合成技术”通常被运用在文本生成或编辑、语音生成或编辑、音乐生成或编辑、生物特征生成或编辑、数字人物及虚拟场景的生成场景等,其所指向的对象更加明确。也有学者认为,《深度合成规定》所指的“深度合成技术”包含了《办法》所指的“生成式人工智能”。


而关于《办法》是否具有域外效力的问题,《办法》第二条规定了“研发、利用生成式人工智能产品,面向中华人民共和国境内公众提供服务的,适用本办法。”参照《办法》上位法之一的《个人信息保护法》第三条第二款之规定,可以推定境外生成式人工智能产品,如以向中国境内公众提供服务为目的的,应适用《办法》。对于如何理解“面向中国境内公众提供服务”,则可参考以下要素进行判断:是否使用中文;是否以人民币作为结算货币;是否可用中国大陆手机号码进行账号注册及登录;是否可以允许IP地址在中国大陆的账号进行访问和操作等等。


问题二:何为“安全可信的软件、工具、计算和数据资源”?


第三条 国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。


《办法》第三条规定,“鼓励优先采用安全可信的软件、工具、计算和数据资源”,这是贯彻《网络安全法》《数据安全法》等上位法的相关规定,以保障生成式人工智能产品在研发及利用的过程中防范国家安全、网络安全、数据安全和个人信息安全等方面的风险。企业在进行该类供应商选择时,可结合供应商及其所提供的产品的相关资质证书、供应商过往违法违规情况、过往的业务经历等综合判断其所提供的产品和服务的质量与能力。


对于关键信息基础设施(“关基”)运营者而言,选择安全可信的网络产品和服务更是一个“必做项”而非“可选项”,若关基运营者采购的网络产品和服务可能影响国家安全的,将会触发网络安全审查。如在今年3月31日,网络安全审查办公室发布公告称,为保障关键信息基础设施供应链安全,防范产品问题隐患造成网络安全风险,维护国家安全,对美国芯片制造商美光公司在华销售的产品实施网络安全审查。如最终该网络产品或服务经审查认定确实影响国家安全的,对于采购方而言,则不仅采购合同可能存在无效风险,其次,对采购方运用该产品或服务而研发的产品也需要进行下架、整改等工作,对业务影响巨大。因此,选择安全可信的软件、工具、计算和数据资源将有助于推动后续业务的顺利开展。


问题三:如何理解“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”?


第四条 提供生成式人工智能产品或服务应当遵守法律法规的要求,尊重社会公德、公序良俗,符合以下要求:(四)利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息。


《办法》第四条对利用生成式人工智能生成内容提出遵守法律法规、尊重社会公德与公序良俗的原则性要求,第四款将其细化为两项合规义务:一是要求生成式人工智能生成的内容真实准确,一是要求生成式人工智能提供者应当采取防止生成虚假信息的措施。


但针对如何判断生成内容是否真实准确,也即虚假信息的标准问题,《办法》却没有进一步明确。从文义出发,“虚假”意为“不真实”、“不实在” ,参照《反不正当竞争法》中的“虚假信息”的理解,当所传播的事实与实际情况不一致时,所传播的事实就可以被认定为“虚假信息”。事实上,生成式人工智能由机器学习模型和深度学习技术驱动,需要基于对历史数据的大量研究来自主生成全新内容,整个生成式人工智能生成内容的过程包含“输入”和“输出”两个阶段,前者依靠既有信息的输入,使人工智能进行深度学习,后者是利用人工智能生成新内容。因而,一方面历史数据本身可能就存在不真实、虚假的情况,另一方面人工智能生成内容技术本身也处在快速变革中,很难保证每次生成的文章、图像、音频、视频等内容都完全真实、与事实相符。因此,直接要求生成内容应当真实准确在操作层面是否存在执行困难?如何掌握《办法》第四条中的“虚假信息”认定标准?还需要细化的规范辅助理解。


此外,《办法》第四条第四款要求生成式人工智能产品(服务)提供者应当采取防止生成虚假信息的措施,目的是想通过对生成式人工智能产品(服务)提供者设定义务的方式来从实际层面减少虚假信息的产生,但却并未明确生成式人工智能产品(服务)提供者应当采取何种措施,是技术层面的措施要求还是要加强提供者审核,若是后者的话,该义务的边界在哪里?如果生成式人工智能产品(服务)提供者采取了防止措施仍产生虚假信息,是否可以达到免责的效果?因而该条款仍需进一步细化以加强可操作性,平衡好利用生成式人工智能生成内容过程中各方主体的权利和义务,以防对生成式人工智能产品(服务)提供者施加过当的合规义务负担而抑制该技术或是市场的发展。


问题四:如何理解《办法》第五条中的“提供者”,应包含哪些主体?


第五条 利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人(以下称“提供者”),包括通过提供可编程接口等方式支持他人自行生成文本、图像、声音等,承担该产品生成内容生产者的责任 ;涉及个人信息的,承担个人信息处理者的法定责任,履行个人信息保护义务。


从《办法》第五条看,“提供者” 是利用生成式人工智能产品提供聊天和文本、图像、声音生成等服务的组织和个人。此处的“利用”并未明确系利用己方自主研发的生成式人工智能产品还是利用他方研发但己方可使用的生成式人工智能产品;此处的“提供”也未明确系直接提供还是间接提供。既然未明确,我们可以认为这几种情形中的己方都属于“提供者”的范畴,综合而言,包括:


1.  己方利用己方自主研发的生成式人工智能产品提供内容生成服务;

2.  己方利用他方自主研发的生成式人工智能产品提供内容生成服务(包括通过可编程接口的方式利用);

3.  他方利用己方自主研发的生成式人工智能产品提供内容生成服务(包括通过可编程接口的方式利用)。


但请注意,如己方仅是接受他方委托,单纯为他方研发生成式人工智能产品提供技术服务,那么己方作为技术服务方,不应被视为《办法》中的“提供者”而承担产品生成内容生产者的责任;此外,如《办法》第一条所述,生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。如提供技术服务的己方可自主决定预训练数据的来源、算法的设定、模型的搭建等其中的一项或几项模块,己方至少应遵守《办法》中的数据来源合法、算法不歧视等合规义务,从实质大于形式的角度,己方亦可能构成 “提供者”的身份。


问题五:提供者如何向国家网信部门进行安全评估申报及履行算法备案手续?


第六条 利用生成式人工智能产品向公众提供服务前,应当按照《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》向国家网信部门申报安全评估,并按照《互联网信息服务算法推荐管理规定》履行算法备案和变更、注销备案手续。


从上述规定来看,首先,《办法》拟将“利用生成式人工智能产品向公众提供服务”纳入到《具有舆论属性或社会动员能力的互联网信息服务安全评估规定》(“《安全评估规定》”)所规制的客体,即“具有舆论属性或社会动员能力的互联网服务”中,故应按《安全评估规定》进行安全评估申报。根据《安全评估规定》,安全评估申报流程如下图所示:


image.png


其次,由于生成式人工智能产品研发运用到算法技术,因此也需要根据《互联网信息服务算法推荐管理规定》(“《算法规定》”)履行相应的算法备案手续。根据《算法规定》,算法备案手续的相关流程如下图所示:


image.png


问题六:《办法》中“标注”与“标识”有何区别?


第八条 生成式人工智能产品研制中采用人工标注时,提供者应当制定符合本办法要求,清晰、具体、可操作的标注规则,对标注人员进行必要培训,抽样核验标注内容的正确性。


第十六条 提供者应当按照《互联网信息服务深度合成管理规定》对生成的图片、视频等内容进行标识。


《办法》第八条和第十六条分别规定了对“标注”和“标识”的要求,相比于《办法》第八条针对的是产品研发阶段对训练数据的标注行为,《办法》第十六条旨在规制内容生成物的标识行为,两者规制的对象和相应要求有所不同。


由于生成式人工智能产品研发时需要开展算法模型训练,因此需要对大量的数据进行标注,为机器学习提供训练数据。基于此,《办法》第八条所强调的人工标注的标注规则及流程的明确、具体、规范化,不仅可以提高人工标注的效率、降低成本,也有助于提高后续算法模型的准确性和最终所研发产品的质量。


而根据《办法》第十六条所援引的《互联网信息服务深度合成管理规定》相关规定,提供者如提供深度合成服务,应在生成内容的合理位置、区域添加显著且不得影响用户使用标识,并依照法律、行政法规和国家有关规定保存日志信息。


问题七:什么是防沉迷设置,提供者如何实施防沉迷设置?


第十条 提供者应当明确并公开其服务的适用人群、场合、用途,采取适当措施防范用户过分依赖或沉迷生成内容。


防沉迷设置最初是指针对未成年人对网络游戏的防沉迷系统设置,旨在利用技术手段避免未成年人过度沉迷网络游戏。《办法》第十条强调提供者应当确定并公开其服务的适用人群、场合以及用途,从而针对不同人群或用途等特点来设置适当措施防范用户过度依赖或沉迷生成内容。一方面是为了更好保障不同用户群体的权益,另一方面可能还涉及到算法伦理的要求,例如《互联网信息服务算法推荐管理规定》第八条要求算法推荐服务提供者不得设置诱导用户沉迷等违反法律法规或者违背伦理道德的算法模型。但具体如何采取适当措施,如何判断措施是否适当、企业是否符合合规要求,还需要进一步明确。


对于“提供者”来说,可以参考此前国家开展的未成年人防沉迷执法专项指导下的游戏行业的一些具体措施,采取实名认证区分未成年人用户、限制使用时长或是固定使用时间段、定时弹窗提示用户防沉迷等技术手段构建平台防沉迷机制。


问题八:提供者如何实现对用户的输入信息和使用记录的保护义务?


第十一条 提供者在提供服务过程中,对用户的输入信息和使用记录承担保护义务。不得非法留存能够推断出用户身份的输入信息,不得根据用户输入信息和使用情况进行画像,不得向他人提供用户输入信息。法律法规另有规定的,从其规定。


根据《办法》第十一条,企业承担对用户的输入信息和使用记录的保护义务,应做好三步走,一是不得非法留存能够推断出用户身份的输入信息。由于信息由用户主动提供,对于“提供者”而言,属于在用户同意下的收集,用户实现处理目的后,原则上“提供者”应将输入信息中够推断出用户身份的信息做删除处理,除非有继续留存的合法性基础,如用户的同意,法律规定的义务等,否则将视为非法留存。


二是不得根据用户输入信息和使用情况进行画像。《信息安全技术 个人信息安全规范》3.7条将用户画像定义为“通过收集、汇聚、分析个人信息,对某特定自然人个人特征,如职业、经济、健康、教育、个人喜好、信用、行为等方面作出分析或预测,形成其个人特征模型的过程。”欧盟第29条保护工作组在《自动化个人决策和用户画像的指导原则》指出用户画像过程主要涉及三个阶段,包括数据的采集、自动分析以识别关联性,以及将个人关联性加以应用对自然人当前特征及未来行为进行预测分析。用户画像可视为对个人信息的处理,未经个人的同意,“提供者”不应根据用户提供的信息对其进行画像。


三是不得向他人提供用户输入信息。根据《个人信息保护法》,个人信息处理者向他人提供个人信息的,应取得个人信息主体的单独同意,且应告知接收方的名称或者姓名、联系方式、处理目的、处理方式和个人信息的种类。很显然,根据生成式人工智能产品交互界面,“提供者”难以履行这些合规义务。


问题九:《办法》第十三条是否体现了避风港原则和红旗原则?


第十三条 提供者应当建立用户投诉接收处理机制,及时处置个人关于更正、删除、屏蔽其个人信息的请求;发现、知悉生成的文本、图片、声音、视频等侵害他人肖像权、名誉权、个人隐私、商业秘密,或者不符合本办法要求时,应当采取措施,停止生成,防止危害持续。


“避风港原则”是指网络服务提供者只有在知道侵权行为或侵权内容的存在后才有义务采取措施,如删除、屏蔽或是断开链接等。如果在明确知道侵权事实后,仍不及时采取相关措施,则需要承担责任。“避风港原则”体现在民法典的第1195条、第1196条;“红旗原则”是指当侵权事实显而易见,像“红旗一样飘扬”时,网络服务提供者不能假装看不见,或者以不知道侵权为由推脱责任。即在按常理和应尽的基本审慎义务的情况下,网络服务提供者应当知道侵权行为的存在却不删除链接,即使权利人没有发出删除通知,网络服务提供者也应当承担侵权责任。“红旗原则”体现在民法典的第1197条,可视为避风港原则的例外。


《办法》第十三条中,“提供者”发现、知悉侵权事实可能基于权利人的通知而知悉,也可能是基于履行应尽的审慎义务而发现、知悉。我们认为,两种原则皆有体现,当“提供者”发现、知悉后,应采取措施,停止生成,防止危害持续,否则可能承担因未及时采取措施而导致侵权后果扩大的责任。由于生成式人工智能产品或服务的使用具有一定的私密性和隐蔽性,权利人被侵权的事实可能难以被发现,我们预测,未来将会对“提供者”自身应尽的审慎义务提出更多的合规要求。


问题十:提供者的信息披露义务如何实现?


第十七条 提供者应当根据国家网信部门和有关主管部门的要求,提供可以影响用户信任、选择的必要信息,包括预训练和优化训练数据的来源、规模、类型、质量等描述,人工标注规则,人工标注数据的规模和类型,基础算法和技术体系等。


市场主体的披露义务从来不是孤立的,我们可以在多部法律中看到各类信息披露的要求,如个人信息处理者在处理个人信息前,应向个人告知个人信息的处理目的、处理方式,处理的个人信息种类、保存期限等;算法推荐服务提供者应以适当方式公示算法推荐服务的基本原理、目的意图和主要运行机制等;电子商务经营者应当全面、真实、准确、及时地披露商品或者服务信息,保障消费者的知情权和选择权等。


《办法》第十七条中明确了“提供者”需提供的内容,即可以影响用户信任、选择的必要信息,同时指出了提供的依据,即根据国家网信部门和有关主管部门的要求,但具体是怎样的要求,如在何种触发情形下提供,如何提供,向谁提供等内容在《办法》中均未明确,有待于进一步的细化。当然我们不能要求一部尚未经市场实践检验的规定尽善尽美,但该条规定可视为监管部门后续开展治理工作埋下了伏笔。


结语


创新是发展的第一驱动力,在可以预测的未来,技术仍将不断突破与被突破,人工智能终将迭代到强人工智能甚至超人工智能的阶段。愿景与科技同行,温度与法度如一。在高速刷新的技术潮流中,在高涨的投资热情和集中的产业爆发中,在这个“人工智能元年”的历史坐标点上,作为法律行业中的我们是否也应当坚守一些变与不变?


华东师范大学纪楠同学对此文亦有贡献