×

打开微信,扫一扫二维码
订阅我们的微信公众号

首页 锦天城概况 专业领域 行业领域 专业人员 全球网络 新闻资讯 出版刊物 加入我们 联系我们 订阅下载 CN EN JP
首页 > 出版刊物 > 专业文章 > 数字经济背景下算法治理的目标、难点与解决路径(上)

数字经济背景下算法治理的目标、难点与解决路径(上)

作者:吴卫明 2023-06-11
[摘要]算法(Algorithm)是对问题解决方案的描述,是通过特定的系统方法与策略构建起来的机制,针对特定的输入指令,得到具体的输出。算法并不是一个新概念,而是伴随着数学的发展而发展,某种意义上,构建一个函数的过程即可视为一个算法的构建。只是在传统的经济模式下,算法构建与应用常常存在于学术研究、统计分析等领域,普通人对于算法的感知度较低。

算法(Algorithm)是对问题解决方案的描述,是通过特定的系统方法与策略构建起来的机制,针对特定的输入指令,得到具体的输出。算法并不是一个新概念,而是伴随着数学的发展而发展,某种意义上,构建一个函数的过程即可视为一个算法的构建。只是在传统的经济模式下,算法构建与应用常常存在于学术研究、统计分析等领域,普通人对于算法的感知度较低。


进入数字经济时代,随着大数据与人工智能应用的发展,算法逐渐成为各类网络服务提供者在其业务经营活动中常用的一种的技术措施,从而被社会普通公众感知。


对于普通民众而言,算法已经开始覆盖了生活的各个领域,成为一个无法回避的问题。比如,浏览新闻或视频的过程中,网站和APP等信息服务提供者,会根据特定算法与数据,对用户进行画像分析,从而推送特定的页面内容,这些内容可能是感兴趣的文章,也可能是商品广告。在消费者购买外卖的时候,商家会根据特定算法,计算买家与送餐员的位置信息,从而匹配最优化的派送路线安排。而近期炙手可热的chatGPT,则可以根据用户输入的问题和背景知识,生成具有一定逻辑和语义的输出成果,其应答机制的核心仍然是特定的算法。


特定的算法是驱动数字经济发展的内核,算法与数据结合,可以产生决策。而特定的决策则形成数字化企业的商业活动,从而通过这些活动去影响千千万万民众的生活,并可能影响人们的社会心理和行动,从而间接影响社会稳定乃至国家安全。


算法并不神秘,但构建算法的过程和要素却非常复杂,算法对社会产生的影响也可能非常巨大。因此,算法治理成为数字经济发展到一定阶段的必然产物,也是人工智能发展过程中必须关注的问题。


事实上,对于算法的反思,一直伴随着数字经济的发展。从个性化信息推荐导致的“信息茧房”问题,到看人定价的“大数据杀熟”,再到“困”在算法里无法脱身的外卖送餐员和网约车司机,还有算法推荐产生的垄断问题,以及生成合成算法所带来的虚假信息问题,都给社会带来了对于科技伦理的反思。


对于算法治理,我国陆续制定了一系列的规范,初步构建了算法治理体系。算法治理是一个复杂的治理系统。既涉及到行政监管,也涉及司法的治理;既涉及分类分级监管,也涉及特定行业领域的监管。


本文拟就算法的治理价值目标与路径进行简要分析,以有利于实务部门对于算法治理的整体理解与操作。



一、算法治理的价值目标




算法的普及应用,对于整个社会而言,仍属新生事务。如何治理,治理目标是什么,本身就是一个复杂问题。算法作为一种技术应用,与任何科技成果一样,其应用后果一定具有两面性。一方能,能够推进社会福利的增长,另一方面也会有其负面效应。算法治理价值目标的确定,应建立在对算法价值与算法负面效应的全面与客观评价基础之上。


2021年9月,国家互联网信息办公室、中共中央宣传部、教育部、科学技术部、工业和信息化部、公安部、文化和旅游部、国家市场监督管理总局、国家广播电视总局发布了《关于加强互联网信息服务算法综合治理的指导意见》(简称《指导意见》)。


《指导意见》在指导思想部分指出,以算法安全可信、高质量、创新性发展为导向,建立健全算法安全治理机制,构建完善算法安全监管体系,推进算法自主创新,促进算法健康、有序、繁荣发展,为建设网络强国提供有力支撑。


对于具体目标,则提出逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局。对于算法生态规范,则指出:算法导向正确、正能量充沛,算法应用公平公正、公开透明,算法发展安全可控、自主创新,有效防范算法滥用带来的风险隐患。


从《指导意见》可以看出,算法治理的价值目标在于平衡算法的发展与约束算法的滥用。对于促进算法的发展,企业具有天然的驱动力,通过算法创新业务模式、优化服务方法与服务能力、降低企业运营成本、提升效益,对于任何一家依赖算法的企业而言,无疑都具有重大的价值。但是,对于公众而言,算法滥用带来的危害,则由于维权成本的高昂而可能导致维权主体缺位。因此,算法治理体系的具体措施更多体现为如何约束算法运用、防范算法滥用。笔者认为,算法治理的具体目标,主要包括以下几个方面:


1、公序良俗原则


公序良俗即对于公共秩序、道德规则与社会伦理秩序的尊重。对于算法的公序良俗问题,国家互联网信息办公室2021年发布的《互联网信息服务算法推荐管理规定》(简称《算法规定》)中指出,“提供算法推荐服务,应当遵守法律法规,尊重社会公德和伦理,遵守商业道德和职业道德,遵循公正公平、公开透明、科学合理和诚实信用的原则。”在《算法规定》中,很明确提出了“社会公德和伦理”以及“商业道德和职业道德”。在国家互联网信息办公室2022年发布的《互联网信息服务深度合成管理规定》(简称《深度合成规定》)中,也规定了“尊重社会公德和伦理道德”以及“服务向上向善”的内容。


算法作为人工智能领域的重要问题,也是科技的前沿问题。无论从技术上和法律上,社会对于算法滥用的危害尚无法完全评价,法律很难对算法规定过于详细的法律约束措施和责任。因此,引入公序良俗原则,有利于在保护创新的同时约束算法的滥用。


2、公共利益原则


对于算法治理的公共利益原则,在《算法规定》第一条即有开宗明义的规定,规条规定:制定本办法的目的包括“维护国家安全和社会公共利益”。《深度合成规定》也将“维护国家安全和社会公共利益”作为立法的目的。因此,公共利益是算法规定的基本原则之一。此外,对具有舆论属性和社会动员能力的算法进行备案,也体现了公共利益原则。


3、算法的公平、公正、公开透明原则


在国家互联网信息办公室等多部委2021年发布的《关于加强互联网信息服务算法综合治理的指导意见》(简称《指导意见》)中,首次提到了公平公正原则。该《指导意见》第二条原则部分指出“引导算法应用公平公正、透明可释,充分保障网民合法权益”。在《算法规定》及《深度合成规定》的第四条,也分别规定了“提供算法推荐服务,应当遵循公正公平、公开透明、科学合理和诚实信用的原则。”


算法对于社会公众而言,相当于一个“黑箱”,在算法涉及公平公民利益的情况下,通过公平公正及公开透明原则,避免算法服务提供者借助技术优势对公众的权益和知情权造成损害,从而平衡算法服务提供者与社会公众的利益。


二、算法治理的立法概况


1、特定行业领域早期立法


我国对于算法的立法规制,最早可见于特定行业领域的立法,且主要针对算法可能给行业交易秩序带来的危害。2018年4月27日,中国人民银行、中国银行保险监督管理委员会、中国证券监督管理委员会、国家外汇管发布了《关于规范金融机构资产管理业务的指导意见》(简称“《资管新规》”)。


《资管新规》主要是针对人工智能算法可能带来的“算法同质化”问题进行了规制。规定了金融机构应当避免算法同质化加剧投资行为的顺周期性,并针对由此可能引发的市场波动风险制定应对预案。对于因算法同质化、编程设计错误、对数据利用深度不够等人工智能算法模型缺陷或者系统异常,导致羊群效应、影响金融市场稳定运行的,金融机构应当及时采取人工干预措施,强制调整或者终止人工智能业务。


此后,在全国人大2019年颁布的《中华人民共和国证券法(2019修订)》中,规定了通过计算机程序自动生成或下达交易指令进行程序化交易的,应当符合国务院证券监督管理机构的规定,并向证券交易所报告,不得影响证券交易所系统安全或者正常交易秩序。


证券、期货交易等金融行业,具有周期性强、金额巨大、参与主体众多的特点,市场容易受到各类信息的影响,从而产生羊群效应。在人工智能算法或程序化交易算法加入市场交易后,羊群效应可能会因为算法同质化而被放大。因此,金融行业对于算法的规制,主要体现为对算法同质化的干预。


2、全国人大的立法


2021年全国人大通过并施行的《个人信息保护法》,将算法规制作为个人信息保护的重要措施。《个人信息保护法》主要从个人公平交易权和尊重个人选择权,以及算法透明角度进行了规范。具体包括:


(1)对算法引发歧视的禁止


个人信息处理者保证自动化决策的透明度和结果的公平、公正,不得对个人在交易价格等交易条件上实行不合理的差别待遇。


(2)个人选择权的行使


个人信息处理者通过自动化决策方式向个人进行信息推送、商业营销,应当同时提供不针对其个人特征的选项,或者向个人提供便捷拒绝的方式。个人信息处理者通过自动化程序作出对个人权益有重大影响的决定,个人有权拒绝仅通过自动化决策的方式作出决定。这意味着,个人信息处理者在处理个人信息过程中,不能仅考虑人工智能的自动化方式,还应预留人工处理的选项。


(3)算法透明问题


个人信息处理者通过自动化程序作出对个人权益有重大影响的决定,个人有权要求予以说明。


3、网信等部门的系统化立法


除上述针对金融领域的规则及《个人信息保护法》外,网信部门及相关部委今年对于算法出台了一系类的监管规则,从而形成了系统化的立法体系。


国家互联网信息办公室2019年12月发布了《网络信息内容生态治理规定》(简称《信息治理规定》)。《信息治理规定》第十二条规定:网络信息内容服务平台采用个性化算法推荐技术推送信息的,应当设置符合本规定第十条、第十一条规定要求的推荐模型,建立健全人工干预和用户自主选择机制。


此后,国家互联网信息办公室、文化和旅游部、国家广播电视总局2019年11月发布了《网络音视频信息服务管理规定》(简称《音视频规定》)。《音视频规定》规定了音视频服务者在利用算法提供服务时,应承担安全评估、对利用深度学习及虚拟现实等技术新应用制作发布非真实音视频信息的标注义务、对虚假视频的辟谣义务等。


国家互联网信息办公室、中共中央宣传部、教育部、科学技术部、工业和信息化部、公安部、文化和旅游部、国家市场监督管理总局、国家广播电视总局2021年9月发布的《关于加强互联网信息服务算法综合治理的指导意见》(简称《指导意见》)。规定了有效监测算法安全风险,积极开展算法安全评估,有序推进算法备案工作。


国家互联网信息办公室2021年11月发布的《算法规定》,则规定了算法的分类,算法包括个性化推送类、生成合成类、排序精选类、检索过滤类、调度决策类等五类算法。《算法规定》还规定了算法分级分类安全管理的原则。分类分级关注的维度包括算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等。


国家互联网信息办公室2022年11月发布的《深度合成规定》,则对应用深度合成技术的若干重要问题进行了规定。


2023年4月11日,国家互联网信息办公室发布了《生成式人工智能服务管理办法(征求意见稿)》,对社会公开征求意见。该《征求意见稿》对生成式人工智能进行了界定,即生成式人工智能,是指基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。随着以美国Open-AI公司ChatGPT为代表的生成式人工智能产品的发展与推广,如何应对该种人工智能服务所带来的社会风险,成为监管关注的新问题。