张吉豫 | 构建多元共治的算法治理体系
时间:2022-01-15构建多元共治的算法治理体系
作者简洁:张吉豫 中国人民大学法学院副教授,未来法治研究院执行院长
文章来源:《 法律科学》2022年第一期
[摘要]:当前,世界范围内主要大国都在探索数字治理体系,推进数字治理现代化。在数字治理体系中,算法治理是具有核心地位和决定意义的子体系。共建共治共享是我国算法治理的指导思想。基于构建算法治理体系的特殊性和复杂性,算法治理中应进一步发展和完善已初见格局的政府监管、社会监督、公民维权、企业自治的多元共治体系;应建构分级分类的敏捷治理的监管体系,加强算法领域的社会监督,完善公民数字权利体系并建立有效的维权机制,健全算法服务提供者的责任义务体系,同时也要鼓励企业创新合规措施、创新技术,以构建具有中国特色、可成为世界范例的算法治理体系。
[关键词] :算法;算法治理体系;多元共治;敏捷治理
一、算法多元共治的本土理论基础
2021年8月27日,国家互联网信息办公室发布了《互联网信息服务算法推荐管理规定(征求意见稿)》(以下简称《规定(征)》),针对算法黑箱、算法歧视、信息茧房、舆论操控、不正当竞争等问题制定了规范,其内容既包括伦理与法治相衔接、推动社会共建共治共享、实施分类分级管理等原则,也包含了弹性条款与具体规则相结合、建立互动的监管关系、赋能公众监督、实施敏捷治理等具体结构和路径。2021年9月29日,国家互联网信息办公室、中央宣传部等九部门联合发布了《关于加强互联网信息服务算法综合治理的指导意见》(以下简称《指导意见》),提出“坚持正确导向、依法治理、风险防控、权益保障、技术创新”五项基本原则,“利用三年左右时间,逐步建立治理机制健全、监管体系完善、算法生态规范的算法安全综合治理格局”的主要目标,强调要“建立健全多方参与的算法安全治理机制”,形成“多元协同、多方参与的治理机制”;“健全算法安全治理机制”“优化算法治理结构”“……打造形成政府监管、企业履责、行业自律、社会监督的算法安全多元共治局面。”《规定(征)》和《指导意见》充分体现了习近平总书记提出的“共建共治共享”“社会治理共同体”等原创性理论,体现了党的十九大、十九届四中全会、五中全会精神,以规范性文件的方式推动“共建共治共享”“社会治理共同体”思想落地生根。
“共建共治共享”和“社会治理共同体”思想是社会治理的重要理论,也必定是算法治理的基础理论。2015年5月,习近平总书记在浙江调研时指出:“社会建设要以共建共享为基本原则,在体制机制、制度政策上系统谋划,从保障和改善民生做起,坚持群众想什么、我们就干什么。”2015年10月,习近平总书记在党的十八届五中全会上提出“人人参与、人人尽力、人人享有”,这一内容和“构建全民共建共享的社会治理格局”都被写入“十三五”规划。2017年,在党的十九大报告中,习近平总书记进一步明确提出“打造共建共治共享的社会治理格局”。由此,“共建共治共享”成为新时代社会治理的发展方向和基本格局,其中共建是基础,共治是关键,共享是目的。之后,党的十九届四中全会着重提出“坚持和完善共建共治共享的社会治理制度”“建设人人有责、人人尽责、人人共享的社会治理共同体。”人人有责、人人尽责表明社会治理共同体首先是实践共同体、责任共同体、价值共同体,人人享有则表明这一共同体还是利益共同体、权利共同体、命运共同体。其逻辑与共建、共治、共享逻辑一致,人人有责是本质、人人尽责是前提、人人享有是结果。
“共建共治共享”“社会治理共同体”思想是为科学而先进的社会治理思想,是新时代社会治理的指导思想和根本遵循。鉴于算法应用的广泛性、算法问题的普遍性、算法治理的复杂性,这一科学思想对算法治理更是具有根本性、指向性意义。在算法治理中,我们必须秉持“共建共治共享”理念,致力于打造算法治理共同体,形成多元共治新格局。在我国算法治理共同体中,监管机构、企业、社会组织、公众都是治理“主体”,都是有其责亦应尽其责的“一元”,都是多元共治格局的一个“方阵”,其中,党和政府的监管居于“中枢”地位。
与国家和社会治理的其他领域一样,算法治理面临的基本矛盾也是秩序与活力的矛盾。算法治理的价值目标归结起来就是实现数字社会既规范有序又充满活力,能够有效地解决秩序与活力的矛盾,达到既规范有序又充满活力的目标,就是理想中的“善治”。善治有三个层面的基本内涵:其一,善治是治理的过程,即善于治理;其二,善治是治理的目标,即良善治理;其三,善治是治理的方式,坚持以人为本、多元共治的治理思维和治理方式。善治的推进方式和实现形式是多种多样的,习近平总书记倡导的“自治、法治、德治相结合”的“三治结合”模式,是被实践充分证明了的科学有效的善治模式。“三治结合”反映了社会治理的共同规律,完全适用于数字社会治理。在构建算法治理体系的过程中,应充分发挥企业、社会组织、公民个人自我教育、自我管理、自我约束的自治力量,发挥监管机构依法监督、善于管理的法治力量,发挥各个主体践行社会主义核心价值观的德治力量,共同应对算法风险挑战问题、化解算法领域的社会矛盾,彰显“以自治理性发展、以法治定分止争、以德治弘扬正气”的善治精神。
二、构建算法多元共治体系的客观依据和现实需要
多元共治是良政善治的重要标志,是实现国家和社会治理现代化的必由之路,是《规定(征)》和《指导意见》提出算法多元共治原则和目标的思想渊源。我国在科技领域立法中尤为重视多元治理,例如《数据安全法》第9条规定了国家“推动有关部门、行业组织、科研机构、企业、个人等共同参与数据安全保护工作”。在算法治理领域,提出构建多元共治治理体系、营造能够有效适应算法快速创新变革的社会生态系统,有其客观依据和现实需要,而这又是由算法治理问题的特殊性和复杂性所决定的。算法治理问题的特殊性和复杂性可归结于三大“鸿沟”:
(一)算法的技术目标与社会目标之间的鸿沟
传统的算法设计目标体系主要是技术目标体系,包括准确度、速度、功耗、能耗、代码大小、稳健性、易懂性、易维护性、可扩展性等等;而对于社会伦理价值、法律规范、公共利益等社会性问题关注不够,合规设计也缺乏必要的支撑技术基础、评测技术基础和复合型人才基础。
近年来,物联网、大数据、人工智能等信息技术深度融合发展,深刻地改变着社会生产生活的形态。“十四五”规划提出了建设数字中国。这表明数字科技将全面融入公共服务、社会治理,成为经济社会发展的重要引擎。在数字化建设中,各类人、事、物将日益广泛地被数据记录,自动化算法决策在网络空间将更加普及,使大数据得以发挥价值。与此同时,数字空间与物理空间也不断融合,一方面,信息技术系统日益广泛地对物理装置进行实际控制;另一方面,通过直接建立标识、认证机制、算法识别机制等途径,数字空间中的标识与物理世界的人、事、物可以形成对应关系,使得数字空间的算法决策可以对物理世界对应的人、事、物产生影响。同时,“元宇宙”等概念引起人们畅想构建与传统物理世界平行的全息数字世界的可能性,拓展了数字文化、数字经济、数字社会、数字政府构建的可能边界。可以说,在当前和未来的数字空间以及物理世界里,“人与数字的聚合正在成为构造世界和塑造个人的基础性活动”,算法将日益普遍地运用于个人生活、经济社会和公共事务之中,成为社会运转的基础条件,在事实上影响和塑造社会结构。在这样的背景下,算法目标须在坚持传统技术目标体系的基础上,还必须同时融入诸如公平公正、无歧视、隐私保护、透明度、可解释性、可问责性、正当程序等社会目标体系以及具体场景下的伦理价值体系,并将伦理价值内化于算法设计的目标体系,使伦理法理与信息技术两套目标体系深度融通,指导算法的研发和监管。算法的技术目标与社会目标之间的鸿沟,是当今世界面临的重大时代性课题,仅靠法律本身的回应难以化解;化解鸿沟目标的实现,有赖于多元主体的共同努力。
以我国新闻推荐算法的优化历程为例。2017年7月6日,《人民日报》发表题为《新闻莫被算法“绑架”》的文章,引发了社会公众和国家部委对于算法推荐可能加剧的信息茧房、回音壁效应等问题的关注。“今日头条”于2018年1月公开了其算法原理,向公众征求意见,并通过将重要新闻置顶、四维度协助信息探索、多途径加强与用户的交互等方式,逐步将新闻伦理价值融入算法设计。《规定(征)》对产业界形成的算法重点解决路径进行了制度化,规定企业在首页首屏等重点环节积极呈现符合主流价值导向的信息内容、建立完善人工干预和用户自主选择机制等义务。新闻推荐算法的优化历程,展示了一条由社会监督发现算法设计与新闻伦理价值错位问题,到企业优化算法、提高算法透明度以更好地接受公众监督,再到国家将重点调整规则纳入国家法规的算法治理路径。在此过程中,社会监督、企业自治和技术优化、政府监管均发挥了各自积极的作用。
(二)算法影响之广泛性与人们认知能力之有限性之间的鸿沟
社会运转各环节中迅速涌现大量未经充分论证、亦缺乏经验验证的算法应用,突破了既往常规的社会实践。算法的内部逻辑不仅对一般公众来说是个“黑箱”,而且由于专业、时间、精力以及意识上的局限性,加上信息技术自身的迅速创新更新迭代,许多算法规则即便对专业人士来讲,也可能是“黑箱”。社会大众对算法工具的陌生疏离是算法异化不断滋生的肥沃土壤,也是导致人的主体性不断丧失的基本原因,而作为算法风险之承受者的社会公众却缺乏风险识别能力。(1)现代法律高度重视意思自治,意思自治的一个重要基础在于,人“有能力在给定的各种可能性的范围内,自主地和负责地决定他的存在和关系、为自己设定目标并对自己的行为加以限制”。不断兴起的社会领域大规模算法运用,使广大公民个体的既有生活经验无法支撑自己做出合理判断,失去了对算法可能导致的行为结果、风险以及对未来影响的合理预测,难以在真正意义上自主地和负责地决定自己的行为。特别是算法对个人数据的最终使用情况“已经远远超出个人的意图范围和认知能力”。由此,我们既需要在智能时代的公民教育中补上一般性算法应用的通识教育课,增强公民认知风险的能力,亦需要国家通过立法,发现算法风险,完善算法规则,为整个社会减少甚至杜绝不合理的算法风险。(2)在广泛的算法运用领域,人们的社会关系越来越呈现出结构性不平等和不对称。算法掌控者往往具有较大的特权和强大的谈判能力,而公民个体则普遍缺乏风险自我防控能力、自我救济能力以及风险责任谈判能力。实践中,尽管一些公民已经成为某些算法不当应用的直接受害者,但却缺乏举证和证明能力而难以寻求及时有效救济。应对此类问题,国家就有必要在算法快速创新和广泛应用的领域,对算法进行风险类型和级别划分,以政府的公共救济弥补个体自我救济的不足,以算法规制促进企业优化算法规则,强化公民权益保障、防控公共风险,而不能将算法问题单纯留给市场自我调节。以我国外卖送餐平台上“预估到达时间”的算法问题为例。外卖骑手的劳动者权益保护一直被算法系统扭曲,劳动者却往往对此缺少深入认知和有效举证和谈判的能力。2020年《人物》杂志撰写的文章《外卖骑手,困在系统里》刷屏社交网络,引起国家市场监督管理总局等多个部委和中华全国总工会的高度关注,它们联合发布了《关于落实网络餐饮平台责任、切实维护外卖送餐员权益的指导意见》。随即,大型网络餐饮外卖平台“美团”邀请社会多方对算法规则进行研讨,通过微信公众号作出回应,并向社会公开外卖配送中的“预估到达时间”算法规则,着重介绍了给予骑手更充裕时间的算法设计,对算法进行了优化,并设置了异常场景的人工干预机制。《规定(征)》第11、第17条,专门针对互利网平台完善算法、履行劳动者权益保障问题制定了规则,赋予企业“建立完善人工干预”义务,体现了算法时代对公民权利配置中热议的“获得人工干预权”的重视。从新闻媒体监督,到部委和总工会的重视,到企业的算法规则公开和优化,再到国家将算法规则提炼为法律规范,体现了在个体权益维护困难的情况下,多方促进问题制度化解决和法治化发展的努力。
(三)激励算法创新应用与有效防控算法风险之间的鸿沟
算法创新应用与算法风险防控是我国数字建设和发展中最为突出的两个目标,二者虽相辅相成,但也呈现出巨大的矛盾和张力。促进算法的创新运用,对于我国在第四次工业革命中占据世界技术和经济领先地位至关重要。但同时,算法技术野蛮生长、公平竞争秩序破坏、安全漏洞、舆论操控、虚假信息精准传播、社会歧视结构性固化等一系列损害公共利益、导致公共风险、危害国家安全的问题日趋严重,对算法风险防控提出了更大挑战。创新与风险、发展与安全的张力要求我们以“安全是发展的前提,发展是安全的保障”为指导思想,统筹发展和安全,推动算法科技更高质量、更有效率、更加公平、更为安全、更可持续地发展,使之更好造福人类,满足人民群众日益增长的美好生活需要。遵循发展和安全的辩证法,我国对以算法为核心的新技术新业态的规制和监管,形成了“包容审慎”总体政策。2021年1月1日起实施的《优化营商环境条例》对“包容审慎监管原则”作出明确规定,对算法创新的包容审慎监管政策的责任和有效监管提出了新要求。
科技创新运用是提升治理能力的一个重要维度。以我国对“深度合成”技术的监管为例,一方面,《规定(征)》以人格权和知识产权为基础确立了保障公民算法维权的算法监管原则;另一方面网信办在《网络信息内容生态治理规定》和《网络音视频信息服务管理规定》中对基于深度学习、虚拟现实等新技术新应用作出规定,建构了“标识”义务、“非真实音视频鉴别”义务、“建立健全辟谣机制”义务,体现了“安全评估-源头控制-风险识别-损害应对”的算法治理框架。除了政府资助鉴别技术研发,企业自身合规需求的动力提高及专利技术被纳入标准的可能性的提高,也是调动广大市场主体投资相应技术研发的有效激励路径。有效的“辟谣机制”也需要业界充分发挥主观能动性,对社会治理进行积极贡献。
综上所述,面对算法治理的特殊性和复杂性,我国算法治理的短板和弱项愈加显现,如公民维权困难、制度供给赤字、技术创新动力和企业自我规制动力不足等。为解决这些突出问题,有必要打造多元共治的算法治理体系。这里的“多元”一是治理手段和规则的多元,包括法律之治、道德之治、市场之治、科技之治;二是指主体的多元,包括政府治理、社会治理、企业治理、公民治理等。四元主体,四管齐下,方可能缓解动态的算法创新与相对静态、稳定的法律制度之间的矛盾张力,克服三大鸿沟问题,实现科学合规有效的算法治理目标。
三、多元共治格局下我国算法治理体系的构建路径和关键制度
当前,世界主要数字科技发达国家都在积极探索构建数字治理体系。在数字治理体系当中,算法治理子体系具有核心地位和决定意义。
(一)政府政策倡导与科学监管
在算法治理中,由于公共风险的广泛存在、个人维权的普遍困难以及事后责任的效果有限,政府对算法领域规制的积极介入就成为算法治理体系的关键环节和重要路径。
1.政府在算法治理中的主要功能。(1)政策倡导。政策倡导对于加强算法规则研究、普及算法教育、促进算法共治具有积极意义。近年来,我国政府从政策规划倡导、建立伦理机构、凝练伦理规则、加强伦理教育等方面进行了诸多努力,体现了党和政府对于算法相关创新中伦理和治理的高度重视。2019年我国成立了国家新一代人工智能治理专业委员会。该委员会成立后陆续发布了《新一代人工智能治理原则——发展负责任的人工智能》、《新一代人工智能伦理规范》(以下简称《伦理规范》)等重要文件。这些均为算法治理体系构建夯实了政策基础。(2)科学监管。政府对算法的科学监管,重点在于以“包容审慎监管”为基本原则,适应算法治理的特征和算法创新发展的需求,处理好秩序和活力的关系、自由和秩序的关系、安全和发展的关系,建立法律规范体系,构建敏捷治理型的动态互动监管,助推安全健康的算法创新应用。
2.为支撑政府政策落实和科学监管的法律制度安排。(1)明确推进科技伦理研究和教育的责任部门,并做出必要的制度安排。科技领域的多元共治需要必要的知识普及和社会制度建设。近年来,我国高度重视相关领域立法。如《数据安全法》第9条规定“国家支持开展数据安全知识宣传普及,提高全社会的数据安全保护意识和水平……形成全社会共同维护数据安全和促进发展的良好环境”。尽管该条属于宣示性条款,但它彰显了加强知识普及对于数据安全社会共治的重要意义。《个人信息保护法》规定,国家网信部门及县级以上地方人民政府有关部门应开展个人信息保护宣传教育;个人信息处理者则应定期对从业人员进行安全教育和培训等等。2021年《科技进步法(修订草案)》中多处加入了科技伦理的相关规定,规定“国家建立科技伦理委员会”“加强科技伦理教育和研究”。这些制度安排确立了推进知识普及和教育的责任主体,辅以责任体系,可以有序提高公民认知能力,亦有助于填补社会伦理价值体系和算法目标体系之间的沟壑,进而形成对智能时代的多元共治所必要的社会环境。(2)确立分级分类监管的原则和法律制度衔接的必要接口。网络空间包罗万象,分类分级管理是网络与信息法治中比较普遍的原则,有助于具体制度设计时根据场景设置精细规则。例如,《网络安全法》规定了实行网络安全等级保护制度;《数据安全法》确立了由国家建立数据分类分级制度、由主管部门制定重要数据目录并加强保护的做法,由此形成了网络安全等级保护制度与数据安全保护制度的衔接;《民法典》区分了一般的个人信息和私密信息;《个人信息保护法》也建立了信息分级制度,区分了一般的个人信息和敏感信息等等。分级分类监管可以将一般性监管与特殊性监管相结合,推动更加精细化、更加具有针对性的立法和执法,对重点领域进行更高标准的风险防控,同时避免一刀切式的监管为算法创新增加不必要的成本。由于算法创新发展速度较快,应用范围较广,在立法中一时难以确立具体规则时,可以规定多要素考量的判断标准,为未来对新类型监管设置具体规则提供开放接口。与法律规定相衔接,《规定(征)》在建立算法自评估、算法备案、算法安全评估和监督检查等义务和监管制度的同时,在第19条中规定了算法分级分类管理制度。同时,《规定(征)》对具有舆论属性或者社会动员能力的算法推荐服务、向未成年人提供服务、向劳动者提供工作调度服务、向消费者销售商品或者提供服务等情况均作了特别规定。(3)形成落实包容审慎监管和敏捷治理原则的制度框架。直面新技术新业态的高度动态性、创新发展需求以及风险的难预测性,“敏捷治理”这一新概念新举措日益被政策制定者重视。敏捷治理通常强调治理节奏上的快速回应和尽早介入,治理规则上推进弹性原则与具体类型化规则有效结合,治理关系上的互动合作以及治理方式上的过程快、力度轻的引导性治理。2021年9月25日,国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》吸纳了“敏捷治理”概念,在管理规范部分第5条明确提出“推动敏捷治理”,这为我国算法监管制度的完善进一步提供了指导。实际上,《网络安全法》《数据安全法》《个人信息保护法》中规定的行政约谈制度,在一定程度上也是“敏捷治理”理念的一种具体实现路径。《规定(征)》体现敏捷治理原则的内容主要包括:首先,在规则设置上体现了弹性的伦理规范与具体类型化规则相结合的特点。在技术发展变化快速、智能社会法律秩序尚未完整建立的现阶段,一定程度上更多地依赖社会伦理、公序良俗等弹性条款进行规制,这种治理思路是符合当下中国数据技术发展实际的。同时,《规范(征)》第12,14,15条针对已经发现的具体风险进行了具体规定,如针对算法黑箱问题,规定了旨在提高算法透明度的条款;第10条,18条针对算法歧视问题,规定了不得设置歧视性或者偏见性用户标签、利用算法实行不合理差别待遇等制度等等。其次,在治理关系上,《规定(征)》要求有关主管部门对算法推荐服务开展算法安全评估和监督检查,作出了要求有关部门对发现的问题要及时提出整改意见并限期整改的互动制度,打破传统监管的恶性循环,有助于改变政府和企业双方的思维和预期,建立良好的治理互动,找到合作共赢的共治方式。最后,在治理工具上,《规定(征)》出台了对企业违规行为首先给予警告、通报批评、责令限期改正等一系列轻力度的治理举措;对拒不改正或者情节严重的行为,规定了责令暂停信息更新等惩处措施,可以起到补充性、威慑性作用。同时,也体现出以引导企业认识风险、及时改正为第一目标的速度快、力度轻的引导性治理。
(二)社会深度监督
1.社会在算法治理中的主要功能
社会监督在算法治理中应发挥更为重要的作用。在国家权力之外,新闻机构、社会组织和公民个人形成治理共同体,对算法应用中侵犯公民权利、影响市场竞争、社会秩序、公共安全、国家安全等做法和行为进行全方位、深层次监督,可以更好地达到算法善治。(1)新闻媒体监督。新闻媒体在我国算法治理中已经发挥了重要作用。如前所述,新闻媒体的监督推动了新闻推荐、外卖时间预估等一些具体场景中算法的迭代更新。同时,媒体对于政府的算法运用也发挥了积极的监督作用。例如苏州推出“苏城文明码”之后,许多媒体迅速进行报道,并邀请研究者进行分析评论,从算法治理的边界等方面对相关政策提供了具体意见,有效地推动了地方政府的反思和审慎行政。新闻媒体的监督和算法焦点事件的社会广泛讨论,也推动了立法者的积极回应。《规定(征)》关于向劳动者提供工作调度服务和向消费者销售商品或者提供服务的规定,亦是对外卖骑手、大数据杀熟等新闻事件的针对性回应。合理预期,随着我国新闻监督作用的进一步有效发挥,新闻媒体在算法治理中必将发挥更加积极的作用。(2)社会组织监督。在算法治理体系中,很多社会组织有着天然的优势。例如,在消费者权益保护领域,中国消费者协会一向发挥着积极作用。2021年1月7日,中国消费者协召开了“网络消费领域算法规制与消费者保护座谈会”,督促企业进行对自己的算法规则进行反思,并做出必要的调整。当然,算法治理与一般的消费者权利保护不同,它需要对算法原理、算法伦理、算法风险认识、风险预防等方面都具备比较专业的知识。算法治理也不仅限于消费者权利保护。因此,在未来的算法监管中,可以成立专门性的算法监管社会组织,代表公众来进行有组织的、专业化的算法监督。社会组织在监督产业界使用的算法的同时,对于国家机关运用算法亦可以进行监督。例如,美国非盈利新闻组织“为了公民”(ProPublica)在对美国司法领域使用较广的康帕斯(COMPAS)风险评估工具的分析中发现其对黑人具有明显的歧视,进而提出了改进意见。这也在一定程度上推动了美国、加拿大对于公共事务领域的算法影响的评估和问责制度的发展。实际上,我国不少社会组织也开始影响公共政策、发挥监督作用。例如,在保护藏羚羊、叫停“杨柳湖”水电工程的监督中,社会组织就利用数据分析和推演,影响有关政府机构决策,“起到了民间构建与国家构建互动回应、反思平衡的作用”。(3)行业协会推动行业自律。社会组织的监督作用也往往是在与政府的合作过程中实现的。在算法治理中,政府与行业协会之间的合作尤为重要。如,在政府的指导和监督下,我国一些行业协会/学会积极推动我国人工智能伦理准则和标准的建立。《规定(征)》为此规定“鼓励相关行业组织加强行业自律,建立健全自律制度和行业准则,组织制定行业标准,督促指导算法推荐服务提供者建立健全服务规范、依法提供服务并接受社会监督”。未来,行业组织将与政府建立更为密切的合作关系,共同推进算法治理体系和治理能力现代化。(4)技术社区的专业监督和科技优化。技术领域的治理离不开科技力量。“十四五”规划中专门强调要“支持数字技术开源社区等创新联合体发展”。《数据安全法》第9条在列举社会多元共治的主体时,在一审稿、二审稿的基础上专门增加了“科研机构”,体现了对科技力量在数据治理中作用的重视。在算法治理中,除高等教育机构和科研院所、企业研究院等科研机构外,开源社区、开放平台、“白帽子”等技术群体也是不可忽视的重要力量。目前许多算法通过开源社区、开放平台提供给应用层面的开发者。开放平台和开源软件是我国人工智能“新基建”的主要能力输出接口。在算法治理中,一方面,开源软件中算法在源代码层面的公开性,使得其可以更好地接受公众监督;另一方面,由于开源社区、开放平台中的算法往往被大量使用,其优化可以有效推动行业中使用的算法的优化。但与此同时,开源软件也逐年被报告存在不少漏洞,表明开源托管平台也可能存在“深度伪造”等争议性开源软件。未来,立法者需要进一步完善制度,规范开源软件等的传播行为。
2.为深化社会参与的法律制度安排
(1)合理推进企业信息披露,为社会监督提供便利。更多的信息有利于加深人们对算法的理解,加强社会对算法的监督。例如,有研究者分析了超过50万条谷歌平台的通知-删除实例,来剖析其通知-删除自动处理算法的特性。《个人信息保护法》中规定了超大互联网平台应定期发布个人信息保护社会责任报告,以接受社会监督。未来的算法治理,也可以为互联网平台规定更多、更合理的信息披露义务。(2)为技术群体进行算法监督提供必要的责任豁免制度。我国著作权法中进行了一定的平衡设计。例如,《著作权法》第50条第1款第4、5项规定了在满足法律规定的前提下,对计算机及其系统或者网络的安全性能进行测试、进行加密研究或者计算机软件反向工程研究等情形可以避开技术措施。为了便利公众的算法监督,应在该条中补充进行算法合规性、合伦理性研究的情形。再如,我国有学者针对平台使用侵犯著作权内容的过滤算法的问题,提出引入“黑箱测试豁免条款”,以便鼓励公众参与,监督算法执法,敦促相关主体在面临公众的“黑箱测试”的压力之下不断自我完善算法设计,从而增强算法的可责性。为避免对企业算法系统产生过大压力,可以规定在企业提供了专为社会测试、监督所用的算法副本的情况下,应主要和优先在该副本上进行相关测试。网络安全法和刑法中也应对“白帽子”群体、众测平台等开展的善意的漏洞挖掘和算法分析行为进行界定,明确其合法边界。(3)推进行业自律、制定行业准则和行业标准。《网络安全法》《食品安全法》《数据安全法》中均规定了行业组织推进行业自律的义务。《规定(征)》亦规定“鼓励相关行业组织加强行业自律,建立健全自律制度和行业准则,组织制定行业标准,督促指导算法推荐服务提供者建立健全服务规范、依法提供服务并接受社会监督。”但目前我国的立法实践中,相关条款往往是鼓励性的或宣示性的,未来的立法应进一步探讨如何通过“后设规制”进行监督和规制,使之具有可问责性。
(三)公民依法维权
1.公民在算法治理中的主要功能
在智能社会之中,公民既是合理算法应用的利益获得者,也是合理算法应用的潜在受害者。公民最直接地面对算法对自己权益的影响,可以通过投诉、举报、提起诉讼等方式,捍卫权利,参与算法治理。
2.为便利公民维权的法律制度安排
加快完善公民数字权利体系、引导公民依法理性地维护权利,对算法治理来说至关重要。(1)完善和发展公民数字权利体系。近几年,我国通过编纂《民法典》、制定《个人信息保护法》,扩展了肖像权,确定了声音权,规定了个人信息保护及“免受自动化决策权”等,不断完善数字权利体系。这些规定为人民群众共享数字科技成果提供了基本出行的法律条件,拓展了法律制度空间,也为公民依法维护各种数字权利提供了法律依据。但是,与数字科技的发展对社会的影响相比,公民数字权利体系总体仍然较为空泛,数字权利保护力度仍然有待提高。未来,应着重针对特定场景下算法运用的知情同意权、算法解释权、获得人工干预权等进行深入针对性调研,进而作出明确的法律规定。(2)明确平台义务,将其与侵权责任相衔接。对于网络服务提供者是否对网络用户的侵权行为构成共同侵权的判定上,《民法典》在规定“通知-必要措施”规则的同时,也规定了根据网络服务提供者是否知道或者应当知道对用户的侵权行为来进行判断。然而相关诉讼中经常就平台是否构成“应知”产生争议。如果平台未履行算法管理中规定的平台义务,可以作为平台未尽到注意义务的证据,以方便公民维权。《规定(征)》对于健全用于识别违法和不良信息的特征库、加强用户标签管理、加强算法推荐服务版面页面生态管理等方面作出了规定,可为民事侵权纠纷中平台注意义务的判断提供依据。(3)建立便利的公民投诉、维权机制。《信息网络传播权保护条例》《侵权责任法》中建立了“通知-删除”规则。《规定(征)》第42条规定,算法推荐服务提供者应当接受社会监督、设置便捷的投诉举报入口,及时受理和处理公众投诉举报;建立用户申诉渠道和制度,规范处理用户申诉并及时对投诉作出反馈。这些规定都为方便公民维权、建立平台用户和平台之间的合作机制提供了有益的法律准则。
(四)企业有效自治
1.企业在算法治理中的主要功能
企业是算法的研发者和应用者,在促进算法创新及健康发展中发挥着至关重要的作用。企业可以不断推进科技创新,克服算法漏洞和缺陷,同时建立规章制度,把技术优势和制度优势结合起来,进行最直接、最有效的自我监管,不断兴利除弊。
2.为推进企业自治的法律制度安排
(1)通过法律法规明确企业应采取的风险管理和防控措施。法律法规中应通过弹性条款与具体规定相结合的方式,推进企业积极采取有效的自治规范、完善的管理流程和安全的技术措施。《规定(征)》对于互联网信息内容算法推荐规定了建立健全用户注册、信息发布审核、算法机制机理审核、安全评估监测、安全事件应急处置、数据安全保护和个人信息保护等管理制度;要求企业制定并公开算法推荐相关服务规则,配备与算法推荐服务规模相适应的专业人员和技术支撑,履行定期审核、评估、验证算法机制机理、模型、数据和应用结果等义务,必将推动企业积极有效地进行算法自治。(2)推动企业建立责任机构。企业可建立相对独立集中、成员知识背景更加多元的算法风险防控委员会或工作小组,负责统筹和审查《规定(征)》中涉及的合规事宜,以使自己在审查时能够具有一定的前瞻性,将问题及其解决方案及时反馈给行业协会、主管部门,推动行业自律和行业标准的建设。(3)推进企业合规建设。一方面,立法可通过令企业承担取消备案、停止服务等行政责任等措施,有效推动企业履行算法合规责任。另一方面,立法也应注意算法快速创新发展的客观规律,建立助推算法健康安全发展的“引导性”法治体系。除行政监管中建立推动合规的机制之外,我国也在探索企业合规的刑法激励制度。近年来,我国一些地方检察机关开始尝试在审查起诉程序中引入企业合规机制,推行了一种颇具特色的“企业合规不起诉制度”,这些做法在发展迅速的新科技领域值得进一步探索和完善。在算法领域探索建立“企业合规不起诉制度”,可以将企业合规激励机制引入公诉制度之中,有助于建立预防与刑罚并举的风险防控系统,在预防企业犯罪、加强企业自我监管、实现企业依法依规经营等方面发挥积极作用。(4)激励企业技术创新。技术创新可以降低算法的伦理及安全风险,是算法治理的重要维度。在科研、市场、法律等驱动下,许多科研机构和企业通过联邦学习、多方安全计算、可解释性人工智能算法的完善等措施,完善个人信息保护、安全性、可解释性、公平性等多维价值维护,并对人工智能算法及数据集异常检测、训练样本评估等开展技术研究,提出了诸多不同领域的伦理智能体的模型结构。以联邦学习为例。机器算法通常需要海量数据进行模型训练,从而获得不断改进。联邦学习是指一种机器学习技术的设计,它在多个分散的边缘设备或保存本地数据样本的服务器上训练算法,而无需交换它们的数据样本。其核心是解决数据隔离和数据隐私保护问题,通过建立数据“联盟”,让所有参与方都能受益,推动技术整体不断进步。伯克利人工智能发展报告指出,银行等机构往往不乐于在彼此间共享数据,但却希望通过数据的联动分析更好地发现金融风险,这强化了企业对联邦学习技术的需求。近年来全球对数据隐私和安全的重视,实际上部分加剧了数据孤岛现象。因此,市场和法律的共同激励是这一轮联邦学习研究发展的重要动力。这是算法创新支撑个人权益保护的又一个具体实例。未来,立法需要进一步加强政策导向、完善专利制度,明确算法相关发明的可专利性,进一步激励这些支撑合伦理设计的技术研发。在算法应用相关标准制定中,立法者应强化对算法伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的研发激励,鼓励企业提出和公布自己的更优算法标准。在条件成熟时,立法者可通过将相关先进技术吸纳入法律标准、公布企业最佳实践来促进相关技术的推广应用,为算法治理提供先进技术支撑和示范,也为创新者获得收益提供更多机会。同时,我国政府和企业应积极参与相关国际标准的制定和实施,大幅度提升我国在国际人工智能伦理准则及相关标准制定中的话语权,为我国企业在国际竞争中创造更好的竞争环境。
四、结语
算法是智能社会重要的生产要素,对生产关系、社会关系和国家治理产生着显著影响。我国在新一轮产业革命中具有某些领先世界的优势,要发挥好这种优势,亟需探索一条算法治理的有效路径。算法治理问题具有高度的特殊性和复杂性,特别是在目标体系、信息认知、监管能力等方面的鸿沟,为算法治理带来了深刻挑战。我国在法治建设中逐渐形成了政府、社会、公民、企业多元主体共治,法律、道德、市场、科技四管齐下的多元治理格局。未来,我国可继续从建构分级分类的敏捷治理的监管体系、发展算法领域的社会监督组织、完善和发展公民数字权利体系、健全算法服务提供者的责任体系、建立有效的维权机制、推进企业合规的创新措施、鼓励技术创新发展等方面完善算法治理规则,优化算法治理的中国方案。