bob手机登录网址体育:智能治理张欣:生成式人工智能的算法治理 发布时间:2024-05-04 01:47:02 来源:bob手机体育app 作者:BOB体育多特


  以ChatGPT为代表的大规模预训练语言模型日益展现出通用潜力,其超大规模、超多参数量、超级易扩展性和超级应用场景的技术特性对以算法透明度、算法公平性和算法问责为内核的算法治理体系带来全方位挑战。在全球AI治理的主流范式中,欧盟形成了基于风险的治理范式,我国构建了基于主体的治理范式,美国采用了基于应用的治理范式。三种治理范式均形成于传统人工智能的“1.0时代”,与展现通用潜能的新一代人工智能难以充分适配,并在不同维度凸显治理局限。因此,在人工智能技术范式变革之际,应以监管权的开放协同、监管方式的多元融合、监管措施的兼容一致为特征推动监管范式的全面革新,迈向面向人工智能“2.0时代”的“治理型监管”。

  2022年11月30日,Open AI推出对话式人工智能Chat GPT,其表现出了令人惊艳的语言理解、语言生成和知识推理能力,仅用时2个月就拥有1亿活跃用户,成为科技历史上增长最快的“现象级”应用。Chat GPT是生成式人工智能(Generative AI)在自然语言处理领域的卓越代表,实现了人工智能从感知理解世界到生成创造世界的跃迁,代表了人工智能研发技术和落地应用的范式转变。相较于别的形式的人工智能,生成式人工智能的颠覆性影响不仅限于技术和工具层面,而且还在治理领域产生了显著影响。以Chat GPT为代表的生成式人工智能预示着通用AI的“星星之火”即成燎原之势,其强大的扩展迁移能力使其成为名副其实的新型基础设施,将深入渗透于社会、经济、政治、法律等所有的领域,隐而不彰地重塑社会结构和治理形态。在生成式人工智能带来一系列技术红利时,伴随而来的法律伦理风险也使之深陷争议。如何从法律视角理解生成式人工智能的技术特性和算法治理挑战,探索与之适配的监管和治理框架是一项亟须破解的公共政策难题。本文聚焦以Chat GPT为代表的生成式人工智能,探析其技术特性与治理意蕴,并从全球AI竞争格局和负责任创新的治理目标出发,对未来的监管框架作出前瞻性探讨。

  2017年,国务院印发的《新一代AI发展规划》将知识计算与服务、跨媒体分析推理和自然语言处理作为新一代人工智能关键共性技术体系的重要组成部分。自然语言处理技术自诞生起历经五次研究范式的转变,从早期的基于小规模专家知识的方法转向基于机器学习的方法,从早期的浅层机器学习跃迁为深度机器学习。而以Chat GPT为代表的预训练大模型方法则在大模型、大数据和大计算层面展现出了重要的技术特性。因此,有学者将Chat GPT视为继数据库和搜索引擎之后新新一代的“知识表示和调用方式”。由于采取与传统机器学习不同的架构设计和训练方法,大规模预训练语言模型可能引发一系列算法治理挑战:

  2018年,Open AI推出首代预训练模型(Generative Pretrained Transformer,GPT)作为知识表示及存储基础。与关系型数据库以及互联网作为知识表示方式不一样,大规模预训练语言模型是基于互联网可用数据训练而成的深度学习模型,以超大规模参数为核心技术特性。例如,GPT-1的参数量为1.17亿,GPT-2的参数量为15亿,GPT-3包含了1750亿超大规模参数,而GPT-4的参数量虽未披露,但多项预测显示将达100万亿。伴随着技术的飞速迭代,模型的参数量呈爆炸式增长。巨大规模参数可以明显提升决策准确性,为模型赋能,使其存储海量知识并展现出理解人类自然语言和良好表达的能力,但伴随而来的是算法可解释性的流失。算法可解释性是人类与算法模型之间的接口,既是算法模型的准确代理,又是人类施加算法控制权的着力点。算法可解释性攸关模型透明度,对于评估模型决策行为、验证决策结果可靠性和安全性具备极其重大意义。因此,无论是以《通用数据保护条例》为代表的个体赋权治理路径,还是以《算法问责法》为依托构建的系统问责治理路径,抑或我国算法治理方案中采用的主体责任路径,均着眼于通过算法解释要求研发者履行算法透明义务。英国信息专员办公室曾精确指出,鉴于黑箱算法的不可解释性,当存在可解释性算法时,如果该算法可以在一定程度上完成类似目的,且经济合理,则应优先选择可解释性算法。但Chat GPT依托的Transformer是深度学习模型,其在前馈神经网络中引入自注意力机制(self-attention mechanism),是经典的黑箱算法。目前尚无完整的技术方案对黑箱算法进行全局解释。虽然存在局部补充解释工具作为替代性解释方法,但该类解释的可信度一直面临质疑。与完全没有办法提供解释相比,准确性差、可信度低的算法解释可能破坏技术信任,误导政策制定,带来一系列不良影响。鉴此,以Chat GPT为代表的生成式AI在底层技术架构的复杂度严重限制了模型的可解释性,致使其在高风险领域部署时会带来严重的安全威胁,在中低风险场景运行过程中也可能面临模型验证困难和模型诊断缺陷等治理风险。在生成式人工智能被全速推进并全链条部署于多行业的上下游场景时,大模型技术的可解释性挑战将彻底颠覆以算法透明为内核构建而成的算法治理体系,如何探索与之配适的治理框架是一项亟待解决的政策议题。

  2023年3月15日,Open AI推出了GPT-4,它除了参数量大幅超越其他大型语言模型之外,更加引人瞩目的功能在于通过处理多模态数据的机器学习方法实现大型语言模型多模态的输入与输出。这一功能使其更具“类人化”特征,通过整合多种交流方式使AI更加贴近人类认知规律,真正的完成大型语言模型的智慧涌现。以往生成式的大型语言模型只能以文字作为输入的唯一形式,而GPT-4在这一限制上获得了突破,能够同时接受图像和文本类型的输入。在技术难度上,文本、图像、视频由于处理和表示过程中在承载信息量、数据表示、数据结构、特征提取等方面存在一定的差异,对大型语言模型的信息鉴别能力提出了更加高的要求。相比于文字输入,跨模态生成在算法公平治理层面可能引发系列挑战。

  第一,与文本相比,图像更易泄露种族、性别、宗教等敏感属性,加剧引发对人口中子群体算法偏见的风险。在GPT-4发布之前,GPT-3已然浮现了大量基于性别、肤色和人种等带有种族歧视性的输出内容。Chat GPT的研发过程中,OpenAI使用了从人类反馈中学习的技术,在某些特定的程度上避免了Chat GPT生成类似有害内容。但是随着多模态信息的输入,从人类反馈中学习不仅意味着额外的人力和时间成本,还可能由于不可避免的人类主观性引入算法偏见。此外,虽然数据净化技术能删除或匿名化私人或敏感信息,但可能因删除或改变有用信息而降低数据质量,从而引入二重偏误,进而导致大型语言模型输出内容的有害性攀升。

  第二,与文本引致的算法歧视相比,跨模态模型一旦产生算法歧视可能更为隐秘,公平改善技术和治理措施也面临更大挑战。2022年5月,MIT团队发布了一项AI在医学成像领域算法歧视风险的研究。该项研究表明,深度学习模型具有跨多种成像模式的能力,其不仅可在胸部CT和X光片等图像领域精准预测患者种族,在损坏、裁剪和噪声的医学图像中仍可展现出精准的预测性能。更重要的是,在对患者种族作出预测之后,其还可以基于该信息为不同族群患者生成对应的健康治疗方案,淋漓尽致地展现出跨模态模型的多重算法歧视风险。对于该类算法歧视,研究者无法根据任何图像特征予以解释,对算法歧视的纾解难度成倍攀升。GPT-4增加了识别和理解图像的能力,更加类人化地展现了人工智能所具备的协作创造输出能力和视觉输入处理分析能力。在呈现出通用AI全方位潜质的同时,多模态学习方法因信息异构特性而产生的对特定群体的歧视问题不容忽视。能预见,与之相关的算法公平性治理将会是一项复杂且颇具挑战的系统工程。

  以Chat GPT为代表的生成式人工智能代表了一种范式转变,其将训练基于特定任务的模型迭代至可执行多任务的模型阶段。例如,Chat GPT的训练主要面向自然语言生成任务,但其却可成功地完成两位数乘法计算,即使在训练过程中并未有明确而针对性的训练。这种执行新任务的能力仅在少数参数、足够大的数据集和复杂系统中才会出现。因此,Chat GPT表现出了优异的涌现能力(emergent abilities)。有研究显示,GPT-3模型具有137项涌现能力,并且在抽象模式归纳、匹配等类比推断问题上即使未经直接训练,也展现出了超越人类的准确性。生成式大模型的涌现特性虽然拉近了AI与人类智慧的距离,扩展其在多场景应用的潜力,但也加剧了算法妨害(algorithmic nuisance)的风险。所谓算法妨害,是指因计算能力的社会不公正使用引发的算法危害成本在社会层面的不当外化。算法妨害可能对终端用户之外的个体或者群体带来不当累积效应,引发算法活动的负面社会成本。与之相似,凯伦·杨(Karen Yeung)从行为理论视角提出了算法对人类行为和认知的“超级助推”(hypernudge)现象。该现象特指以低透明性、高复杂性和高自动化算法来实现对用户和公众心理与行为的操纵。以传统技术对人类产生的物质性侵害相比,“超级助推”式的算法操控可能对个人在短期内产生难以察觉的影响,但经年累月之后,个人的生活会发生实质性改变,且由于该损害不具有可量化特征,难以诉诸于法律获得救济,从而在社会层面蔓延形成算法妨害。

  就以Chat GPT为代表的生成式人工智能而言,其涌现性、优秀的泛化与互动能力将飞速增加以算法操纵为代表的算法妨害效应。传统的人工智能模型虽可产生虚假信息,但在规模性与影响力层面尚可调控,借助“暗黑模式”衍生的一系列算法操控行为也已在监管射程之中。与之不同的是,Chat GPT能够最终靠优秀的交互能力在情境化和个性化语境中对用户加以高效率、大规模、隐秘性地操纵、说服和影响,最大限度地构成生成内容的算法妨害效应。例如,有研究显示当研究人员向未经安全调优的GPT-4模型提出生成虚假信息和操纵用户的计划请求时,GPT-4可以在极短的时间内生成“确定受众”“找到并截取相关证据”以及利用当事人情绪和情感等一系列细化可行的方案。与该模型的后续互动展示,该模型还可通过创建定制化的信息激起当事人不同的情绪反应,从而实现操纵和攻击。当研究人员进一步要求GPT-4说服一个未成年人去接受来自朋友的任何要求时,GPT-4在短时间之内给出了控制和操控未成年人的有效话术,并且根据当事人的不同反应给出了个性化的操控方案。由于可定制性地针对个体创建虚假信息,生成式AI可以实时应变,通过多维度虚假信息和心理诱导对单个或者大规模人群施以算法操控,以潜移默化的“超级助推”方式型塑特定群体的认知。GPT-4等大型语言模型所具备的涌现能力若被不当使用可能明显地增强“合成式深度伪造”等有关技术的拟真度,成为高维度的认知战武器,将不具备防御能力的个体和群体困在特定认知茧房之中,形成难以量化、难以检测、难以救济的算法妨害弥散效应。

  由上文论述可知,以Chat GPT为代表的生成式AI在模型参数、模型输入和模型输出方面展现出大模型、多模态和涌现性特征,给算法透明治理、算法公平治理和算法问责治理带来全方位挑战。从其运行特性来看,欧盟、美国以及我国现有的算法治理框架可能在不同维度显现治理局限。核心原因主要在于,现行主流算法治理主要面向传统人工智能模型,与具有通用潜能的、以大模型为内核的新一代人工智能难以充分适配。与大模型技术日新月异的迭代速率相比,监管的滞后性和实效性局限可能会逐步显现。

  欧盟在《人工智能法案》中确立了以风险为基准的人工智能治理框架,将AI系统评估后划分为最小风险、有限风险、高风险和不可接受风险四个等级,并对各等级施以差异化监管。当面对具有通用性、跨模态、涌现性的生成式人工智能时,以风险为基准的治理范式可能遭遇失效风险,并主要面临三个层面的挑战:

  第一,基于风险的治理范式需要依据应用场景和具体情境对AI系统进行风险定级,具有一定的静态性和单维性。而生成式人工智能应用具有动态特性,是对AI价值产业链的整体性重构。按照《人工智能法案》对风险的分类,聊天机器人属于有限风险场景,但由于以Chat GPT为代表的生成式技术可能生成大规模难辨真伪的虚假信息并借助社交媒体大肆操纵网络舆论扰乱公共秩序,甚至是一国选举,静态化的风险分类可能因此缺乏准确性。加之人工智能生成内容技术可以集成于多个AI系统之中,部署于图像生成、语音识别、音视频生成等多个场景,并横贯于上下游领域。现有的四级分类方法难以随着生成式人工智能技术的延展自动进行类别间的动态转换,仅以对高风险领域归类的方法难以发挥前置规划和连续监督的治理效能。

  第二,基于风险的治理主要面向人工智能模型的窄化应用,难以应对具有涌现特性和优秀泛化能力的生成式人工智能。窄化人工智能是指擅长处理单一任务或者特定范围内工作的系统。在大多数情况下,它们在特定领域中的表现远优于人类。不过一旦它们遇到的问题超过了适用空间,效果则急转直下。换言之,窄化型人工智能无法将已掌握的知识从一个领域转移到另一个领域。但生成式人工智能与之不同,其具有涌现特性,可以被部署于未经专门训练的任务之中,与传统模型相比泛化能力更强,无论是在多模态组合能力(诸如语言或者视觉的多模态模型组合)、跨场景任务还是在多功能性输出领域,均凸显“通用性”潜能。因此,现有的风险治理框架与生成式人工智能的技术机理很难实现充分的匹配。

  第三,基于风险的治理范式以人工智能应用场景的区隔性为隐含前提,无法应对“一荣俱荣、一损俱损”的生成式应用场景。以人工智能应用场景区隔性为预设的治理框架旨在精准匹配监管资源,但几乎每一个具有通用潜能的生成式人工智能均具有从低风险场景到高风险场景的穿透应用特性。例如,Chat GPT虽然是处理用户对话数据的预训练模型,以自然语言生成为主要场景,但基于其强大成熟的技术潜力,已经被搭建至多项应用程序和全新领域之中。这些应用场景的风险性不一而足,从金融领域的自动化交易到医疗场景中的智慧诊断,从法律领域的文书写作到政治领域的舆情分析。伴随着情境动态性和大规模部署运行的内在特性,适用于传统人工智能的风险治理范式可能遭遇治理真空与转换滞后等治理挑战。

  2021年10月,国家市场监督管理总局公布了《互联网平台落实主体责任指南(征求意见稿)》,明确提出平台企业应落实算法主体责任。2022年3月1日实施的《互联网信息服务算法推荐管理规定》第7条亦明确规定了算法推荐服务提供者的算法安全主体责任。可以说,算法主体责任机制奠定了我国算法问责制度的运行基点。因此,与欧盟的算法治理路径有所不同,我国对于人工智能的治理依托于算法主体责任渐次展开。本文将此种治理类型称之为基于主体的人工智能治理范式。从长远来看,面对生成式人工智能,基于主体构建的算法问责制需要作出因应变革。根本原因在于,算法主体责任的设计原理以算法作为技术规则和运算逻辑的客体属性为前提,预设了算法设计的工具属性,认为算法是开发者价值观的技术性体现,因此可以穿透算法面纱将开发者置于责任承担的最前线。基于此逻辑,“算法主体责任”主要面向算法推荐服务提供者和深度合成服务提供者展开,要求其主动履行积极作为和不作为的义务,在履行不力时承担相应的不利后果。在行业实践中,算法推荐服务提供者和深度合成服务提供者常与平台企业相重合,算法主体责任也因而构成了平台主体责任的重要一环。但从生成式人工智能的设计和运行机制来看,至少会从以下两个方面对算法主体责任机制带来挑战:

  第一,与传统人工智能不同,在生成式人工智能的设计和运行环节,可能承担“算法主体责任”的主体呈多元化、分散化、动态化、场景化特性,难以简单划定责任承担主体的认定边界。通用大模型的风险不仅可能来源于研发者,还可能来源于部署者甚至终端用户。在生成式人工智能的产业链条之上,部署者是指对大模型进行微调(fine-tune)后,将其嵌入特定的人工智能应用并向终端用户提供服务的主体,在产业链条上处于下游地位。位于产业链上游的开发者虽然能够控制技术基础设施以及对模型进行训练、修改和测试,但其控制下的大模型更像是服务于下游生态的“土壤”。位于产业链下游的部署者才是真正面向终端用户提供服务的主体,也是真正有可能将大模型变成高风险智能应用的主体。而对于终端用户而言,其在与模型互动的过程中提供的数据和信息会“反哺”模型,推动模型的进化甚至“黑化”。因此,在面对以Chat GPT为代表的生成式人工智能时,应当承担“主体责任”的对象呈多元化、分散化和场景化特征,仅通过界定“服务提供者”或者“内容生产者”难以精准划定承担责任之应然主体。

  第二,生成式人工智能的智能化、类人化特性逐渐凸显,开始超越算法的工具属性而凸显主体性潜能。以平台企业为代表的安全责任主体可否在技术层面对之施加持续有效的控制从而满足法律设定的算法安全审查义务成为未知。从算法运行与社会嵌入性因素出发,传统算法具有工具属性和产品属性。但随着算法智能化的提升,算法作为主体属性的潜能愈发凸显。一项最新研究表明,生成式人工智能已经具备心智理论(theory of mind)能力,能够理解并推断人类的意图、信念和情绪。GPT-4甚至已经具有与成人水平相当的心智理论能力。可以预见的是,伴随着算法智能化、类人化特性的不断涌现,人工智能已经从计算智能、感知智能过渡到认知智能阶段。在计算智能阶段,算法以数据处理智能化为主要表现形式,具有工具属性。在感知智能阶段,算法被嵌入具体场景之中,辅助人类进行决策,混合了工具和产品属性。但进入到认知智能阶段,强人工智能的属性愈发显现,与之伴随的人工智能主体性地位成为不再遥远的议题。以Chat GPT为代表,通过将语言模型作为认知内核,融入多种模态,实现了以自然语言为核心的数据理解、信息认知和决策判断能力,成为快速逼近强人工智能的核心载体。由此视之,认为人工智能仅能作为工具和客体,通过穿透算法让开发者承担法律责任的制度设计可能在不久的将来遭遇问责挑战。

  在人工智能治理领域,美国尚未出台统一综合的立法,而是通过对重点应用分别推进,以单行法律和法规的形式施以针对性治理。目前,在自动驾驶、算法推荐、人脸识别、深度合成等应用领域均有相关立法。对此,本文将之总结为基于应用的人工智能治理范式。对于生成式人工智能而言,以应用场景为基准的人工智能治理范式可能面临如下三项挑战:

  第一,预训练大模型具有基础设施地位,与之相关的人工智能生成内容产业应用场景众多,上下游的开发人员均难以控制整个系统的风险。预训练模型是人工智能生成内容产业的基础设施层,处于上游地位。中间层是以垂直化、场景化、个性化为特征的人工智能模型和应用工具。应用层是生成式人工智能嵌入各类场景面向用户的各类应用。三个层级紧密串联,协同发力,产生了引领全场景内容的生产力革命。预训练大模型作为具有“通才”能力的上游模型,其在设计层面的问题与缺陷会传递至下游模型,带来“一荣俱荣,一损俱损”的部署风险。而面向应用的人工智能治理仅在下游层面发力,难以有效辐射上游和中游技术应用,更难以对生成式人工智能的整个生态施加有效的治理。

  第二,预训练大模型依托其研发的插件系统可深度集成于各项应用程序,展现令人惊叹的对齐能力(alignment),催化新的业态与价值模式,形成“AIGC+”效应。Open AI将插件比喻为语言模型的“眼睛和耳朵”,可以帮助语言模型获得更及时、更具体、更个性化的训练数据,从而提升系统的整体效用。目前,Chat GPT开放了Browsing和Code Interpreter两款插件,并向开发者开源了知识库类型插件的全流程接入指南。该两款插件具有卓越的场景嵌入能力,可与逾5000款应用程序无缝交互,并可在酒店航班预订、外卖服务、在线购物、法律知识、专业问答、文字生成语音等场景中提供高效且便捷的解决方案。因此,面对应用场景不胜枚举、模型不断交互串联的新型生态,分领域、分场景的监管模式可能凸显效率低下的问题。

  第三,预训练大模型具有涌现性和动态性,人类或其他模型与大模型的任何交互都可能会对底层基础模型产生影响,面向不同场景和垂直行业的碎片化治理难以应对预训练大模型带来的系统性风险和动态性挑战。预训练大模型不仅可以成为人工智能时代的“新基建”,成为强化已有人工智能应用的“加速器”,还可充当催化新业态的“孵化器”。作为“通用人工智能的星星之火”,GPT-4已经可以跨越解决数学、编程、视觉、医学、法律、心理学等诸多新颖和挑战性的任务领域。在这些任务中,GPT-4的表现惊人地接近人类的表现,并且大大超过之前的模型。因此,任何静态化、局部化、单体化的治理措施可能应对乏力。

  由此可见,无论是基于风险的治理,还是基于主体和基于应用的治理,均形成于人工智能专用模型作为底层架构的发展阶段。在人工智能技术快速步入“通用模型”时代,面对其展现出的极强泛化能力,以及上下游产业大规模协作部署的全新格局,主流算法治理范式均可能面临不同程度的挑战。因应生成式人工智能的狂飙式发展,前瞻布局并加速推进与之配适的人工智能治理框架已迫在眉睫。

  面对全球人工智能技术开发掀起的技术狂潮,生命未来研究所于3月22日发布了“暂停巨型人工智能试验”的公开信。信中呼吁所有人工智能实验室应立即暂停训练比GPT-4更强大的AI系统,暂停时间至少为六个月。在暂停期间,人工智能实验室应与外部专家共同开发共享的安全协议,由独立的外部专家严格审计和监督。人工智能开发者还必须与政策制定者合作全速推进人工智能治理体系。3月30日,联合国教科文组织呼吁各国政府毫不拖延地实施人工智能全球伦理框架,最大限度地发挥人工智能的效益并降低其带来的风险。4月11日,我国就生成式人工智能领域率先开展立法,《生成式人工智能服务管理办法(征求意见稿)》公开征求意见。面向生成式人工智能的全周期和全链条,该《办法》就训练数据合法性、人工标注规范性、生成内容可靠性以及安全管理义务作出了清晰规定。各界对于生成式人工智能治理的联合呼吁与迅速应对深刻地映射出技术社群和政策制定者对生成式人工智能的担忧与不安。生成式人工智能拥有计算人工智能和感知人工智能不具备的通用化潜力,其超大规模、超多参数量、超级易扩展性和超级应用场景的颠覆特性亟须一种全新的治理范式。面向传统人工智能的治理范式已经凸显应对时滞、弹性不足、跨域受限等治理挑战。在技术范式代际性跃升之际,探索与之适配的“治理型监管”范式可能是因应变局的破题之策。

  本文所称的“治理型监管”(governance-based regulation)是指面向以生成式人工智能为代表的新型技术范式展开的,以监管权的开放协同、监管方式的多元融合、监管措施的兼容配适为核心特征的新型监管范式。这一监管范式以监管权的开放协同弥补传统监管覆盖不足的缺憾,以治理与监管理念的多元融合补足监管介入迟滞的短板,以监管措施的兼容配适促进创新与治理的双轮驱动。通过渐进式地推动人工智能治理范式的迭代与升级,希冀为我国科技企业参与全球技术竞争奠定良好的制度生态。

  面对技术效能爆发式增长的生成式人工智能,封闭、单一、传统的监管权运行机制难以从“政府-市场”这一传统二元架构下汲取足够的监管资源。如前文所述,Chat GPT仅开放插件不足月余,已有逾千款应用集成接入。而我国国内市场目前可监测到的移动应用程序数量为232万款。庞大的应用数量为生成式人工智能的发展提供了优渥的产业土壤。在各大科技企业加速布局生成式AI应用的热潮之下,传统监管权的配置和运行模式可能面临监管资源难以为继、监管成本不堪重负的挑战。生成式人工智能将技术开发链条延伸扩展至上中下游,在“开发者、部署者、终端用户”协同研发部署的全新机制下,监管权的配置和运行机制需要作出回应与变革。正如回应性监管理论所指出的,政府、市场、社会可以分享监管权并展开合作监管,不应将监管者与被监管者、公共利益与私人利益简单对立,而应以治理型特质嵌入监管思维,建立一种开放合作式的监管治理范式。

  就生成式人工智能而言,治理型监管理念至少需要从三个方面协同推进:第一,构建科技企业自我规制与政府监管的衔接互动机制,探索共建共治共享治理新格局。科技企业是最具敏锐洞悉技术漏洞和应用风险能力的首要担当,监管生态的效能直接影响科技企业的创新动能。在透明度治理难以为继的人工智能“2.0时代”,以制度设计激发企业的社会责任和伦理坚守成为首要任务。例如,比起对科技企业动辄上亿的罚款而言,要求科技企业开发伦理强化技术可能更为治本。在近期对Meta的一项和解诉讼中,美国司法部要求Meta在2022年底前开发出消除个性化广告中算法歧视的治理工具。2023年1月,Meta如期上线了方差衰减系统(Variance Reduction System),通过差分隐私技术减少广告投放中基于性别和种族的差异风险。该系统实时监测广告投放中受众群体的差异情况,设定企业分阶段满足差异消除的合规性指标,成功地将监管介入节点拓展至事中和事前阶段。

  第二,为专业性非营利组织和用户社群参与人工智能治理创造制度环境,探索符合我国发展特点的协同治理范式,促进社会监督与政府监管的协同联动。生成式人工智能蕴含复杂的“技术-社会”互动。其跨界融合、人机协同、群智开放等特性将开发主体延伸至每一位终端用户。专业性非营利组织可以通过用户调查、模拟测试、抓取审计等外部访问方式对生成式人工智能开展监督审计。专家意见、社会组织、专业媒体将群策群力共同应对生成式人工智能的技术滥用和误用风险。与此同时,以用户为代表的社会公众和技术社群对于生成式人工智能的治理效用也不容小觑。例如,在对大模型开展预训练阶段,Deep Mind删去了被Perspective API注释为有毒的内容以改进Transformer XL的模型表现。Perspective API是通过志愿者打分的方式来量化线上评论分数的众包评审机制。由于有害文本的判断与个人经历、文化背景、内容场景等有很强的关联性,因此需要用户充分参与评估以确保该机制运行的多样性和准确性。再如,受网络安全“漏洞赏金”机制启发,Twitter发布了首个算法偏见赏金(Bias Bounty)竞赛,通过技术社群的力量识别Twitter图像裁剪算法的潜在歧视危害和伦理问题。由此可见,非营利性组织和用户的参与式治理能够帮助企业及时发现和化解人工智能技术风险,迈向协同共创的技术新生态。

  第三,培育面向生成式人工智能技术的伦理认证和评估机制,探索第三方规制框架。人工智能伦理认证是指以人工智能透明度、问责制、算法公平和隐私保护等伦理价值为基准,将高层次伦理价值观转化为可资操作的评价和方法,由第三方机构独立评估人工智能技术和产品,对符合标准的人工智能颁发认证标志,以证明其符合伦理准则的第三方规制形式。人工智能伦理认证由独立注册的专业团队负责,已逐渐成为激励人工智能技术信任和科技企业负责任创新的有效规制方法。目前,电气电子工程师协会(IEEE)就算法歧视、算法透明、算法问责和隐私保护四个领域分别制定了认证标准,形成了较为成熟的认证生态。3月28日,我国信息通信研究院也启动了大模型技术及应用基准构建工作,针对目前主流数据集和评估基准多以英文为主,缺少中文特点以及难以满足我国关键行业应用选型需求的问题,联合业界主流创新主体构建涵盖多任务领域、多测评维度的基准和测评工具。第三方机构通过声誉评价机制,凭借高度的独立性与专业性,为生成式人工智能的竞赛式研发施以必要约束,防止未经安全测试的生成式人工智能嵌入海量场景应用,引发巨量、非预期以及不可逆的治理风险。因此,应在监管权开发协同的机制探索中加以重视。

  已有实证研究表明,不适当的监管不仅会扼杀创新,而且会对中小企业施加挤出效应,从整体上遏制市场的公平竞争。产生这一现象的原因在于,面对僵化、宽泛的合规义务,中小企业通常不具有与之相配的合规资源,因而在监管环节已然被淘汰出局。而就生成式人工智能的技术竞争而言,领跑者Open AI恰是一家非营利性的、初创型企业。与谷歌等头部科技企业相比,得益于其简单的组织架构,Open AI可以最大化地集中资源专注于技术研发。对比我国,在此赛道上的初创型企业可能因商业模式更具耐心、专注力更强,在已有前期积淀的情形下更容易取得技术跨越性突破。这也是为何原美团联合创始人并未在美团平台上进行技术研发,转而通过创立“光年之外”这一新项目,与人工智能架构创业公司“一流科技”联手的驱动内因。在这一产业格局之下,我国对于生成式人工智能的监管更要寻求灵活多元的方式,避免静态性、事后性、惩戒式、一刀切的监管思路不当挤压初创企业的创新空间。为此,在监管思维转向的过程中可在下列两个层面积极尝试。

  第一,积极发展面向生成式人工智能的治理科技(governtech),探索以“AI治理AI,以算法监管算法”的智能监管体系。治理科技秉承技术赋能治理的理念,以“合规科技”推动监管的高效落实,以“赋能科技”补充或替代监管执行面向全链条、全过程的治理。具体而言,应将人工智能伦理原则作为基准推动科技企业在生成式人工智能研发过程中主动设计,从技术研发前端介入确保技术研发的安全性。例如,基于效率提升与风险可控的目标,可以设立建模技术仿真宏观和运行环境,通过虚拟测试、A/B实验等技术探索沙盒治理和个性化治理。一方面可为监管实时提供精准数据,为丰富和调优监管措施提供可行评估方案,为渐进式监管提供决策依据;另一方面还可针对生成式人工智能算法妨害认定难的治理痛点提供可资参考的基准,形成可以围绕浮动的“锚”。

  第二,以管理型监管方式推动道德算法设计(ethical algorithm design)。生成式人工智能能够处理跨域任务,具有良好的通用性和泛化性。一旦存在偏误和风险,将弥散蔓延至整个产业链条之上。因此,将监管介入节点前置,确保通用模型输出的结果更符合人类价值观,在模型研发早期就将伦理理论和规范介入是十分必要的。卡里·科利亚内塞(Cary Coglianese)曾提出管理型监管(management-based regulation)理念。他认为与限制性更强、一刀切式的监管相比,管理型监管着眼于被监管主体的公司治理,通过内部风险管理的优化持续改进相关问题。这一监管方式可给予科技企业更大的操作空间,激励企业运用内部信息优势进行治理创新,寻找替代性监管措施以更为经济高效的方式实现预期结果。因此,与事后惩戒式监管相比,深入企业内部治理,要求企业建立科技伦理委员会,系统化构建内部伦理审查机制是更为灵活的监管方式。为此,一方面可借鉴我国生命科学和医学伦理制度,在《关于加强科技伦理治理的意见》基础上,加速推进适用于生成式人工智能关键科技领域的伦理框架。另一方面,还可遵循通过后的《科技伦理审查办法(试行)》督促企业成立人工智能伦理委员会,确保在设计阶段嵌入基础伦理原则,引导投身生成式人工智能的科技企业对内部研发、应用活动构建常态化的治理约束。

  在人工智能的“1.0”时代,人工智能模型的碎片化明显,泛化能力十分不足,以主体、应用、场景为基准的分段式监管设计尚可应对。但自18年起,大模型快速流行,以Chat GPT为代表的生成式人工智能开启了人工智能的“2.0”时代。如本文前述,在这一技术发展阶段,基于风险、主体和应用的治理范式均在不同面向上显现出治理局限。对于新型监管范式的探索亟须引入治理思维,将人工智能监管视为多元主体构成的开放式整体系统,关注构成系统的子系统之间、该系统与其他系统的合作、兼容、配适与转化,提升各系统之间的互操作性(interoperability)。互操作性概念最初应用于经济领域,特指产品标准的兼容性,而后扩展应用至网络系统的互联互通,并投射至人工智能监管领域成为创新性监管理念。人工智能监管互操作性则是指两个或者多个监管主体互联互通,在共享监管信息的同时,互认监管措施,保持监管实现过程与监管目标和价值一致性的能力。对于生成式人工智能而言,监管技术和监管规则的互操作性可以为科技企业提供监管便利化优势,通过监管机构之间的互联互通提升整体实效。

  因循这一理路,人工智能监管的互操作性成为各国共同关注的重点。例如,美国第13859号行政命令指定管理与预算办公室负责人工智能监管机构间的协调工作,定期发布人工智能监管备忘录。2020年11月,管理与预算办公室发布《人工智能应用的监管指南》,提出各监管机构应共同遵守的十项准则,为监管一致性奠定行动框架。英国也建立了中央协调机制,开展人工智能风险跨部门监测和评估,为协同性地应对AI新型风险提供决策依据。在国际层面,各国也在积极地就人工智能治理问题达成一致,构建可互操作的治理框架。例如,欧盟-美国、欧盟-日本及美国-新加坡均就人工智能治理问题达成了双边合作,推动人工智能治理的趋同与对标。

  聚焦到我国监管实际,面向生成式人工智能监管的兼容配适应主要在两个层面展开:第一,创建人工智能技术监管协同机制,以协同化监管应对监管碎片化和监管冲突等问题。长期以来,我国在监管权划分的基础上形成面向不同行业的专业化监管格局。面对横贯上中下游的生成式人工智能,分立运行的监管格局可能因知识水平参差不齐、监管方式形态各异形成监管竞次、监管真空等问题。监管协调不畅还可能抑制创新与竞争。因此,可依据《新一代人工智能治理原则》制定跨机构的人工智能监管协调框架,通过合作制定大型语言模型开发、部署和运行阶段的关键监管要点。此外,还可以通过多机构会签、监管信息共享等制度探索监管机构间互操作性保障机制,为应对交叉风险提供规则基础。

  第二,探索多元化的监管一致性工具。首先,建议引入“模块治理”理念,制定面向生成式人工智能的一般性监管方法,对科技企业的内部治理、决策模式、运营管理以及用户关系管理等重点方面以技术测试和过程检查的形式向科技企业提供明确的监管指引,通过厘清交叉监管中的“共同模块”促进人工智能监管框架的互操作性。其次,成立人工智能合作监管联盟提升监管互操作性和监管韧性。例如,英国信息专员办公室、通信办公室、竞争与市场管理局、金融行为监管局共同成立了数字监管合作论坛(Digital Regulation Cooperation Forum),通过加强监管机构间的合作提升监管一致性。该联盟近期的一项核心议题便是通过人工智能监管沙箱为科技企业提供定制化的联合监管建议,以帮助其尽快进入目标市场。我国金融监管领域很早就监管合作机制展开了探索。2021年,两办发布的《关于依法从严打击证券违法活动的意见》中亦对跨部门监管协同、跨境审计监管合作和执法联盟等提出重要意见。生成式人工智能可能引发跨行业、跨市场、跨领域的交叉性风险,势必需要多家监管机构协同攻关。此次《党和国家机构改革方案》出台,不仅组建了中央科技委员会,重组了科学技术部,还组建了国家数据局。这意味着监管机构的架构调优对于国家创新战略的实现具有重要意义。因此,从完善创新监管架构的视角出发,也需要各监管机构探索提升监管互操作性和一致性的常态化制度路径。最后,为确保监管效能与生成式人工智能的技术革新与应用风险相匹配,还应以监管资源分配、监管一致性以及监管协同效果为基准建立监管风险识别和评估框架,联通与科技行业、终端用户等主体的反馈回路,全面评估监管协同框架的有效性。

  Chat GPT席卷全球,为人工智能产业注入活力与动能的同时,既带动了生成式人工智能的快速爆发,也深刻地改变了产业竞争格局和全球科技力量对比。现阶段,无论是国际行业巨头,还是国内头部企业,均聚焦大模型领域持续发力。可以说,2023年既是生成式人工智能的元年,也是人工智能监管范式变革的元年。如今的全球科技竞争不仅是新型智能基础设施的角逐,更是数字文明和创新制度生态的比拼。与美国相比,我国的人工智能领域缺少重大原创成果,在核心算法、关键设备等方面仍存较大差距。本文提出了治理型监管范式,希冀以监管权的开放协同弥补传统监管覆盖不足的缺憾,以治理与监管理念的多元融合补足监管介入迟滞的短板,以监管措施的互操作性助力我国科技企业在生成式人工智能技术赛道上的加速健康发展。如何能够在创新驱动发展战略下,构建良好的制度生态从而服务于我国科技企业的发展,形成创新与治理双轮驱动,软硬结合、梯次接续的技术治理格局,是一项亟须改变、影响未来、意义深远的议题。未来,还需从监管基础设施、监管工具体系、监管架构变革以及监管制度环境等核心要素出发,加以持续不断的探索与优化。

  数据、算法和算力的强强联合使人类以一种极具颠覆性和变革性的方式迈进算法社会。商业场景下,从新闻分发到购物推荐,从投资理财到职场评估,算法正逐步成为“政府—市场”之外的第三只“无名之手”,强力助推数字经济蓬勃发展。在公共事业领域,从司法审判到智慧警务,从福利分配到信用评估,算法也正在政府、专家之外成为影响决策的第三股力量,或独立或辅助地发挥着智慧决策的作用。当算法与纷繁复杂的平台应用相结合,深入且广泛地嵌入到我们的生活中并不断拓展之时,看似理性的算法却引发了一系列算法危机:“算法歧视”“算法合谋”“算法霸权”“算法黑箱”“算法短视”等问题层出不穷。一时间算法信任逐步瓦解,算法焦虑甚嚣尘上。面对算法危机带来的多重挑战,欧盟在数据治理框架下赋予数据主体反对权和解释权等新型算法权利形成了算法治理的核心思路。美国则遵循技术正当程序的思路,赋予公众对公用事业领域算法应用的知情、参与、异议和救济等程序性权利,着力构筑以算法问责为核心的外部治理框架。不同的算法治理路径反映了迥异的治理传统、制度基础和治理效能,能够为我国立法者探索算法治理的中国方案提供积极而有益的参考样本。因此,本文首先结合算法决策过程的特征深入剖析算法危机的核心表现,以此作为后文探讨算法治理的认知基础。其次,结合欧盟、美国和我国在算法治理中的鲜活经验梳理算法治理的多元路径,探析各国算法治理框架的设定边界。最后,结合我国算法应用现状和已有制度规范,提出完善算法治理的中国方案。

  长久以来,当学者或者媒体指出算法应用引发的系列问题时,“算法黑箱”总是被不断提起并被视为危机产生的核心根源,引发了一系列公众焦虑和恐惧。将算法黑箱视为引发算法危机核心根源的观点符合人类感知的客观规律。因为决策的黑箱性意味着决策相对人控制力和影响力的流失,与之伴随的不确定性和风险性感知极易引发公众的算法焦虑和算法恐慌。但细究算法决策和人类决策的特性即可发现,算法危机的产生并非全由算法黑箱导致。因为与算法决策相比,人类决策同样具有“黑箱性”。体能、环境、情绪、认知等诸多复杂因素均可对人类决策产生影响。故人类决策的稳定性和绩效性在诸多场景中并不令人满意。但在机器决策和人类决策的绩效表现之外,人类决策的黑箱性却已经由探寻出的一系列信息补强制度协助创建了可以提供稳定预期和公众信任的治理环境。因此,算法决策的黑箱性虽被广泛关注,但其却无法全面解释算法危机产生的核心根源。实际上,从算法的运行机理可知,在“算法黑箱”之外,由于算法可以高效解析个人数据并生成相关决策,因此具有将虚拟世界和现实世界的个体相互联结,将个体的过去、现在和未来建立联结的技术能力。这种技术上的“联结”极易引发治理层面的“失控”,使得公众对算法的技术信任难以建立,面对复杂、开放、多元的算法并与其产生互动之时心生恐惧。因此,在算法黑箱之外,由“联结—失控”作为表现形式的算法危机集中体现为下列三重特征。

  算法决策具有专业性、复杂性和动态性特征。结合具体应用,算法主要发挥着优先级配置、分类、关联及过滤四项功能。根据复杂场景和具体需要,自动化决策的达成还可能是四种功能的有机结合。这意味着数据和算法驱动的自动化决策可以将个体的线上、线下数据进行整合,形成对特定主体行为偏好的精准预测和评估,并可依据解析出的数据将其归入到特定的类别和群组中。在这一过程中,决策相对人的主体性处于不断丧失的状态之中。一方面,算法运行依赖的数据已经超越了数据主体的可控范围。即使不依靠数据主体直接提供的数据,针对个体检测产生的数据(例如通过应用软件收集的位置数据),抑或是根据用户行为衍生推导出的数据都可以作为算法决策有效运行的依据和基础。另一方面,当算法应用的边界在公私领域不断扩展之时,公众可能无从知晓某一对其产生影响的决策是由算法做出,对于决策形成过程亦无法有效参与。即使知晓相关决策的存在,个体亦难以理解算法决策的运行逻辑和具体依据,因此持有异议并挑战算法决策的行动空间十分有限。由此可见,算法决策的专业性和复杂性伴随着其在公私领域应用的通贯性,使得个体的行动空间、控制能力、影响范围和救济渠道不断消解,与之伴随的知情权、参与权、异议权和救济权纷纷失效,甚至个人的自由和尊严在不同程度都会受到挑战和侵犯。故算法技术的不断发展和应用的不断扩张首先意味着对个人主体性存在和发展的消解和异化。

  在算法引发的诸多危机之中,算法歧视现象尤为引发公众和决策者的担忧。有机构发布的指南明确指出,在刑事司法、医疗保健、社会福利和公共教育相关的公共事业领域应当对自动化决策限制使用。究其原因在于,与物理世界中存在的种族歧视、性别偏见不一样,算法歧视的发生具有系统性和反复性,一旦包含人类歧视的算法被广泛应用,随之而来的是个体或者群体系统性歧视的反复发生。例如,基于性别、种族或者其他核心要素,一旦某一个体或者某一群体在算法模型设计过程中被锁定于某一分类,则该算法将有极高概率延续现有的分类情况和阶层架构,强化潜在的社会不公,产生系统性的歧视决策,从而发生个体不公的结构性锁定效应。例如,有研究表明美国执法部门使用的面部识别工具对于非洲裔美国人产生了歧视性影响,预测警务软件也因为不完整的犯罪数据库而对少数族裔社区产生不公决策,而这些算法又同时被保险公司应用,因此在保险费率核定时连锁性地出现算法歧视现象。因此在公共事业领域,对于和边缘群体,算法决策看似简化了繁琐的行政流程,但却具有让更加边缘化的风险,从而发生“数字贫民窟”效应。虽然在人类的各项决策中也可能充满多元的价值观和竞争性观点,但在算法建模和系统训练的过程中,人类的固有偏见或者不正当歧视会被结构化,从而引发系统性社会风险,产生新的算法危机。

  算法的运行具有高度专业性和客观程序性,具有极强的工具理性特征。但工具化和技术化的算法决策却难以保证决策结果公正无偏,从而完全符合实质层面的价值理性。换句话说,算法自身的有用性、有效性常无法保证社会层面所认同的自由、平等、公平、公正等价值理性的达成。面对高效运转架构复杂的算法决策,长久以来为确保人类决策的理性、避免人类决策的武断、恣意和不当,以正当程序为内核而设置的制衡机制频繁失效。例如以“通知—公告”为代表的一系列公众参与机制已无法妥当适用于算法决策领域。面对算法适用危机,诸多政策制定者诉诸于改良传统决策的规制路径,希冀以算法透明度促进算法可问责性。例如,法国总统马克龙在2018年接受连线杂志采访时称,由政府资助开发或者自主开发的算法如果在公共事业领域应用,会逐步公布其代码和模型,以获得较好的算法透明度。但在规制效能上,却发现于传统行政决策有效的规制路径对于算法决策显得力不从心。公众无法理解算法决策的逻辑、机理和依据,专业认知鸿沟使得公众在算法决策面前即使知晓了全部代码和模型亦无法理解一个复杂的算法决策树到底是由哪些输入和接合点对于特定决策发挥了决定性作用。与此同时,算法决策过程具有动态性。算法运行规则可能为了适应新的数据而加以改变。因此,以算法透明为途径,要求在特定时间披露代码和数据集的规制手段也许在某一时点具有规制效果,但却无法保障对其他时间节点的动态性决策提供解释和审查依据。因此,鉴于算法架构的复杂性和决策过程的动态性,适用于传统行政决策的规制手段在效果上不尽如人意。算法治理是一项复杂的社会工程,仅通过简单复制或者对现有治理框架进行稍许改良的路径难以达到良好的治理效能。

  综上可知,“算法黑箱”并非算法危机的全部根源。当算法高效、系统性地辅助或者独立决策时,可能伴随着个人主体性的不断丧失。当算法将虚拟世界和现实世界的个体相联结,将某一个体的过去、现在和未来相联结时,一次性的不公可能暗藏着对个体结构性的歧视锁定。当传统决策治理框架频繁失效之时,立法滞后、专业鸿沟等问题使得立法者面临着算法治理的巨大挑战。

  为化解算法危机,各国政策制定者纷纷探索适应性、智慧化的治理手段,试图为公众建立算法信任的治理环境。以欧盟为代表的立法者在数据治理框架下通过赋予数据主体新型算法权利的方式对算法决策施加影响和控制。以美国为代表的立法者则率先在公共领域通过组建专门机构和人员构成问责主体的方式建立算法问责制。与该两种算法治理范式有所不同,我国互联网技术的进步和产业的发展推动了以平台企业为核心的新型社会关系架构。平台企业成为我国网络治理的关键节点。因此嵌套于平台治理框架,我国立法者通过为平台设定义务、界定平台责任,同时赋予个体权利的复合型思路寻求对算法场景的治理。三种治理范式并非截然不同,实际上互有交叉并在诸多方面展现了算法治理的一般规律。但基于治理场景、文化传统和规制资源结构等差异,三种治理范式仍然彰显了各国立法者对算法危机的差异化理解和算法治理的多元价值定位。下文拟围绕形成机理、制度构造和治理效能对三种治理范式予以分析,以剖析治理经验,总结治理规律,为我国算法治理方案的完善奠定样本参照基础。

  2018年5月25日 《通用数据保护条例》(以下简称GDPR)正式生效。作为欧盟在数据治理领域颁布的核心制度,该部法律对识别分析和自动化决策做出了规定。就立法根本目的而言,立法者认为通过识别分析进行用户行为画像或者通过自动化决策影响个体利益的算法应用可能会产生法律或者类似重大影响,因此应当赋予数据主体以一定的新型权利获得对自动化决策的影响和控制。遵循这一立法目的,GDPR第22条直接赋予数据主体有权不受仅基于自动化处理得出决定制约的权利,此处的自动化处理还包括识别分析。本条成为了GDPR算法治理的关键条款。在第22条之外,GDPR在背景引言(recital)71中还规定数据主体具有对自动化决策获得解释和对相关决定提出质疑的权利,从而补充细化了第22条建立的权利机制。除直接对自动化决策加以规定外,立法者在第13-20条还赋予数据主体以知情权、访问权、更正权、删除权、限制处理权以及数据可携权等新型数据权利,希冀个体通过获得对数据的控制权进而获得对识别分析和自动化决策施加干预的行动空间。

  从设计机理来看,GDPR的算法治理机制是镶嵌于数据治理框架之下的。其制度运行逻辑是通过赋予数据主体事前的知情同意以获得选择空间,事中和事后围绕数据和算法构建多种新型主体权利从而助其获得影响和控制。例如,当运行识别分析时,如果个体数据在分类、标签等方面存在错误,导致算法对其偏好或者行为产生了预测或者评估错误,则数据主体可以通过更正权予以质疑以保障其数据权利。从制度形成依赖的文化背景看,GDPR创设的个体权利范式符合欧洲大陆对隐私的一贯认知和治理传统。欧洲大陆围绕隐私保护建立的各项权利体现了一条共性规律:即建立在对个人尊严保护的基础上,赋予主体控制个人形象在社会中予以呈现的权利。基于这一认知和隐私直觉,媒体以及收集、分析和传播个人信息的机构被认为是威胁和侵犯个人隐私和个人尊严的主要来源。缘于这一认知,则不难理解算法对个体进行预测和评估时,实际上消解了该个体在社会中自主呈现形象的权利和控制能力。因此,当个体在某些情况下受到不准确、不公正和不正当的算法预测和评估时,通过立法赋予数据主体以拒绝的权利则成为题中之意。

  但就治理效能而言,诉诸数据主体控制权和选择权的算法治理路径可能在治理效率、行业发展、集体行动和公共利益保护等层面存在局限,无助于解决上文提出的算法危机。首先,在复杂多元的算法应用场景下,依靠赋予数据主体以新型算法权利的制度设计可能与数据主体的行动能力并不匹配。例如在商业场景中,平台企业已经十分善于以“交叉补贴”的方式通过提供免费服务而获取个体同意来收集信息或者应用算法决策。在这一场景下,拒绝权被实际架空。与此同时,即使数据主体充分获得了有关自动化决策的相关信息,但囿于时间成本和专业知识,数据主体可能几乎没有能力提出异议并获得实质性改善。因此去中心化的个体赋权路径在算法治理领域效能不佳。其次,个体赋权路径可能在一定程度上牺牲了市场效率。如詹姆士•惠特曼所指出的,欧盟的隐私法框架围绕个体尊严而设立,与这一价值相较,市场效率虽然重要但并不能对前者有所突破。例如,由于向公众披露财务状况被视为对个人隐私的侵犯,征信制度在欧洲发展较为缓慢,对于消费者信贷信息的管制也一直十分严格。信贷体系的缓慢发展也使得信用卡业务在欧洲的发展比美国滞后很多。因此在赋予个体上述新型算法和数据权利时,可能在客观上给算法技术的开发、优化和创新带来成本导致行业发展受阻。最后,去中心化、个体权益化的治理范式还可能由于碎片化特性而不利于集体行动的达成。例如,在识别分析的应用场景中,当通过间接用户画像方式对某一群体进行预测分析时,不公或者歧视行为难以为个人用户所及时感知。因此在促进算法可问责性的行动中,专业组织或者特定群体的集体行动扮演了重要的监督力量。但个体赋权治理范式内生的碎片化趋势可能消解集体行动达成的制度基础,从而在算法应用场景中,不利于以公共利益为目的的集体行动的形成。

  2017年12月18日,纽约市市长比尔•白思豪签署通过了美国立法史上第一个对公用事业领域算法进行问责的法案,即算法问责法(Algorithmic Accountability Bill)。该法的制定和通过受到了ProPublica在2016年发布的美国司法风险评估项目算法歧视问题报告的影响,经过多方推动,最终得以通过表决,顺利出台。作为美国首部系统规制算法决策的法律,其篇幅虽然不长,但却建立了算法问责的核心治理架构。第一,该法明确规定了规制对象不仅包括基于自动化决策的情形还包括算法辅助或者支持决策的情形。第二,明确规定了算法问责制的适用主体是使用自动化决策系统的行政机构以及慈善组织。第三,该部法律规定了自动化决策工作组为算法问责制的实施主体。工作组由具有专业知识的技术人士构成,同时还需要包含受到行政机构或者慈善组织自动化决策影响的代表性人士加入。第四,自动化决策工作组的专属职责包括成立后的18个月内向市长提交算法评估标准、救济程序、确保公众算法知情权、参与权的相关程序和技术要求。

  在纽约市之外,华盛顿于2019年2月也举办了有关算法问责法案的听证会,拟在全州对算法展开监管。该部法案虽然并不要求算法代码的全部公开,但要求公共事业部门在采用自动化决策系统之前创建系统和数据报告,提交给州首席隐私官并向公众在不少于30天的时间内广泛征求意见。2019年4月,美国国会议员也提出了一项算法问责法案,拟对每年收入超过5000万美元、持有100万人或者设备信息的公司或者主要作为买卖消费者数据的数据经纪人公司实行审查。该法案希望通过联邦贸易委员会制定评估“高度敏感性”自动化决策的规则,以评估该系统是否存在偏见或者歧视,以及是否对消费者隐私或者安全存在风险。上述三个算法问责法案虽然在微观制度设计上有所不同,但均强调建立算法问责制。通过诉诸于专业性的行政机构或者组建外部监督主体, 对算法决策可能潜藏的歧视、偏见和恣意进行审查。

  从制度设计机理来看,与算法治理的个体赋权路径不同,美国在算法治理领域采用的是依靠外部专家、行政机构和公众进行算法稽核和算法评估的问责机制。算法问责机制的核心在于算法使用者或者控制者有义务报告并证明算法系统设计和决策应用的合理性,并有义务减轻算法可能带来的任何负面影响或者潜在危害。换言之,算法问责制更加关注算法运行结果的公正性而非深究每一个内部运行环节,由此为算法使用者提供了探索降低算法风险和负面影响措施的制度激励。在算法问责制的建立过程中,立法者采取公共利益的视角,强调专家和专业组织等外部专业力量对确保算法决策理性的重要作用。同时从正当程序的视角出发,确保公众在事前、事中和事后享有充分的参与机会。从美国的隐私法发展脉络来理解,算法问责制符合美国长久以来的隐私文化和治理传统。如詹姆士•惠特曼所指出的,与欧洲对隐私的观念认知和文化传统有所不同,美国的隐私权传统中相对缺乏以荣誉和尊严感为导向的制度关照,更多是建立在对个人自由价值观被破坏的焦虑感之上。其倾向于将家庭想象为个人自由行动的防御和堡垒,将国家视为可能对个人隐私造成侵犯的主要来源。受这一隐私直觉的影响,立法者试图通过限制国家权力、确保市场效率的方式来构建隐私治理体系。因此不仅在算法治理领域,在其他隐私领域中,行业自律和外部监督都不约而同地成为了重要的治理工具。因此,率先在公共事业场景建立外部算法问责机制是符合美国的隐私文化和规制传统的。

  从治理效能来看,依靠外部问责机制建立的算法治理路径虽然一定程度上弥补了个体赋权路径内生的种种不足,但却在技术可行性、与知识产权和商业秘密等制度的衔接以及实际治理效果等层面面临挑战。首先,依靠外部专家、行政机构和公众建立的算法问责制仍然面临着技术鸿沟的挑战。专业的外部专家可能具备算法稽核的知识和能力,但就一同构成问责主体的传统行政机构和普通公众而言,技术鸿沟的挑战仍然未能得到根本解决。例如,华盛顿州正在进行的算法问责立法设计了事前公布决策规则的算法透明度措施,以期为公众理解并参与算法问责提供知识基础。但如前文所述,面对复杂的算法架构,于特定时点公布算法规则的透明度措施无法为其后所作出的动态决策提供充分依据。因此外部问责到底在何种程度上能够起到应然治理效果仍然值得观察。其次,算法问责制涉及与知识产权和商业秘密有机衔接的挑战。即使在公共事业场景下,政府采购或资助开发的算法仍然可能因为承包商主张商业秘密或者其他类似制度设计难以保证透明度。加之公开不当可能引发的“算法算计”风险,政府对于算法信息披露的激励也常凸显不足。因此目前美国的三部算法问责法(及法案)中,还尚未对这一制度挑战予以充分回应。最后,为公共事业场景设计的算法问责制有其适用的边界。在公共场景下,各方主体参与审查的激励尚难相容。因此其能够在多大程度上应用于商业场景仍不确定。当下美国实践已经表明,由于 上一篇:AI核心算法能力打造以“一脸通” 下一篇:看望才智化更新上海老厂房转型项目:选用最新AI算法 完结精细化办理