薛澜、贾开、赵静 人工智能敏捷治理实践:分类监管思路与政策工具箱构建

来源于:新闻资讯 日期:2024-04-21 09:15:06 浏览:15次

  薛澜,清华大学苏世民书院院长、清华大学公共管理学院教授;贾开,上海交通大学国际与公共事务学院副教授、清华大学产业发展与环境治理研究中心兼职研究人员;赵静(通讯作者),清华大学公共管理学院副教授

  [摘要] 纷繁复杂的AI应用风险在带来监管挑战的同时,也让追求敏捷成为当前人工智能治理的共识性理念。但如何在具体路径、机制、工具上实现真正的敏捷监管尚缺乏系统的学理分析与实践指引。遵循科层体系运作逻辑的监管部门在克服制度张力和应对不确定性方面存在天然不足,实践改革因此普遍将“分类”视为一种适应复杂性与提升敏捷性的潜在思路。通过对AI多领域业态发展模式与技术创新规律的比较分析,以及综合人工智能各领域现有国际治理经验,本文构建了人工智能治理风险的关键分类维度及与之相适应的全谱系政策工具箱。研究试图为监管实践者提供一个合意的分类思路与政策工具组合指引,使监管实践可从产业特征标定分类治理对象,并在对应的政策工具箱中寻找政策组合。[关键词] 人工智能治理,分类治理,敏捷治理工具箱

  伴随人工智能的应用普及与风险涌现,人工智能治理已经上升为各国国内治理与全球治理的重要议题。[1][2]在此背景下,强调依技术发展与应用变化而调整治理手段和工具的“敏捷治理”理念,成为利益相关方的广泛共识。[3][4]作为一般通用技术,人工智能的应用多样性和广泛性不断挑战现实中的监管实践,尤其是以科层组织为核心的监督管理体系如何在执行层面克服制度束缚,敏捷应对新兴技术治理涉及的各类问题,[5]则成了当前监督管理体系改革与政策调整的重点。同时,人工智能敏捷治理改革的推进,不仅依赖宏观治理理念的切实转变,还需要中微观层面的理论探索与实践创新。

  近年来,全球AI治理实践呈现出重视“分类”的新趋势,即强调根据治理对象特征匹配以差异化的治理工具①。这一试图有明确的目的性地进行问题特征判断与分类解决的新趋势可被视为敏捷治理理念在中微观层面的重要实践之一。[6][7]其中,“分类”于“敏捷”的本质意涵在于:如果监管部门或业务主管部门能够识别不相同的领域中,AI应用风险类别的差异性,则可预先构建治理工具箱并准备相应治理工具,以提升治理的针对性和精准性,以此来实现某些特定的程度的敏捷应对。[8]但随之而来的问题是,我们应如何对人工智能发展应用所引发的风险与治理问题进行理论分类,每个风险类别的治理问题又应匹配哪些治理工具?当前全球已有一些零星的分类实践,如欧盟基于风险分类原则的《人工智能法案》,中国基于技术属性及其影响区域分类的《关于加强互联网信息服务算法综合治理的指导意见》。但这些分类的学理内涵尚缺乏解释,尤其是这些分类维度是否构成了完备且互斥的逻辑体系,能否涵盖人工智能治理风险的全部类型?对于以上问题的回答,都要求在理论上对AI分类治理框架进行建构。(① 欧盟《人工智能法案》的基本框架便是对AI应用风险进行分级分类,进而有针对性的匹配治理机制。作为全国人工智能领域的首部地方性法规,深圳市2022年11月1日施行的《深圳经济特区人工智能产业促进条例》第十条明确提出要“针对人工智能新技术、新产业、新业态、新模式等特点制定相应的监管规则和标准,实行分类分级监管”。作为人工智能治理的核心内容,算法治理领域也体现了类似特点。国家互联网信息办公室于2021年8月发布的《互联网信息服务算法推荐管理规定》提出,“应建立算法分级分类安全管理制度”。九部委于2021年9月联合发布的《关于加强互联网信息服务算法综合治理的指导意见》基本原则中,同样提出要“推进算法分级分类安全管理”。)

  本文基于“问题界定—对象分类—治理工具箱—分类框架”的分析逻辑,探索人工智能分类治理的理论框架。首先,本文以生物识别、智能推送、自动驾驶、智能医疗这四个当前相对成熟的AI应用领域作为案例,梳理其存在的治理风险,以界定分类治理所需解决的具体问题类型;其次,进一步在理论上提炼不同问题的共性,以作为对人工智能治理对象进行分类的理论维度;第三,基于不同类型人工智能治理问题的政策实践总结,在理论上提炼这些治理工具的共性,作为对治理工具箱进行分类的理论维度;第四,基于前两个步骤的分类总结,将治理对象分类与治理工具分类进行匹配,以最终形成人工智能分类治理框架。值得注意的是,本文的研究目标是理论建构,在方法上不仅仅只依赖理论演绎,而是通过政策实践与理论演绎的相互反馈、不断迭代,以最终形成人工智能分类治理的理论框架。在此意义上,对该理论框架的实证检验并非本文的研究目的,但政策实践与理论演绎的紧密结合也可在一定程度上支撑本文所提出理论框架的实践有效性。

  技术治理一直都是科技发展与社会风险的关注焦点,并被视为国家治理现代化的重要组成部分。[9]-[11]近年来,新兴数字技术发展应用风险的不确定性和动态性日益显现,学界相继提出规制治理(Regulatory Governance)[12]、实验主义治理(Experimentalist Governance)[13]、适应性治理(Adaptive Governance)[14]、预期性治理(Anti­cipatory Governance)[15]、协同治理(Orchestrator Govern­ance)[16]、敏捷治理(Agile Governance)[17]、试验性治理(Tentative Governance)[18]等新的治理模式和理念,并被广泛用于解释各类新兴技术的治理实践。

  其中,敏捷治理是新兴技术治理中的典范代表,并被视为我国新一代人工智能治理的新范式。[19]“敏捷治理”理念经由世界经济论坛提出后得到了不同学者的阐发与充实,如运用于新兴产业[20]、城市管理[21][22]、算法治理[23]、公共治理[24][25]等多个领域的治理理论探讨和实践改革指引。相比实验主义治理、适应性治理等,敏捷治理在强调不同主体广泛参与的同时,更加注重政策工具的快速反应和适应性演化,以及政府作为权威主体在其中扮演的主导性角色,[26]为实现这一目标,敏捷治理要求监管部门做出如下监管思路的调整:监管者与被监管者形成相互依赖的互动关系,对产业发展过程风险进行及时评估,采取引导性、指向性而非惩罚式、选择式的监管行为。

  在具体的政策实践中,将传统治范式转变为适应技术高速发展的敏捷模式的理念已深入新兴技术和产业治理的方方面面。例如,世界经济论坛的系列报告不仅提出了由监管沙盒、政策实验、政策“众筹”、自规制在内的“敏捷治理”政策组合,同时也在第四次工业革命、创新经济4.0的全球业态发展下讨论了敏捷治理的适用可能性。中办、国办颁布的《关于加强科技伦理治理的意见》、科技部发布的《新一代人工智能治理原则——发展负责任的人工智能》均提出要遵循“敏捷治理”原则,而在具体的人工智能算法治理领域,监管部门同样尝试了体现敏捷特征的“算法备案”“算法审查”等新型机制。多家跨国数字企业巨头也成立人工智能伦理委员会,将敏捷理念纳入其行业自治倡议之中。

  然而,敏捷治理的实践落地却并不容易。监管部门在治理过程中,寻找恰当的敏捷性与灵活性仍然面临诸多挑战。具体而言,在应对新兴技术时,政府在识别治理对象及其风险、权衡治理目标与治理工具方面仍然面临着信息不对称乃至“共同无知”的局限性。[27]发展与规制的内在张力也使得利益相关方难以真正实现协同共治、监管协调。[28][29]风险的“倒逼”和避责压力很容易导致监管出现敏捷治理和集中治理的急剧切换。[30]在此背景下,政策实践者亟需具有启发性的“操作手册”,而非宏大叙事般的“行动隐喻”,因此针对具体执行机制进行深入理论探索有着重要的实践指导意义。

  从理论层面对敏捷治理的概念、内涵和机制进行扩展,尤其是应用到技术治理情景下,学者们已经进行了多样化的初步尝试,如从不确定性角度对算法敏捷治理的概念做了理论延伸,探索敏捷监管的多类型政策工具和监管模式等。[31][32]在这些探索中,“分类”往往被视为敏捷治理理念的重要体现,或可成为拓展敏捷治理执行机制的重要视角之一。事实上,从分类角度进行治理是政府管理经济社会公共事务的一种重要且常见策略。具体而言,分类思路对治理理论的价值启发体现为三方面:第一,面对治理资源有限性的约束,分而治之有利于破解“一刀切”的治理混乱局面,典型案例例如信访分类治理。[33]第二,面对治理信息不对称、资源分布不均衡的约束,分类有利于激励、纳入多元主体以形成多元共治,典型案例例如跨界公共物品的分类治理。[34][35]第三,面对治理目标多元化的复杂性约束,分类有利于区分差异化的治理目标进而简化治理问题,如国有企业的分类治理。[36]但是分类思路尚未被系统引入新兴技术治理领域,亟待更深入的理论探索与实践推广,尤其是其如何与敏捷治理相结合还需要更深入的理论分析。

  随着新一代人工智能作为一般通用技术的普遍应用和风险的日益浮现,纷繁复杂的治理情形令分类治理的重要性与急迫性不断凸显,并逐渐受到实践部门和理论界的共同关注。然而,作为一种常见的治理思路,分类在相当长一段时间内都未被纳入各国人工智能治理实践改革。在人工智能快速发展的过去几年中,全球主要利益相关方在人工智能治理领域的实践努力主要可被概括为回应式治理、目标式治理、针对性治理这三条进路。

  第一,回应式治理是指以人工智能应用的影响结果为治理对象,从风险管理视角对人工智能治理提出流程性或实质性要求。如欧盟2021年发布的《人工智能治理法案建议》就对人工智能应用风险进行分级分类,并区分了禁止性应用和高风险应用,在界定其内涵的同时,针对高风险应用提出了程序性要求(认证、救济、责任、备案、登记等)、实质性要求(质量管理、信息披露、风险管理等)。但《欧盟立法者》并未给出人工智能的分类框架,而仅以列举形式指出关注内容。

  第二,目标式治理是指以前一阶段提出的人工智能治理理念或原则为起点,进而细化概念内涵、充实治理要求。如欧盟围绕“可信赖人工智能(Trustworthy Artificial Intelligence)”治理理念的衍生工作。2018年欧盟成立“人工智能高级别专家组(High-Level Expert Group on Artificial Intelligence,HLEG)”,发布《可信赖人工智能伦理原则》,提出“可信赖人工智能”理念。随后HLEG形成落实该理念的评估列表,并通过在线调研、企业访谈、专家意见等方式获得利益相关方反馈,以期最终形成治理框架。人工智能的开发应用者可以根据该列表问卷,自评估其是否达到“可信赖人工智能”的标准。

  第三,不同于前两种建构一般性治理框架的努力,针对性治理聚焦于垂直领域人工智能应用特点以提出特定的治理要求。伴随人工智能在各个行业、各个领域的深度应用,某些技术模式相对稳定、业态逻辑相对成熟、引发的治理风险相对明确的领域开始出现,针对该领域的治理需求也使得提出专门性、领域性的人工智能治理规则成为可能。例如,在自动驾驶、智能医疗、智能推送、生物识别等领域,各国均已形成较为丰富的治理规则和监管要求,并进而发展出了整体性的治理方案和战略。

  全球范围的实践改革在推动人工智能治理落实中扮演了积极作用。可以看出,无论是回应式的风险分级、目标式的指标细化,还是针对性的领域实践,均或多或少体现了分类治理的思路与特点。但这三条实践进路仍然存在不足。第一,人工智能分类治理的重要性虽已得到利益相关方承认,但仍然缺少具有扎实理论支撑的分类框架(或维度)。第二,一般性框架与垂直领域解决方案的结合还不够紧密,前者难以看到具体问题,而后者无法体现全局视野,使得能够结合顶层设计与领域实践的整体性治理解决方案仍然缺失。第三,相关治理规则和要求的敏捷性不足。人工智能技术发展及其应用的动态性,使得人工智能治理体系和机制的建构也应具备“跟随应对”乃至“提前应对”的能力,但当前改革探索尚未有所体现。尤其是当治理问题发生变化时,治理规则应该按照何种原则相应更迭,仍然是尚待探索的重要缺口。

  人工智能分类治理体系的构建是当前理论研究和改革实践的关键,也是实现敏捷治理的重要路径。特别对具有鲜明科层制特征的政府监管部门而言,合意的人工智能分类治理框架的提出,有利于监管者根据差异化的治理对象选择与之匹配的治理工具,从而提升治理的精准性、有效性,并逐步实现治理的敏捷性。具体而言,当监管者面对发展迅速的人工智能新技术或新业态时,其可先基于分类维度对被监管对象进行特征判断,在确定其所属类别的同时,选择与该类别相匹配的治理工具做出应对;当被监管对象发生变化时,监管者同样可以基于类别的调整来相应改变治理工具和策略,从而实现敏捷回应。

  本文将从以下两方面进行研究设计与实证梳理,并构建人工智能分类治理理论框架(见图1)。

  1.治理对象的分类研判。治理对象的差异性使得分类治理成为必然要求,但现实的复杂性又让按照何种维度划分治理对象成为理论研究的挑战。本文选择扎根分析的研究方法,基于人工智能发展应用的全球实践,“自下而上”地总结治理对象的分类维度。

  2.治理工具箱匹配构建。治理工具的匹配是分类治理的目标,只有对不同类型的人工智能治理对象匹配以差异化、针对性的治理工具,分类治理的价值才能得以体现。考虑到当前全球范围内已经在人工智能治理若干领域形成了丰富实践,研究将基于现有实践而对不同类别对象的治理工具箱进行总结迭代,以服务监管部门分类治理工具选择。在实证部分,研究选择了AI产业发展相对成熟的四个代表性领域(生物识别、智能推送、无人驾驶、智能医疗)以作为总结理论分类维度和探索治理工具箱的案例基础。

  围绕人工智能治理改革的讨论,大都以治理风险的识别为前提。然而,新兴技术创新的不确定性和动态性使得在理论上“自上而下”地界定风险类别面临诸多挑战。相比之下,基于现实情况“自下而上”地总结治理风险,是更可行的研究思路。本研究对生物识别、智能推送、自动驾驶、智能医疗四个领域各国出台的治理规范进行了文本扎根分析,基于类比和共性总结的思路概括了四个领域的主要治理风险,并在统合各领域涌现治理风险的基础上,进一步总结其共性(见表1)。

  1.生物识别领域的治理风险。一是技术应用侵犯公民隐私权利的风险。生物识别技术的基本逻辑是对指纹、面部、步态等不同类型的个人身份数据进行收集、处理、分析,并以此为基础识别、跟踪特定对象。考虑到身份识别数据属于个人信息敏感数据,技术应用过程或将产生侵犯隐私风险。二是技术应用引发数据安全的风险。不同于隐私侵犯主要针对具体相对人,数据安全更加侧重整体性的集体安全或公共安全。大规模、普及性生物识别技术的应用可能累积海量个人敏感信息,而这些信息又往往通过集中存储的方式加以备份或利用,由此带来的集中风险点便可能因为管理不善或黑客攻击等影响公共安全。三是技术应用的歧视风险。生物识别技术应用的最终目的是为特定相对人提供差异化服务或鉴定,很容易因违背公平、平等理念引起歧视问题,这在公共服务、银行信贷、健康保险等领域凸显。四是长期技术应用中产生的社会伦理风险。与数据隐私、数据安全、数据歧视等具有明确相对人并对其具体权益产生影响的治理风险不同,社会伦理风险并不针对具体问题,而是指在长期应用过程中可能影响社会价值理念或造成社会结构变迁的治理问题。这在生物识别领域主要体现为因技术普及而可能导致的全面监控或人的自主性的削弱。

  2.智能推送领域的治理风险。一是依赖用户画像的智能推送技术应用可能侵害相对人的隐私权利。智能推送技术的应用基础是基于用户个人行为数据(例如行为偏好)对不同用户精准画像,而当不能直接获得个人行为数据时,该技术往往依赖个人属性数据以间接推断其行为偏好,这将直接侵犯个人隐私权利。二是对于个人数据的累积可能造成数据安全风险。特别是当智能推送技术被广泛应用于新闻信息或内容媒体领域时,其可能因为掌握海量用户的阅读习惯,或者舆论场域的信息流动特征而成为被攻击对象,并对数据安全乃至国家安全造成影响。三是对不同用户产生歧视并导致治理风险。如在电子商务或服务领域,向不同用户推送不同价格的商品或服务会造成“大数据歧视”问题;在媒体资讯领域,向不同用户推送差异化的就业信息会影响(加剧)社会就业结构的分化。四是在长期应用过程中可能带来的社会极化、回音壁效应、“信息茧房”等社会伦理风险。

  3.自动驾驶领域的治理风险。一是将自动驾驶汽车视为“产品”或“服务”的质量安全风险。自动驾驶汽车质量检查监测环境的建设、质量标准体系的形成、质量检查流程的确立等,都是针对该问题而展开的治理探索。二是因自动驾驶汽车事故而带来的责任追溯与责任分配问题。自动驾驶汽车的事故责任治理不同于传统汽车。技术不可解释性对责任原因追溯提出了新的挑战和要求。当前各国围绕重构保险体系、全过程风险信息记录、事故信息共享等议题的讨论均可被视为试图解决责任追溯和责任分配问题的治理探索。三是自动驾驶汽车在运行过程中不断收集用户(包括驾驶者和乘客)数据或行驶环境数据而产生的数据隐私权利侵害或数据安全风险问题。四是自动驾驶汽车作为新业态的合规性风险。在既有法律制度框架尚未针对自动驾驶新业态作出调整之前,自动驾驶的研发、测试、运行都将面临因突破规则而可能引发法律后果的治理风险。开放路段是否允许无人驾驶汽车上路、交通灯或其他道路感知系统是否允许自动驾驶系统的反向控制等都是具体表现。

  4.智能医疗领域的治理风险。一是产品或服务的质量安全风险问题。医疗影像识别系统的正确率、人工智能医疗器械软件更新的及时程度、智能诊断意见的合格率等都是衡量智能医疗产品或服务质量是否满足功能性需求的重要指标。二是产品或服务使用者及应用环境的标准与规范建设问题。智能医疗产品或服务价值的发挥需要以特定环境条件作为前提,尤其是使用者以及配套环境要求①。三是产品或服务出现事故时的责任追溯与责任分配问题。智能医疗产品或服务本身的质量问题,或者使用者及应用环境的不合规问题,都可能导致出现事故责任风险。人工智能不可解释性挑战和牵涉更为广泛的使用者及应用环境问题都使得责任治理显得更为复杂。四是收集并利用医疗影像及用户诊疗数据过程中造成的隐私权利侵害或数据安全风险问题。鉴于个人健康信息是高度敏感的隐私信息,这一治理问题尤为重要。五是应用过程中对不同群体用户造成差别对待的分化与歧视风险问题。当前智能医疗的重点并不是针对基于个体的精准产品或服务,而是在大规模数据集基础上的功能完善,但因数据集缺失某些疾病特征而导致此类疾病难以被识别或诊断,在社会层面则表现为分化与歧视问题。(① 这既是源于医疗领域的专业性,也是因为人工智能在医疗领域的应用主要体现为对于局部功能或流程的提升,而非整体性、全流程的替代,因此智能医疗产品或服务需要与其他环节相配合才能发挥效用。)

  基于生物识别、智能推送、自动驾驶、智能医疗四个领域治理问题梳理和风险总结,本研究将不同领域差异化的人工智能治理风险归结为“技术风险”和“业态风险”两类。

  1.“技术风险”关注人工智能技术、产品或服务本身的风险。具体包括人工智能在功能上能否达到特定目标或标准的功能性风险问题(例如智能医疗产品质量安全问题),以及本身功能的设计或应用可能与既定社会价值理念相违背或冲突的价值性风险问题(例如生物识别服务的数据隐私侵犯问题)。

  2.“业态风险”关注人工智能技术、产品或服务应用过程中的关联系统、环境及行为主体所产生的风险。具体包括AI应用“事前”因环境或使用者不满足特定条件而可能导致的治理风险(例如智能医疗产品不合格使用者导致的治理问题),“事中”因不合理使用而对特定主体权益或社会公共利益带来的短期或长期影响(例如生物识别影响个体自主性的社会伦理风险),以及“事后”如何在相关主体间分配事故责任的治理问题(例如自动驾驶的事故责任追溯与分配)。

  “技术风险”和“业态风险”这两类风险在本质上与人工智能发展应用的“技术驱动”逻辑和“业态驱动”逻辑密不可分。[37]部分人工智能发展应用以“技术驱动”为主,如通用性技术可被应用于不同场景以实现不同功能。举例而言,原理类似的生物识别技术可被应用于不同场景从而实现身份管理、公共服务、行业监管等多种目标,其治理风险更多源自因技术性能或功能不完善而导致既定目标(识别准确率、稳定性等)难以实现的问题。与之相对,部分人工智能发展应用以“业态驱动”为主,如特定的复杂应用场景包含不同类型的人工智能技术组合,可能在不同环节存在差异化的治理风险。例如图像识别、智能决策等多种人工智能技术被组合在一起以解决自动驾驶的场景需求,但应用过程中存在着责任分配、隐私侵害、公共安全等不同治理风险。

  基于人工智能发展应用基本规律和特征提炼的“技术风险”和“业态风险”,是协助监管者理解风险,并从实践层面将治理对象进行分类的重要维度。但是分类框架的建构还需探索两个维度的具体测度指标。尤其是在多样性的技术实现方式和业态应用模式下,我们应按照何种标准研判两类风险至关重要。本文提出两个具体测度标准:

  1.“数据特异性强弱”是人工智能“技术驱动”逻辑下的技术风险分类指标。“数据特异性”主要是指基于该数据能否识别出个人身份。[38][39]①能识别出个人身份的属性或行为数据便称为“数据特异性强”,而不能识别的其他数据类型便被称为“数据特异性弱”。当前建立在机器学习及其衍生技术基础上的人工智能技术主要依赖海量数据,但不同技术对数据特异性程度的要求存在差异,而这也将引致不同类型风险。对于特异性强的数据,其包含了丰富的个人属性或行为特征,并因此可以挖掘出巨大的个性化服务价值,而其背后的技术风险便主要体现为对个人基本权益的影响或侵蚀(如数据隐私或歧视);对于特异性弱的数据,人工智能技术的研发应用并不依赖具有明显个人标签的属性或行为数据,而是依托大规模的环境数据或标注数据并从中提炼群体性特征,与此相关的治理风险因此主要源于处理数据的算法系统设计与方法选择。(① 已有研究提出了类似概念,例如“数据伴生性”、“数据敏感性”等。不同理论概念虽然内涵相近,但因为讨论主题不同,仍然存在一定差异。例如“数据伴生性”是基于数据产生主体的属性来进行分类,进而讨论数据资源的确权问题,其涵盖自然数据、社会数据、行为数据等多重内涵;“数据敏感性”主要围绕数据引发的法律风险而展开,包括安全风险、隐私风险等。本文聚焦基于训练数据而形成人工智能算法模型的技术风险,主要涉及损害个人权益的相关风险,因而更强调数据是否包含丰富个人信息的“特异性”强弱。)

  2.“系统自主性强弱”是人工智能“业态驱动”逻辑下的业态风险分类指标。相比于其他数字技术,人工智能的核心特征在于突破了“波兰尼困境”的束缚而实现了机器代码的自我生产,进而能够在诸多场景下代替人类工作。但是,计算复杂性和环境复杂性仍制约人工智能技术或系统对人类的可替代性。多种业态场景下的人工智能应用逻辑差异,事实上体现为具有不同自主性程度的人工智能系统的应用过程。具体而言,人工智能的“系统自主性弱”意味着其应用开发目的是以辅助人类工作为主。此时人类的自主性仍然占据应用过程的主导地位而系统在其中的自主性较弱。在界定好人工智能产品或服务功能标准的前提下,风险主要源于人类作为部署者、使用者的不确定性。与之相反,人工智能的“系统自主性强”则意味着人工智能算法或系统的应用旨在取代人类生产生活中的重复性、范式性工作,甚至替人类决策和行动。此时,人工智能算法或机器的系统自主性更强,人类的自主性难以在应用过程中占据主导。这一业态应用方式会潜在导致技术失控的风险加大,也是当前人工智能治理的重点关切,反映了人们对技术不确定性的普遍担忧。

  依据“数据特异性强弱”和“系统自主性强弱”的分类指标,本研究构建了分类框架,并形成了四种类型的治理对象。接下来本文将对这四种类型的具体内涵作出说明,并以生物识别、智能推送、自动驾驶、智能医疗这四个代表性领域为案例,揭示该分类框架的理论建构与现实实践的内在关联(见图2)。

  第I象限的类型特征是数据特异性强、系统自主性弱。该类型下作为被治理对象的人工智能业态,其主要依赖与个体特征密切相关的个人数据,且其应用逻辑以辅助人类工作为主,生物特征识别即可归于该象限。生物识别在技术逻辑上主要涉及海量个人身份数据的收集与处理,从而能够精准确认个体身份并在不同环境下加以应用。因此,在技术逻辑上体现出“数据特异性强”特征,治理风险也往往与个人权益的影响与侵蚀有关。同时,生物特征识别技术的多元化应用场景(身份管理、公共服务、行业监管等)多以辅助人(决策)的角色出现。尤其考虑到责任追溯和责任分配问题,其难以完全替代相关人的行为决策。治理风险主要在于相关主体的技术使用行为。

  第II象限的类型特征是数据特异性和系统自主性都强。该类型下作为被治理对象的人工智能业态,其依赖个人数据,且其应用逻辑致力于替代人以形成自主决策,智能推送可归于该象限。考虑到“信息过载”等现象的普遍存在和效率优化的现实需求,智能推送业态更多以替代人筛选信息、处理信息的角色出现,业态风险往往体现对技术或算法失控导致应用风险的担忧。智能推送在技术逻辑上非常依赖个体的用户画像数据,在不间断、广泛收集具有强特异性特征的个人属性或行为数据基础上,实现“千人千面”的精准推送,相关治理风险也由此出现。

  第III象限的类型特征是数据特异性弱、系统自主性强。该类型下作为被治理对象的人工智能业态,其主要依赖环境或人为数据而非个人数据,其应用逻辑则主要体现取代人决策的功能定位,自动驾驶可归于该象限。自动驾驶的目标旨在取代人作为驾驶员的角色和功能,技术应用中体现了较强的系统自主性。同时,尽管自动驾驶的技术实现需要个人行为数据(例如驾驶员或行人行为数据),但其目标只是基于个人行为数据的集合来识别出一般性群体特征,不需要精准识别个人身份以提供个性化服务,因此其技术逻辑并不依赖特异性强数据。

  第IV象限的类型特征是数据特异性和系统自主性都弱。该类型下作为被治理对象的人工智能业态,其主要依赖环境或人为数据,并主要以辅助人决策的功能定位而出现,智能医疗可归于该象限。由于医疗数据较为分散,且当前社会对于医疗领域的人工智能替代缺乏信任,二者都使得智能医疗侧重辅助并提升医护人员的能力水平,而非完全取代医护人员。同时,当前智能医疗产品或服务的重点并非定制化、精准化的个人服务,而是基于群体数据形成影像识别或辅助医疗诊断的技术工具。在此意义上,技术逻辑更关注算法模型的优化和提升,而非特异性强的个性化数据的整合与训练。

  需要指出的是,人工智能技术发展和业态应用是一个动态变化的过程而非一蹴而就的状态,本文对四个案例的分类定位并非绝对的。以智能医疗为例,当前该领域的成功应用主要体现为医疗影像识别辅助决策,其主要针对的是一类典型疾病的识别,并非特定个人或特殊性疾病的识别或诊断,因此我们认为其数据特异性还是低于需以个人识别为基础的生物识别领域,并将其归类于“数据特异性弱”。伴随着技术发展和业态变革,未来我们很可能迎来基于个人健康数据的个性化诊疗的普及应用,彼时其所属类别自然将被调整至“数据特异性强”象限。这也启示政策实践者,需要结合技术发展和业态应用阶段做出适应性调整,而这也正是“敏捷治理”的应有之义。但分类变迁并不代表本文提出分类治理框架的失效,而只是意味着针对该业态的治理工具和手段应该伴随着其所处象限的移动而变化。由此便引出了本研究关心的第二个重要问题,即与每类治理对象相匹配的治理工具的充实与完善。

  人工智能分类治理的基本理念是针对不同类型的人工智能风险,应匹配差异化的治理工具。考虑到治理工具更多来源于实践探索而非理论演绎,因此本文接下来将在前文治理对象分类的基础上,分别梳理各类型代表性案例所在领域的治理政策,并对其特征进行总结,以作为与该类型治理对象相匹配的治理工具。相关梳理工作发现,生物识别、智能推送、自动驾驶、智能医疗这四个代表性领域所采纳的治理工具的确存在差异,并在一定程度上体现了共性规律。

  第一,生物识别领域的治理规范体现了重视“个人数据治理”和“技术使用者与使用环境治理”的特征。在技术层面,针对生物识别技术发展和应用的治理规范涵盖了个人数据治理的各个环节。为提升生物识别训练数据的规模和多样性,美国国家标准与技术研究院建设了人脸识别测试数据库,且同时开发了生物识别通用交换文件格式以促进不同系统的兼容性。欧盟发布的《人脸识别指南》进一步提出人脸识别技术的开发者或制造商应落实动态管理要求,定期更新数据集以提升模型正确性。欧盟《通用数据保护条例》和美国伊利诺伊州出台的《生物信息隐私法案》都对生物识别数据的收集、处理、应用方式和范围作出了严格限定。为确保生物识别技术的公平性,美国《遗传信息反歧视法》特别规定了禁止性条款,以限制将个人遗传信息用于生物识别领域的行为。以《通用数据保护条例》为代表,相关治理规范强调了数据透明度要求,不仅要求生物识别技术的开发应用者应满足用户的知情同意原则,同时也要求数据保护的影响评估和风险信息需要与监管者分享。在业态层面,相关领域的治理规范都对生物识别技术的应用领域和场景提出了限定性要求。例如美国加州《身体摄像头责任法案》明确禁止警察执法部门在随身便携摄像头中进行人脸识别,从而限制了生物识别技术的应用环境。同时,生物识别治理领域多将产品或服务的开发应用者视为责任主体,例如《通用数据保护条例》即规定了数据控制者和处理者的默认责任条款。

  第二,智能推送治理体现了侧重“个人数据治理”和“系统治理”的特征。在技术层面,美国信息技术与创新基金会发布的《政策制定者如何推动算法问责》报告提出应采取程序性规制以确保算法结果的一致性和错误的可预期性,并通过多元方式(例如影响评估、误差分析、偏差测试)评估算法风险并采用多元机制(例如透明度和可解释性要求、置信度、程序规则等)确认导致风险的原因,而这些程序性规制和评测的关键都是维护个人权益。针对算法公平性问题,欧盟出台的《通用数据保护条例》及美国纽约发布的《算法问责法案》都对基于特定类别个人数据进行自动决策和分析的适用范围作出了约束和限定。在业态层面,智能推送治理较为明显地体现出聚焦系统本身而非关联环境的特征。例如《互联网信息服务算法推荐管理规定》明确对算法模型“禁止推荐”或“应当推荐”的内容属性提出了要求。《算法问责法案》和《算法透明性和可问责性声明》对算法运行过程中的算法审计、风险评估、动态调整作出了规定。新加坡《防止在线虚假信息与操纵法案》更为集中地注意到了智能推送算法本身的自主性特征,提出如果服务提供者出于公共利益并在合理谨慎的情况下不承担责任。

  第三,自动驾驶领域的治理规范体现了对于“非个人数据治理”和“系统治理”的侧重。在技术层面,现有治理规范主要体现了对于数据治理的关注和重视,尤其是环境数据。例如韩国《自动驾驶汽车商用化促进法》和德国《自动驾驶法案》均要求设立自动驾驶专区,通过限定自动驾驶汽车应用场景来确保路测数据的完整性。美国《为运输业的未来做准备:自动化车辆3.0》进一步提出了自动驾驶汽车数据库的建设标准。在业态层面,自动驾驶汽车现有治理规范主要针对系统本身提出了治理要求。例如考虑到新技术应用的不确定性,新加坡《道路交通(自动驾驶汽车)规则》要求自动驾驶汽车路测申请方应对测试目的、流程作出解释,而美国《联邦自动驾驶汽车政策》则要求定期审查自动驾驶汽车路测协议以使之具有迭代性和前瞻性。在自动驾驶汽车运行过程中,德国联邦参议院通过的《道路交通法第八修正案》对驾驶者接管车辆控制权的情形作出了规定,以试图明确“使用者”和“系统”的边界,从而有利于明晰事故责任。

  第四,智能医疗领域体现出对“非个人数据治理”与“技术使用者与使用环境治理”的侧重和偏向。在技术层面,智能医疗的现有政策规范尽管同样关注数据治理,但更多治理举措偏向算法治理。例如我国国家药品监督管理局医疗器械技术审评中心组织制定的《深度学习辅助决策医疗器械软件审评要点》、欧盟出台的《〈关于机器人技术的民法规则〉的建议(2015/2103)》中都规定制造方需证明智能医疗算法的功能和性能满足设计要求,并确保产品或服务应用过程中的更新维护合乎规范。美国出台的《基于人工智能/机器学习的软件作为医疗设备行动计划》直接提出了算法公平性问题,而我国发布的《医疗器械软件注册技术审查指导原则》则对不同安全性级别的算法提出了差异化的透明度要求。在业态层面,智能医疗领域的现有政策规范较为明显地体现出关注技术、产品或服务应用过程中关联系统、环境及行为主体的特征。中国出台的《人工智能辅助治疗技术管理规范(试行)2017版》及《人工智能辅助诊断技术管理规范(试行)2017版》、欧盟出台的《〈关于机器人技术的民法规则〉的建议(2015/2103)》及《医疗器械法规(Medical Device Regulation)》都明确对智能医疗设备的使用者提出了明确要求,包括其医疗经历、专业职位、团队资质等。同时,《人工智能辅助治疗技术管理规范(试行)2017版》还对智能医疗产品或服务的使用环境和适用范围提出了前提性要求。针对责任问题,欧盟、中国、新加坡等国都明确将智能医疗设备的制造方和使用者视为责任主体,而欧盟《〈关于机器人技术的民法规则〉的建议(2015/2103)》还进一步明确了通过“与机器人的实际操作水平及其自主程度成比例”的责任大小分配原则。

  基于上述梳理,不难发现各领域在技术维度的治理工具可被概括为围绕功能性目标和价值性目标而分别展开的政策设计,前者涵盖稳定性、正确性、效率性等议题,而后者包括隐私性、公平性、透明性等;同时,针对数据特异性强、弱等不同类型人工智能治理对象,现有政策实践在以上各议题点也体现出了差异性的治理工具选择。另一方面,各领域在业态维度的治理工具可被概括为针对事前、事中、事后三个阶段的政策设计,分别聚焦产品或服务的准入要求、风险信息的处理、产品或服务的责任分配等具体议题;同时,针对系统自主性强、弱等不同类型人工智能治理对象,我们同样发现了现有政策实践的差异化治理工具选择。相关总结可参见表2、表3,而这也构成了人工智能分类治理的指导框架。

  人工智能分类治理理念在近年来得到实践层面认可的同时,仍然面临着如何落地的挑战,这也因此倒逼了人工智能分类治理维度与框架研究的理论探索。以此为起点,本文按照“问题界定—分类框架—政策工具箱”的分析思路,提出了人工智能分类治理框架及其匹配的政策工具箱。首先,“问题界定”梳理了不同领域人工智能应用出现的治理风险并总结问题的关联与差异,以明确人工智能治理所要针对的对象,研究认为应从技术风险、业态风险两个维度进行问题审视。其次,“分类框架”主要探究导致人工智能治理风险的内在逻辑,为可迁移、可参考的治理方案设计提供论证支撑。围绕技术、业态两个维度,文章分别提出应按照数据特异性强弱、系统自主性强弱为测度标准以对AI作为被治理对象进行分类。最后,以四个类别的现有治理规范为事实依托,梳理与每个类别相匹配的政策工具,本研究最终形成了人工智能分类治理的政策工具箱。

  有必要注意一下的是,考虑到人工智能技术发展和业态应用本身的动态性和不确定性,人工智能分类治理框架仍然可能面临三方面的未来变化。第一,生物识别、智能推送、自动驾驶、智能医疗等具体业态因发展阶段的不同而可能在本文所提出的分类框架间移动。在此意义上,本文的框架并不能被理解为针对上述四个案例的具体治理方案,而是基于案例所总结出的一般性框架。案例本身的治理逻辑可能发生明显的变化,但该框架仍然可能保持适用性。第二,伴随着人工智能底层技术或应用逻辑的变革,本文提出的分类框架可能需要发展或修正。例如,当人工智能不再建立在基于大数据的机器学习技术基础之上,而被因果推理、符号学派等其他技术路径所取代时,“数据特异性强弱”自然不再适宜作为技术维度的测度指标。但即使如此,本研究基于各领域案例实践扎根分析而形成的“技术-业态”人工智能分类治理框架仍然可能作为未来讨论的基础。事实上,相关研究围绕人工智能推动行为科学[40]、创新生态[41]、公共管理与政府治理[42][43]等不同领域范式转变的分析思路,也大都围绕这两个维度展开。在分类框架不会出现本质性变化的前提下,根据治理问题、治理需求变迁而在分类框架内移动,或者对分类框架的测度指标进行渐进式修正,仍然符合“敏捷治理”的原则和理念。第三,本文从技术与业态两个维度提炼的人工智能分类治理框架,大多数表现了中微观层次的分析视角,尚未纳入制度(例如监管制度传统)、文化(例如治理风险的社会包容度)等宏观层面相关因素的考量。这既是本文局限,也是值得未来研究进一步探索的空间所在。

  基金项目:国家社科基金项目“‘公地’视角下全球数字治理合作或冲突的影响因素与机制研究”(编号:23BGL244);清华大学自主科研计划项目“算法全球治理与分类治理的理论探索”(编号:2021THZWJC12);清华大学-丰田基金专项项目“未来市场监管智能算法模型、企业应对行为和潜在社会风险研究”

  清华大学人工智能国际治理研究院(Institute for AI International Governance, Tsinghua University,THU I-AIIG)是2020年4月由清华大学成立的校级科研机构。依托清华大学在人工智能与国际治理方面的已有积累和跨学科优势,研究院面向人工智能国际治理重大理论问题及政策需求开展研究,致力于提升清华在该领域的全球学术影响力和政策引领作用,为中国积极参和AI国际治理提供智力支撑。