周辉、金僖艾:英国人工智能监管实践、创新与借鉴-凯发登录入口

 周辉、金僖艾:英国人工智能监管实践、创新与借鉴-凯发登录入口

论文文章

当前位置: 凯发登录入口-凯发下载进入 -> 科研 -> 科研成果 -> 论文文章 ->

周辉、金僖艾:英国人工智能监管实践、创新与借鉴

发布日期:2024-01-30   点击量:

作者简介:周辉系中国社会科学院法学研究所网络与信息法研究室副主任、副研究员,中国社会科学院大学法学院副教授、硕士生导师;金僖艾系中国社会科学院大学法学院网络与信息法学专业2022级硕士生。

来源:全文请参见《数字法治》2023年第5期,转载或引用请注明出处。为方便阅读,省却注释。



一、引言


随着超大规模预训练模型的涌现、轻量化深度学习技术不断探索、生成式人工智能不断成熟,世界范围内人工智能技术飞速发展,深入金融、医疗、工业、交通、教育等各个领域。区别于纯粹的技术风险,人工智能风险的渊源是人工智能系统的应用对现有的规范体系以及伦理与社会秩序的冲击。对此,全球各国更加重视人工智能治理,纷纷出台人工智能国家战略,加速完善人工智能治理相关规则体系。

早在2016年,英国政府就将人工智能纳入国家战略,随后出台一系列报告从战略规划、科研投入、治理规则、国际合作等多个方面构建人工智能治理体系。随着英国全球范围内人工智能领域领先地位的稳固,英国聚焦人工智能监管问题,基于广泛定义、场景化治理、人工智能工具、标准化构建等实践,提出支持创新的人工智能监管框架。

本文希望通过对英国人工智能发展战略演进、监管创新趋势的深入分析,总结其特点与优势,汲取有益经验,以助力中国人工智能的创新发展和监管完善。


二、英国人工智能监管发展战略的演进



英国是人工智能的发源地,其人工智能产业正在蓬勃发展,在人工智能研发领域位居世界第三。2014年以来,英国在人工智能领域投资超过23亿英镑,拥有200多家人工智能初创公司。随着人工智能在全球范围内的发展,英国人工智能发展战略不断调整、聚焦、完善、自成体系,逐步完善上层建筑的部署,主要包括三大重要发展阶段。

第一阶段,英国人工智能发展从领域投入迈向国家战略,人工智能的发展定位发生转变。英国政府逐步引人并构建政府监管,且主张暂无部门式监管立法必要,密集出台人工智能领域发展战略规划和报告,要求政府采用“负责任”监模式并积极应对人工智能风险:将人工智能的定位从“八项伟大的科技之一”上升为“产业和国家战略核心”,将英国对人工智能的领导核心领域从“对人工智能道德标准的领导”转变为“对人工智能监管的领导”,将英国在全球范围内人工智能发展目标从“力争成为第四次工业革命全球领导者”转变为“维持和提高英国在全球人工智能领域的领导地位”。

第二阶段,英国发布专门的国家人工智能战略,将监管纳入行动支柱。英国政府于2021年发布《国家人工智能战略》,力图通过全面部署人工智能生态系统长期需求、支持创新促进产业发展和构建监管框架参与全球标准化工作的方式提高英国自身应对人工智能风险的能力,进一步落实2020年与美国政府签署的《人工智能研究与开发合作宣言:推动人工智能技术突破的共同愿景》。

第三阶段,聚焦促进创新的监管,发布专门的人工智能监管白皮书。英国国防部响应2021年《国家人工智能战略》的部署,发布《国防人工智能战略》;英国文化、媒体和体育部发布《建立一种支持创新的人工智能监管方法》,创新性地提出了跨部门监管原则以补充场景化监管一致性不足的问题。2023年3月29日,英国政府发布《一种支持创新的人工智能监管方法白皮书》(以下简称《白皮书》),协同政府、监管机构和企业之间的合作,发挥监管制度的监控和推动协作的核心作用。


三、英国人工智能监管的实践


随着人工智能及其监管在英国国家战略中地位的转变,英国政府更加重视人工智能监管制度的设计和构建,在不断地实践和探索中,形成了在全球范围内具有代表性的英国人工智能监管体系。

(一)采用非内涵的方式定义人工智能

目前,全球范围内人工智能的定义缺乏统一共识,其内涵与外延不断更新、扩大,各国存在不同的理论学说。考虑到人工智能技术及产品的快速迭代发展,过于严格的定义可能很快就会过时并受到限制,英国未制定一揽子规则,因此没有采用统一的严格的内涵式法律定义。2022年英国发布《建立一种支持创新的人工智能监管方法》,使用“适应性”和“自主性”两个特征来定义人工智能以支持监管机构协作。“适应性”是指人工智能系统经过“训练”并通过推断数据中的模式和联系给出指令的运行结果。“自主性”是指人工智能系统可以在没有人类明确意图或持续控制的情况下作出决策,保留了政府在必要时调整方法以定义人工智能的能力。

(二)以场景和结果为依据开展监管活动

《建立一种支持创新的人工智能监管方法》创新性地将应用场景作为英国人工智能监管框架四大内容之一,提出不同的监管机构应根据特定场景下人工智能对个人、群体或企业的影响采取各异的监管对策。在此基础上,英国进一步根据人工智能在特定应用中可能产生的结果,采取了一种基于场景与结果的监管方法,以确保监管的有效性。同时,基于场景的方法能够权衡使用人工智能的风险与错失机会的成本。对场景的敏感度能够使监管框架以相称的方式响应风险水平,避免扼杀创新或错失利用人工智能带来社会效益的机会。

(三)设置不同领域的人工智能监管机构

由于国家体制的差异,英国的政府并不等同于监管机构,主要通过下设监管机构和其他公共机构负责具体执行监管规定。虽然2023年2月,英国政府宣布成立科学、创新和技术部这一内阁部门,针对包括人工智能在内的五项技术推进科技创新和科技成果转化。但是,英国并没有设立专门监管人工智能应用的中央政府内阁部门,而是分设不同领域、不同层级的部门落实人工智能监管。例如,在数据保护领域设立信息专员办公室,在竞争领域设立竞争和市场管理局,在人权领域设立平等和人权委员会,在金融服务领域设立金融行为管理局等开展监管活动,通过下设数字市场部等授予相关部门对大型科技公司的监管权力,并于2023年4月25日发布《数字市场、竞争和消费者法案》,拟进一步赋予针对大型科技公司的监管机构以法定地位。

(四)积极开展监管领域国际合作与全球标准化建设

英国政府已经与艾伦·图灵研究所和监管机构合作,探索使用人工智能监测、评估产品和服务,在经合组织、欧洲委员会和教科文组织中主动参与了人工智能的讨论,组织人工智能治理工作小组,帮助建立了人工智能全球凯发登录入口的合作伙伴关系,并提供了重要的资金支持。随后,英国在2022年1月12日宣布将试行设立人工智能标准中心,进一步发挥英国在制定国际技术标准方面的主导作用。认识到其决定将产生全球影响,英国更加慎重地衡量国内与国际环境中各方利益,构建知识产权等领域标准化体系。在2023年3月2日英国最高法院审理的人工智能专利案中,英国知识产权局、高等法院和上诉法院驳回了美国人工智能专家泰勒将其创造的人工智能机器“dabus”作为发明人的申请。

(五)开发支持框架实施的工具

2022年英国竞争与市场管理局进一步提出政府需要为监管机构配备正确的工具,以保证实现基于场景、结果以及风险的监管方法。基于此,英国政府进一步细化解释了“保证技术”和“技术标准”两项人工智能工具。“保证技术”包括影响评估、审计和性能测试以及正式的验证方法,指导创新者和企业将这些工具应用于现实场景,协调这些工具与人工智能监管原则的一致性。“技术标准”则是“保证技术”顺利应用的基础,确保了人工智能监管的一致性和标准化,监管机构可以使用“技术标准”向组织提供共同的基准和实际指导,通过“分层方法”合理采用“行业通用标准”“额外标准”和“特定行业技术标准”辅助特定行业监管方法的落实。

(六)采用人工智能监管沙盒机制平衡创新与风险

英国首席科学顾问帕特里克·瓦兰斯爵士向英国政府提出一项关键建议,即“为人工智能建立一个监管沙盒”。为实现政府对此的承诺,信息专员办公室和金融行为管理局成功部署了人工智能沙盒。在此基础上,英国政府提出初步建立单一部门、多个监管机构的沙盒,即只在一个行业运作的沙盒。但是,创新者的市场发展需要与该行业部门的一个或多个监管机构进行互动,推进人工智能创新发展。沙盒的建立能够帮助创新者将新产品和服务快速推向市场,从而产生经济和社会效益,并能够测试监管框架在实践中的运作方式,及时解决不必要的创新障碍,最后发挥确定监管框架需要适应的新技术和市场发展趋势的重要作用。


四、英国人工智能监管的创新趋势


《白皮书》系统性地提出监管框架体系,进一步优化跨部门监管原则,创新性提出政府“中枢职能”并设计新的问责机制,以平衡发展与责任、支持创新与获取信任、国内与国际互操作之间的关系,为人工智能治理提供了新的监管思路和监管模式。

(一)创新归纳监管框架目标和基本特点

《白皮书》提出“通过简化负责任的创新和减少监管不确定性来推动增长和繁荣”“通过应对风险和保护英国的基本价值观来增加公众对人工智能的信任”“进一步加强英国人工智能领域全球领导者的地位”三大目标,维持和提升其全球范围内人工智能领域领导者地位。同时,《白皮书》创新性地提出监管框架的六大基本特点:一是“支持创新”,支持促进而不是扼杀“负责任”的创新;二是“相称”,避免给企业和监管机构带来不必要或不相称的负担;三是“值得信赖”,通过解决风险培养公众对人工智能的信任;四是“适应性”,使国家能够快速应对人工智能技术发展过程中出现的机遇和风险;五是“明确”,让参与者清晰了解监管规则的内容、适用范围、执行主体以及遵守方式;六是“协作”,鼓励政府、监管机构和行业协同支持创新,建立信任。

(二)创新提出五项跨部门监管原则


《白皮书》基于监管现状,提炼和完善每一个原则的定义和基本原理:通过扩展“稳健性”和“治理”等概念,回应相关利益者的诉求;进一步将透明度、公平性和问责制等原则纳入人工智能治理框架;将安全原则与安全性和稳健性相结合,改善这些概念之间重叠的冲突;细化问责制和责任制的概念。《白皮书》提出实施五项跨部门监管原则。第一,安全性、保障性和鲁棒性原则。要求人工智能系统以稳健、安全和可靠的方式运行,并不断识别、评估和管理风险。第二,适当的透明度和可解释性原则。监管机构和相关方要掌握足够的关于人工智能系统的信息及对其他原则产生的影响。第三,公平原则。人工智能系统不应损害个人或组织的合法权利,不应不公平地歧视个人或创造不公平的市场结果。第四,问责制和治理原则。要求组织或个人采取适当的措施,确保人工智能系统在其整个生命周期内正常运行。第五,竞争和补救原则。监管机构将明确现有的可抗辩和补救途径,允许受影响的各方对人工智能使用的结果提出质疑。在此基础上,英国政府将进一步发布或更新有关指导意见或联合指导意见,重点关注跨领域的人工智能运用,通过与行业合作,提供最佳指导方式。

(三)创新应用跨部门原则的“非法定”首选模型

近年来,英国的人工智能战略文件对“非法定”方式均有提及,《白皮书》在此基础上强调协调监管原则和监管机构义务之间的关系,以及人工智能产业与监管框架之间的关系,并进一步明确应用跨部门原则的“非法定”首选模型。

首先,采用非法定义务方式实施。跨部门原则将由政府在非法定的基础上发布,由监管机构在其职权范围内应用。以原则而非法定义务的形式进行规制,有利于提升监管的灵活性并减轻企业的负担,确保更广泛的框架在支持创新的同时适当地解决风险。

其次,增加新责任内容落实原则应用。经过一段时间的非法定方式实施,英国政府考虑引入“新责任”来加强和明确监管机构的职责,使监管机构仍然能够就每项原则与其各自领域的相关性行使自由裁量权,并运用专家判断法简化其责任与负担。

最后,非必要不上升为法定义务。仅在出现特定原则因为现有法律要求的解释或技术限制而不能或没有由特定监管机构应用时,才有采取立法措施的必要。

(四)创新提供支持人工智能监管框架的“中枢职能”

目前,英国通过分散的法律法规进行人工智能监管,监管机构之间缺乏监管标准一致性。为了在保持迭代方法的灵活和为业务提供清晰指导之间取得适当的平衡,英国政府将提供一系列“中枢职能”,由英国政府主导、多元主体参与协商,来识别、评估、优先考虑和监控需要政府干预的交叉人工智能风险。最初阶段,上述“中枢职能”首先在政府建立,并将会在审查中考虑由政府还是独立机构履行“中枢职能”最为合适。

支持实施框架所需的“中枢职能”具体包括六大内容。第一,监测、评估和反馈职能。通过制定中央监测和评估框架以评估新制度对经济和特定行业的影响。第二,跨部门风险评估职能。政府计划开发和维护人工智能风险登记册,以支持监管机构的内部风险评估,防止监管机构职责之间产生差距。第三,支持创新者职能。具体将采纳帕特里克·瓦兰斯爵士关于建立多监管机构的人工智能沙箱的建议。第四,教育和意识职能。由政府进一步为企业提供指导,并且鼓励监管机构开展宣传活动,对消费者和用户进行教育,增强公众的意识。第五,水平扫描职能。在最大限度地利用新兴机会利益的同时,继续对人工智能风险采取相称的方法,支持识别新风险并确定优先级的风险评估功能。第六,确保与国际监管框架的互操作性职能。政府将监督英国人工智能监管原则与国际监管、风险管理方法以及技术标准之间的一致性,通过识别监管互操作性的机会支持跨境协调与合作。

(五)创新设计生命周期问责制和基础模型的应用

目前,英国倾向于不干预和改变生命周期问责制,将法律责任分配给人工智能生命周期中最能有效识别、评估和减轻人工智能风险的参与者。但是,人工智能供应链的复杂性和不透明性使得现阶段对责任分配作出决定可能为时过早。如果将责任分配给使用者,会扼杀人工智能的采用;如果将责任过多分配给开发基础模型的企业又会阻碍创新。

2023年5月,英国高等法院驳回了针对谷歌和deepmind滥用病人信息的代表诉讼,认为很难判定所有主体的数据都受到错误的干扰。这体现了英国司法领域对人工智能技术企业责任认定的审慎态度,在综合技术风险和创新发展的考量下作出理性裁决。英国政府已在《白皮书》的人工智能全生命周期问责制度设计中提出,将采用值得信赖的人工智能工具,应对目前提供基础模型组织的数量少、以其他方式部署基础模型企业数量多的问题,重点监测和评估基础模型的潜在风险,而不是开展针对基础模型和大语言模型的具体监管活动。



五、英国人工智能监管的特点与优势


英国对人工智能监管的探索逐渐形成其特有的制度框架,具备符合其国家体制和人工智能发展状况的显著特点,在促进英国人工智能创新与确保人工智能技术开发和使用安全之间的平衡上形成有效经验,对各国人工智能治理具有重要借鉴意义。


(一)强调暂缓专项立法,推行自由灵活的人工智能监管框架

目前,英国在人工智能监管领域并没有正式通过的专项立法。对人工智能的监管内容散见于其他法律法规中,对固有风险进行规制,不可避免地在某些新兴风险领域存在空白。艾达·洛芙莱斯研究所针对《白皮书》发布报告,提出专项立法在为人工智能监管机构配置统一权力、厘清有关人工智能责任的法律并重新分配责任方面,具有重要作用。相比于专项立法,英国目前的人工智能监管策略倾向于保留灵活的调整空间,采用非法定义务的原则性规范鼓励人工智能领域的创新。

首先,非法定性规范有利于避免为人工智能企业加码,防止因过早立法、不成熟立法给企业带来不必要的负担,造成市场主体准入、人工智能自主学习等开发活动、人工智能生命周期责任分配等环节陷入监管僵局。

其次,英国通过在监管框架适用过程中的监测和审查,灵活把握跨部门监管原则的适用情况,将更多主体和场景纳入调整范围,发挥现有跨部门原则与监管机构职责和权力的相互作用,在鼓励创新的同时避免法律保护依据缺失、责任分配畸轻或畸重。

最后,灵活监管模式有利于赢得公众信任。特征性定义和原则性规范给予开发者以及监管机构充分的解释和适用空间,提高人工智能的可解释性和透明度,以解决人工智能的应用场景复杂、内涵与外延难以确定、自主学习带来的安全与信任缺失等现实问题,取得社会公众对人工智能开发和使用的信任与支持。

(二)侧重划分应用场景,根据使用结果衡量风险与机会

英国的人工智能技术及产品广泛应用在工业、金融、医疗、教育、交通、能源等重要行业和领域。监管框架的构建将成为人工智能基础模型可信度的主要决定因素。在不同场景下,人工智能的风险和优势大相径庭,采用统一的监管标准和方法将阻碍人工智能技术帮助提高劳动效率和工作场所安全,故英国选择“以场景和结果为依据”落实监管框架。

首先,“以场景和结果为依据”的监管方法能够有效弥合行业差距。根据不同的应用场景和使用结果提供有针对性的、定制化的人工智能风险凯发下载进入的解决方案,防止“一刀切”带来的巨大替代性成本。

其次,“以场景和结果为依据”的监管方法能够更好地平衡公平与效率、机会与风险。不同行业、不同规模、不同特点的人工智能技术和企业藉此可以保留和发挥自身优势,获得充分的发展空间,确保监管框架以相称的方式响应不同等级的技术风险。

最后,“以场景和结果为依据”的监管方法能够有效鼓励创新。通过场景化的设计,监管机构将在其领域对人工智能进行详细的风险分析并开展执法活动,以此应对跨行业人工智能技术的复杂性和混乱性,减少不公平责任的划分,减轻企业创新负担。同时,政府和监管机构能够帮助建设不同场景所需的基础设施,确保硬件条件与人工智能创新发展相称。

(三)保留现有监管机构,非法定实施跨部门监管原则

艾达·洛芙莱斯研究所认为,目前人工智能的发展主要集中在商业用途,而不是以个人、社区和社会利益为中心的技术或用例。因此,可能需要新的公共机构和公共部门投资以促进考虑公共利益的人工智能技术和应用的发展。例如,英国研究与创新局开发的相关公共服务推荐算法、数据分析凯发下载进入的解决方案等。但是,目前《白皮书》强调的“跨部门”监管原则是基于英国现有的监管机构而提出的,通过加强各监管机构之间监管活动和标准的一致性,以及非法定方式解决职能重叠、分工模糊、标准冲突等问题。

首先,这一制度设计能够有效防止监管机构体系冗余。通过充分利用现有监管机构资源,提高各行业、各领域监管活动效率,保证监管方法与该领域特性相适应,避免新设立大量监管机构带来的组织结构冗杂、人员繁复等问题。

其次,跨部门原则能够确保监管活动的连贯性。正如前述,英国人工智能监管机构分设于不同行业和领域,跨部门原则使监管机构在其现有职权范围内,采用同一性原则开展差异性监管活动,使监管框架在适用层面呈现一致性的同时,又为监管机构保留足够的自由裁量空间。

最后,非法定实施理念有利于平衡安全与发展。英国原则上通过非法定方式适用监管方法,“宽严相济”以提高监管体系应对人工智能风险的能力,增设面向社会各方的反馈机制,考虑不同社会主体对设定法定义务的不同意见,接纳关于替代性干预措施的建议,推进人工智能治理体系科学发展。

(四)动态考量政府角色,确保“中枢职能”实施有效性

针对政府与监管机构之间的复杂关系,英国提出构建“中枢职能”发挥政府主导作用。但这种政府主导作用并不是永久的,且不仅仅限于政府这一单一主体。尽管英国政府在履行“中枢职能”时还未进一步部署正式的机制牵头部门为受人工智能影响的个人提供补救或争端解决机制,导致在个人投诉相关人工智能时,出现投诉无法解决、缺乏适当负责任的监管部门等问题。英国倾向于发挥“中枢职能”设计中政府宏观调控、配合外部监督、主体和内容不断优化升级的制度优势。

首先,“中枢职能”的动态设计有利于确保监管框架最优执行。“中枢职能”的内容和履行主体将会根据实施效率进行调整,如果政府对于“中枢职能”落实不善,英国将会对此进行审查并重新考虑更有效的监管机制,给予其他监管机构和有关部门发挥监管职能的机会。

其次,“中枢职能”由政府主导有利于把握正确监管方向。“中枢职能”最初只能在政府中建立,这一考量有效防止了个别监管机构掌控监测、评估权限导致监管结构倾斜、加大行业差距的风险,确保监管框架的公平性、可控性和一致性。

最后,“中枢职能”支持多元主体参与监督有利于监管活动的有效开展。政府在监管活动中的主导作用需要多元主体的监督来平衡,通过内部监督指引监管机构扩大规模、集中专业和资金,通过外部监督及时填补人工智能领域的专业知识和信息,协同学界、企业、民间团体等提供监管领域专业意见和反馈。

(五)鼓励开发实用工具,推进人工智能监管标准化

英国将监管框架的有效实施与标准化建设挂钩,希望通过技术标准和保证技术等实用工具与监管机构共同发挥作用,进一步构建国内技术标准和全球标准,并使实用工具和创新方法投入应用,共同推进开发可信赖的人工智能。然而,如果政策的制定者过高地评估尚处在起步阶段的人工智能在保证市场察觉特定风险和提高标准方面的能力,那么相关制度设计将成为监管体系中的失败点。目前,英国政府在实践中支持评估、保证、审计等机制的使用,落实跨部门原则,鼓励开发可信人工智能实用工具,推进监管制度框架发挥作用。

首先,这一制度设计能够与跨部门原则和“中枢职能”有效衔接。实用工具和标准化构建能够有效帮助监管机构适用跨部门原则,提供具体的实施路径,综合多元标准指导监管实践,切实将制度化的内容具化、落地。

其次,这一制度设计能够帮助维持和提升英国在全球范围内人工智能领域的领先地位。在各国监管制度、监管环境、人工智能发展水平等方面差异巨大、缺乏统一监管标准的情况下,为了应对人工智能带来的公平、安全、权利风险等,英国对于人工智能标准化的追求、主动参与标准化构建进行干预,将使得英国掌握全球人工智能监管的话语权和解释权。

最后,这一制度设计的应用能够有效鼓励英国人工智能创新发展。标准化给予人工智能创新活动以基础参照,监管沙盒、测试平台等监管方法则给予人工智能安全范围内最大的发展空间,充分给予企业试错机会,有效提升技术开发效率,保证技术产品和服务质量,进一步维护英国人工智能研发的全球领先地位。



六、英国人工智能监管的镜鉴


人工智能的全球竞争力,不仅在于技术和产业领域的竞争力,也在于对规则制定权和话语权的把握。监管的能力和水平恰是规则制定权和话语权的重要支撑。英国正是希望通过更多地投入后者,塑造国家的新优势。我国已经在人工智能的法律治理方面走在国际前列。在过去的几年里,我国先后针对算法推荐服务、深度合成和生成式人工智能服务出台了《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》《生成式人工智能服务管理暂行办法》等专门性部门规章。以《深圳经济特区人工智能产业促进条例》《上海市促进人工智能产业发展条例》为代表的地方立法也取得了积极成效。2023年8月15日,中国社会科学院《我国人工智能伦理审查和监管制度建设状况调研》课题组已基于全球人工智能发展和监管态势,发布《人工智能法示范法(专家建议稿)》,受到了国际上的广泛关注。

我国的人工智能综合立法已经有相对扎实的实践基础。目前,人工智能法草案已被列入国务院2023年立法工作计划,十四届全国人大常委会立法规划也提到推进科技创新和人工智能健康发展方面的立法工作。因此,我国可以选择与英国暂缓立法不同的治理路径,以综合立法方式更好推动人工智能监管。但是,在综合立法的具体制度构建上,还是可以充分吸收英国的有益经验,进而构建更加科学有效的监管机制。


(一)实施基于应用场景的精准监管

技术治理本质上是一个场景化过程,人工智能治理越来越聚焦于具体场景。可以借鉴英国监管方法,在适当考虑行业和技术领域划分人工智能风险等级的基础上,实施细化的场景化监管。在合理区分不同技术路线、应用模式和责任主体的基础上,针对不同场景实施差异化管理。

一方面,在全覆盖的基础上突出重点以提高监管精准度,发挥算法影响评估制度作为场景化、精准化算法治理框架的核心实现路径作用,厘清算法设计与应用程序所应配备的治理和监管要求,实现在算法权利配置和责任承担方面的共性化和个性化需求。

另一方面,划清监管红线和底线,对特定场景结合算法开发和模型训练的实际需要,明确人工智能技术应用的“负面清单”,为技术研发落地提供稳定预期。通过践行更具体、更有针对性、更定制化的监管思路,切实挖掘人工智能应用的具体风险,保障人工智能应用的创新空间。

(二)发挥政府主导的多元治理效能

政府是监管的实施者,也是治理的核心主体。建议参考英国政府“中枢职能”定位,在人工智能监管中,充分发挥好政府主导下的多元治理效能。

首先,应对网络犯罪、人权风险、算法歧视、虚假信息等风险,需要政府加强执法监管;解决算力支持、关键基础设施建设、数据供给等关键问题,需要政府做好政策保障和示范引领;参与人工智能国际治理、全球标准制定,需要积极做好政府间协商,大力支持产业界、学术界的国际合作和交流。

其次,需要充分调动行业协会、社会团体组织和公民参与人工智能治理的积极性。建立正式的沟通会商机制,支持工会、消费者协会等受人工智能发展影响的利益相关方代表更好参与治理;建立行业组织与政府之间的密切合作关系,指导行业自律机制良性运行。

最后,除高等教育机构和科研院所、企业研究院等科研机构外,开源社区、开放平台、“白帽子”等技术群体同样是不可忽视的重要力量。算法开源代码的公开性有利于公众进行监督、通过大量使用实现自身优化,降低系统漏洞和潜在风险的出现频率。

(三)提高政府监管敏捷性和科学性

针对新一代人工智能技术应用的快速迭代和适用领域的日益扩张,生成式大模型的涌现特性拓展了其在多场景应用的潜力,也加剧了算法妨害的风险,即因计算能力的社会不公正使用引发的算法危害成本在社会层面的不当外化,为算法问责带来挑战。

基于此,政府监管需要更加敏捷科学,采用“敏捷治理”模式。敏捷治理的核心能力集中表现为快速感知能力、灵活响应能力以及持续协调能力。相比于回应型治理模式与集中型治理模式,“敏捷治理”模式更符合我国当前阶段的人工智能治理工作。一方面,可以通过培育发展专门的智库力量,参考英国实施监管评估研究,及时动态掌握人工智能技术应用风险和创新发展需求,定期研判监管态势和成效,不断完善监管机制和手段。另一方面,汲取英国经验,识别人工智能生命周期中最能有效识别、评估和减轻人工智能风险的参与者,不断完善科学分配法律责任、保障各利益相关方合法权益的监管框架。

(四)以监管创新推动人工智能创新

人工智能技术的发展已经是时代的必然趋势,但潜在的风险仍有不确定性。“既要管起来,又要发展好”,是政府监管的重要挑战。监管沙盒机制是应对这一挑战的重要工具。目前,我国已在部分城市、部分行业、部分领域开展了监管沙盒的试点工作。但在监管沙盒的推行过程中,目前主要存在以下三项挑战:“沙盒对监管者技术水平和数据依赖程度较高”“创新与监管规则冲突”“调和与微观监管主体、行业自律机构和各类机构关系”。

未来在人工智能立法中,可以建立监管沙盒中期变更机制,弥合基于平等协商的测试计划受环境中各项条件和变量影响出现的新风险,或激发测试前尚未发现的缺陷;建立事中信息交流机制和退出阶段信息交流机制,使测试主体和监管部门保持沟通,实现制度供给之优化;参考各国在监管沙盒内部采用个案化的权利义务分配方式保护消费者利益,并外化此种制度安排实现分配正义的经验;借鉴英国《白皮书》提出的四种监管沙盒的应用模式,进一步明确监管沙盒的法律定位、准入条件和适用机制。通过在相对可控的范围内,创设创新发展的试验区,在不断探索总结监管经验的同时,可以确保风险的影响面的可预测性。




  • 社科大法学院微信公众号

  • 法学院校友办微信公众号

  • 凯发登录入口的版权所有©中国社会科学院大学 地址:北京市房山区长于大街11号 邮编:102488 联系凯发登录入口

    网站地图