2023-2024学年第二学期,北京己任律师事务所中国传媒大学文化产业管理学院法律系联合打造的法律文书写作系列课程圆满结束。


此系列课程包括八次专题授课,由己任律师事务所多位合伙人及律师进行讲授。课程内容充实丰富、针对性强、注重实操,旨在帮助学生们提升法律写作和实务技能。


其中,在此系列课程中的法律文章写作课上,许安碧律师深入分析了法律文章写作质量难以把控的原因,同时从文章选题的确定思路、文献阅读的技巧、文献综述撰写方法、法律文章写作常见的形式和内容以及文章发表渠道等方面系统介绍了如何撰写高质量的法律文章。


为了巩固学习成果,许律师在课程结束时布置了一份结课作业。同学们的表现令人印象深刻,其中一些论文尤为出色。本篇推送为罗楠同学撰写的《我国人工智能领域监管沙盒制度的构建》,我们特进行分享。

论文评析





这篇文章选题具有高度的现实意义和学术价值,结构合理,论证充分,语言表达准确,格式规范。通过对人工智能领域监管沙盒制度的深入探讨,提出了一些具有实际操作性的建议和措施。文章在结构的连贯性和部分句子结构的简洁性方面还有些许提升空间。总体来说,这是一篇具有较高学术价值和现实意义的研究文章。


我国人工智能领域监管沙盒制度的构建

罗楠


摘要:随着人工智能技术的深入发展与广泛运用,其带来的监管挑战也日益凸显。监管沙盒作为传统监管方式的有益补充,不仅为企业提供了安全可控的测试平台,也为监管机构创造了学习型的监管环境,有助于实现市场主体和监管机构的良性互动和正向反馈。本文将通过梳理监管沙盒制度的内涵及其在互联网领域的独特优势与挑战,论证监管沙盒制度在人工智能领域运用的合理性,并在借鉴域内外监管沙盒制度在人工智能及其他领域实践经验的基础上,结合我国国情,尝试为我国人工智能监管沙盒制度的完善提出建议。


关键词:人工智能、监管沙盒、制度构建、监管创新


一、问题的提出


以ChatGPT为代表的人工智能技术正深刻地引领着新一轮科技革命和产业变革的浪潮,不断催生新业态、新模式和新市场,颠覆了传统的信息和知识的生产方式,重塑了人类与技术的交互方式。这种变革不仅局限于技术领域,对教育、金融、媒体等多个行业都产生了深远的影响,人工智能作为数字经济时代的关键驱动力,正在以前所未有的速度融入社会生活的方方面面。


人工智能在给人们的生产生活带来的便捷与效率的同时,也产生了潜在的安全风险,如数据泄露、虚假内容生成以及不当利用等问题,这也对我国人工智能监管体系的构建提出了更为紧迫的要求。在这一过程中,需要平衡监管与创新之间的关系,既要保障信息安全,又要促进技术的持续发展;既要推动技术创新,又要加强技术治理;既要确保企业履行合规义务,又要考虑企业的负担能力。


由于人工智能的不透明性和不确定性,其风险难以预先被精准预测。而法律规定固有的滞后性和抽象性,使其难以立即适应复杂多变的人工智能应用场景。因而只有在具体的实践中才能具体准确地监测和判断人工智能的风险。由此,如何实现在现实环境中监测评估人工智能的风险,如何在人工智能技术的不断迭代中适时更新现有的监管制度和措施,成为亟待解决的关键问题。


2021年5月,欧盟理事会正式公布了《人工智能法》,其中即引入了监管沙盒制度,这是全球范围内首部人工智能专门立法,在应对人工智能系统风险方面具有重要的示范意义。尽管我国尚未在人工智能领域全面采用监管沙盒制度,但汽车领域已经先行试点。2022年4月,国家市场监管总局等五部门启动了汽车安全沙盒监管试点,重点监测智能化技术和功能[1]。那么,监管沙盒制度的优势何在?其是否能够成为人工智能领域的有效监管工具?


二、监管沙盒制度概述


(一)监管沙盒的内涵


1. 监管沙盒的概念


监管沙盒制度最早源于金融科技领域。2015年,英国金融行为监管局(FCA)首次提出了监管沙盒(regulatory sandbox)的概念,并于2016年正式启动,将金融业与监管相结合[2]。此后,新加坡、美国、加拿大以及我国香港等国家和地区都基于不同的利益考量,渐次引入了监管沙盒机制。


“沙盒”原本为计算机用语,是计算机领域中的一种安全机制。其旨在为来源、意图不明或者可能具有破坏性的程序提供隔离的测试环境,使得程序得以在测试环境中运行而不对计算机系统造成实际损害。


监管沙盒将此逻辑沿用,为参与测试者提供了一个安全空间,企业可以在可控的环境中测试创新性的产品、服务、商业模式和交付机制,而不会因为测试活动招致现有监管制度下可能产生的监管后果[3]。监管沙盒的实质体现为在控制风险的前提下支持创新,以实现风险管理和创新发展的有机平衡[4]


2. 监管沙盒的运行流程


监管沙盒的运行主要包含准入、测试和退出三个阶段。在准入阶段,监管机构依据必要性、创新性和消费者保护原则对提交申请的企业进行审核,确保其符合准入条件。在测试阶段,参与测试的企业可以根据监管机构和消费者的反馈意见进行项目优化。为了保证沙盒测试最高程度地模拟现实环境,除违反法律规定以外,监管机构对受测企业的全程关注和评测应当以“最少干预”为原则。退出分为主动退出、被动退出和自动退出三类。主动退出是指受测在沙盒测试期限届满前主动申请结束沙盒测试;被动退出是指违规受测主体在监管机构的要求下退出沙盒测试;自动退出是指受测企业测试未通过或在沙盒测试期限届满后自动退出沙盒的情形。


监管沙盒运行流程的设计旨在实现风险可控下的创新,其运作流程如下图所示:

图 1 监管沙盒运作流程示意图


3. 监管沙盒的监管理念


监管沙盒制度体现了监管机构从静态监管到动态监管,从被动监管到合作监管的监管理念转变。


一方面,随着人工智能技术的快速发展和广泛应用,传统的技术监管模式已难以满足当前的需求。传统监管模式多侧重于事后评估和结果导向,实际形成了静态监管的局面。然而,在人工智能技术风险日益凸显的今天,潜在的经济和社会危机一触即发,因而对人工智能的监管必须实现动态化、实时化。


监管沙盒制度即为典型的动态监管策略。当人工智能企业将其产品和服务投入沙盒测试后,其所有的行为豆浆受到实时监控,从技术研发的初始阶段到最终投入市场,整个流程都置于监管机构的严密管控之下,这也有助于监管机构更深入地了解技术的创新动态,并及时提供指导和风险解决方案,同时对其产品适用范围及消费者的损害赔偿等方面进行规范设定,以加强对公众利益的保护。


另一方面,传统的监管模式过度强调监管机构的主导地位,忽视了被监管机构的主观能动性。这种监管模式在实践中可能会导致两种极端情况:一是监管政策过于严格而牺牲了技术创新的效率;二是监管政策过于宽松而导致技术滥用和监管失效。


监管沙盒制度体现了我国监管理念从被动监管向合作监管的转变。监管沙盒改变了传统的监管机构与被监管机构之间的对立关系,转而建立了一种良性的互动关系。监管机构可以通过沙盒测试更为直观地了解人工智能技术优势与潜在风险,为制定更为精准的监管政策提供数据支持。同时,被监管机构可以通过与监管机构的反馈合作,就技术发展趋势和潜在风险等问题进行深入交流,共同寻找解决方案,增强监管的针对性和有效性。例如,英国金融行为监管局即尝试通过圆桌会议等方式加强与被监管机构的沟通与合作,以更好地把握金融发展趋势[5]


(二)监管沙盒制度的合理性分析


1. 监管沙盒的制度价值


监管沙盒制度在促进创新、优化监管、推动经济转型升级等方面均展现了其重要价值。一方面,监管沙盒通过提供一个安全可控的测试环境,为新技术、新业态和新商业模式的发展运用提供试错机会,鼓励企业积极探索和创新。另一方面,监管沙盒制度强调多元参与和沟通协调,有助于监管机构深入了解新业态的运行情况,收集各方利益诉求,为制定科学合理的监管政策提供有力支撑。监管沙盒制度秉持着包容审慎的监管思路,既保证了监管的有效性,又鼓励了创新活力,为技术创新和产业转型提供了良好的制度环境,有助于推动经济高质量发展[6]


2. 监管沙盒制度的理论依据


监管沙盒作为监管制度的创新,其理论依据主要是破坏性创新和适应性监管,二者相辅相成,共同构成了监管沙盒的理论基石[7]


美国学者克里斯滕森将创新分为“维持性创新”和“破坏性创新”两种。“维持性创新”主要指在当前的市场中,通过优化现有产品或者服务,使其性能更佳或成本更低,以满足主流市场的需求。这种创新方式旨在巩固和扩展企业在当前市场中的竞争地位[8]。“破坏性创新”是一种能够打破既有的市场规则,改变竞争格局的创新模式,其是指通过引入新的技术或商业模式等来重新定义现有市场或者开拓新的市场领域。符合从非主流市场切入,最终能成功颠覆主流市场并改变竞争规则的,均可称为破坏性创新[9]


监管沙盒制度完全适应破坏性创新的挑战,它允许创新主体在一定的监管框架内进行测试,以评估其创新产品或服务的可行性、安全性和合规性。一方面,创新主体可以模拟真实的市场环境,降低风险;另一方面,监管机构也可以通过监管沙盒实时监控,及时调整测试监管政策。


适应性监管理论强调并不存在完全静态的、适合所有监管情境的监管机制,必须根据监管空间的具体环境参数进行适应性调整,以提升监管机构在新兴技术和产业监管方面的适应能力[10]。破坏性创新同时包含破坏性与创新性,其监管需兼顾安全和发展两个维度。过于严苛的监管容易扼杀创新活力,过于宽松的监管则可能放大其破坏性,甚至产生系统风险。因而“适应性监管”就显得非常必要,技术发展和商业模式的创新深刻地改变了资本市场结构,监管生态亦需随之调整。


监管沙盒制度是适应性监管的具体实践,它允许监管机构在严守监管红线的前提下,为创新主体提供相对宽松的环境。在监管沙盒中,监管机构可以根据创新主体的实际情况和市场需求,灵活调整监管要求,为创新主体提供必要的指导和支持。同时,监管机构还可以通过监管沙盒收集数据和信息,为制定更为科学、合理的监管政策提供依据。


3. 监管沙盒制度的政治依据


“放管服”改革作为新时代中国政府监管政策的核心,强调简政放权、放管结合与优化服务,旨在重塑政府与市场、社会的关系。监管沙盒制度作为一种创新的监管机制,深刻契合“放管服”改革的核心要求。在“放”的意义上,监管沙盒制度为新技术、新业态的发展提供了试错空间,允许其在可控范围内模拟市场测试,有助于释放市场活力;在“管”的层面,在沙盒测试过程中,监管机构可以通过实时数据收集与分析实现事中事后监管,灵活调整监管策略,提升监管效能;在“服”的维度,监管沙盒所强调的多元参与和沟通协调有助于实现政府、市场与企业的良性互动,推动政府治理能力的现代化。


三、人工智能领域监管沙盒制度的优势与挑战


(一)监管沙盒在人工智能领域的优势


1.  促进人工智能技术监管的提质增效


在沙盒环境中,创新主体可以与监管机构直接对话,有助于解决信息不对称的问题,降低人工智能技术应用理解的难度,为人工智能行业营造学习型的监管氛围。监管沙盒为监管机构提供了实践平台,有助于其在技术更迭中更加准确地理解和运用现有法规,更加全面、准确地评估技术风险、预测市场发展趋势,以满足数字时代监管开放性的要求,优化监管效能。在数字经济的推动下,监管沙盒有助于构建多元主体参与的监管模式,提高技术创新的透明度和公众参与度,为技术创新监管奠定了坚实的社会基础。


2. 降低人工智能企业的合规成本与风险


由于人工智能的不确定性和不透明性,其风险往往是不可控的,因而在统一的监管框架下,企业的合规成本往往较高。监管沙盒为人工智能企业提供了在实验与现实之间的缓冲带,使其能够充分测试反复验证相关产品和服务的合规性以及是否可以投入市场。同时,监管沙盒在一定程度上也可以成为企业的信用背书,帮助其破除部分上市障碍[11]


同时,监管沙盒制度的运用并不意味着放松监管,而是为人工智能技术创新提供一个灵活的监管环境。通过沙盒测试,人工智能可以在监管机构的监督下,利用真实市场数据进行微观测试,这不仅可以最大程度地确保产品和服务的安全性,降低法律风险,还有助于优化其研发流程,缩短产品和服务上市时间,进而帮助企业更快地将技术优势转化为市场竞争力。


(二)构建人工智能监管沙盒制度的挑战


1. 监管依据和监管主体不明确


监管沙盒在我国人工智能领域的实践已经展开。北京市《关于更好发挥数据要素作用进一步加快数字经济的实施意见》《北京市关于加快建设全球数字经济标杆城市的实施方案》等政策文件中,均明确提出要打造监管沙盒创新机制。北京市网信办与经信局联合建立了人工智能数据训练基地监管沙盒机制,依托其制度与智算资源优势,已经形成了多项人工智能训练数据应用创新机制[12]


尽管前述文件对人工智能领域监管沙盒机制的构建提供了有益指导,但其并不属于监管沙盒制度的法律依据。同时,目前我国人工智能领域监管沙盒的实践尚未明确由某一监管机构主管,这也不利于监管工作的有序展开。


2. 监管沙盒适用对象的范围


构建人工智能监管沙盒制度的一大挑战即为监管沙盒适用对象的确定。人工智能技术不断更新,人工智能产品与服务也趋于多样和复杂化。如何判断哪些可以直接推向市场,哪些需要进入监管沙盒进行测试就成为一个重要议题。这一问题不仅需要考量技术安全与市场接受度,还需要平衡安全与发展的关系。


3. 标准化运行机制的缺失


目前我国没出台统一的人工智能监管沙盒法规,面对人工智能技术的复杂性和多样性,标准化运行机制的缺失可能导致测试参与者在沙盒测试中的操作缺乏规范,进而影响测试结果的准确性和公正性,同时也会增加监管机构的监管难度,降低监管效率,不利于监管沙盒测试的有序展开。


4. 消费者权益保护措施不够完善


吸引创新项目和完善测试流程是监管沙盒试点工作的重要工作,但在人工智能产品与服务的交易过程中,消费者在信息获取和数据处理等方面均处于弱势地位[ 13]。消费者权益保护是保障行业健康发展的基石。在推进监管沙盒制度的过程中,亦需不断完善和优化消费者保护方案,确保消费者能够在安全、稳定的环境中享受人工智能带来的便利[14]


5. 技术复杂性和监管主体之监管能力的匹配问题


随着人工智能技术的日新月异,监管机构也需要不断更新其技术知识储备和监管策略以应对日益复杂的监管需求。然而,实践中监管机构往往难以与技术变革保持同步,这种不匹配可能导致监管滞后或监管不足,进而增加潜在的监管风险。


四、建立人工智能领域监管沙盒的制度设计


(一)明确人工智能监管沙盒的实施依据和主体


一方面,我国需要制定统一的“监管沙盒条例”以明晰沙盒监管的效力来源,保证监管形式合法化。从国际实践来看,多数实施沙盒监管法律制度的国家和地区以沙盒监管主体发布的规范文件为监管依据,如新加坡 的《金融科技沙盒监管指南》、印度的《沙盒监管授权框架》等,对沙盒监管的监管目的、申请主体、准入标准、运作流程以及消费者保护等内容做出了具体的规定。我国应当出监管沙盒的一般规定,统一约束各行业的监管沙盒运用,对于人工智能、金融等不同领域的特别问题,则可以部门规章或规范性文件予以补充,便于主管部门依照技术、市场的变化及时调整监管策略。


另一方面,需要确定专门的监管机关。建议由国家数据局负责统一规划人工智能监管沙盒的实施。国家数据局的主要职能包含协调推进数据基础制度建设,统筹数据资源整合共享和开发利用等。人工智能所产生的风险主要是数据安全风险,由国家数据局统一规划人工智能监管沙盒的实施,可以减少不同部门间的协调成本,提升监管制度运行效率,促进监管沙盒制度落到实处。国家数据局负责统一制定宏观政策,具体到执行方面,则可由各行业主管部门结合行业实际予以落实[15]


(二)明确人工智能监管沙盒制度的适用范围


人工智能沙盒监管制度旨在提供安全可控的测试环境,以促进人工智能技术的创新与发展,其适用应限于“创新主体”与“创新对象”。建议适度放宽人工智能领域的申请主体准入范围,以激发更广泛的市场活力与创造力[16]


关于自然人是否可以作为监管沙盒测试的申请主体,我国台湾地区较为开放,允许自然人作为申请主体,英国、澳大利亚以及我国香港地区则持保守态度,否认自然人的申请主体资格。考虑到自然人的经验及风险承担能力通常低于人工智能企业,在适度放宽监管沙盒测试申请主体的准入范围时,我们应当审慎对待自然人作为沙盒监管的申请主体[17]


(三)构建完善的监管沙盒的运行机制


完整的监管沙盒运行机制应当包含准入、运行管理和退出三个环节。由于人工智能的黑箱特性,准入阶段要在人工智能领域,由于其黑箱特性,准入阶段需要审慎评估并降低潜在风险,判断测试主体或测试对象是否具有创新性,是否具有市场潜力,是否制定有合理可行的测试方案与消费者保护方案等,以确保参与的人工智能技术具备一定的成熟度和安全性,以降低对市场的潜在冲击。


运行管理阶段的关键在于保障测试参与者能够有序、规范地进行测试。对此,可以由专业的评估机构对参与主体及其产品与服务进行定期评估,确保测试过程符合监管要求。但监管机构不应在此阶段过度干预,否则会使得模拟环境偏离真实市场,影响测试结果的真实性。


退出机制是整个监管沙盒运行机制的关键环节,为避免人工智能监管沙盒参与者长期滞留,需要建立明晰的退出机制。在测试产品或服务的风险过高,测试主体违背监管规则损害消费者利益等特定情况下,监管机构可以直接叫停沙盒测试并要求相关主体退出监管沙盒。在未出现强制退出事由时,监管机构可根据测试主体的申请或在测试期间届满后,对参与测试的产品或服务进行最终测评,并根据测评结果决定是否授权相关主体向真实市场提供其人工智能产品与服务。监管机构基于测试结果决定是否授权测试参与主体向真实市场提供人工智能产品与服务。沙盒测试结束后,监管机构可与有意愿的测试主体共同编写退出报告,记录测试过程中的创新及监管经验。


(四)完善人工智能领域监管沙盒中的消费者权益保护机制


人工智能监管沙盒测试过程中的首要任务是确保消费者的权益得到充分保障。首先,必须明确告知消费者测试产品和服务尚处于试验阶段,充分解释这些风险可能带来的后果,并对有意参与的消费者进行筛选,确保他们具备合理的风险偏好和承受能力。其次,建立快速响应的反馈机制,以便在消费者遭遇风险时能够及时获得人工智能企业与监管机构的帮助反馈。同时,制定明确的补偿标准,确保消费者在权益受损时能够依法要求赔偿。最后,要求沙盒测试申请者提供充分的财务证明,以确保在出现消费者权益受损的情况时,申请者具有足够的责任承担能力等[18]。沙盒测试主体应当正确对待自身与监管机构、消费者之间的关系,不能将包容审慎的监管态度误解为放任自由[19]


(五)多方合作、增强监管机构专业能力


构建审慎包容的监管环境、实现创新与发展的平衡是提升监管能力、实现我国人工智能领域监管沙盒制度构建目标的重要抓手。这一目标的核心在于构建一个由政府、企业和社会共同参与的协同治理模式。


首先,人工智能技术的复杂性决定了其沙盒测试必然涉及多方主体。人工智能企业、监管机构等主体应当紧密联系、展开合作,在产品和服务的沙盒测试中形成合力。在人工智能企业进入沙盒测试之前,监管机构应当就测试时间、测试规则、监督方式等核心要素进行磋商,并根据企业所运营人工智能的风险类型和风险程度的不同,进行差异化监管。其次,监管沙盒给予企业较大的自我管理空间,但人工智能企业作为创新主体,应当承担起自我规制的责任,即向社会披露相关信息,以建立企业与消费者的信任关系。再次,多方合作需要人工智能领域的专业技术人才作为支撑。监管机构需要相关的技术知识作为制定科学的监管策略的支撑,因此,监管机构应积极吸引和培养人工智能领域的专业人才,以便为沙盒测试提供精准的技术指导和支持,协助企业在创新过程中有效规避潜在风险,确保人工智能技术的健康发展。最后,国际合作与协调在人工智能监管沙盒制度的构建中同样不可或缺。通过国际交流与合作,我们能够吸收和借鉴其他国家的成功经验,进而实现监管资源的优化配置,促进人工智能技术的可持续发展[20]


结语


监管沙盒制度是平衡创新与规范的重要工具,沙盒测试不仅有助于人工智能企业逐步适应新的法律框架,同时也能反映现行监管策略是否需要针对测试技术进行调整和完善。人工智能监管沙盒制度有助于克服监管碎片化和监管摩擦,同时还有效减少了因此产生的法律不确定性,其在人工智能领域的运用具有合理性。但需要强调的是,监管沙盒在人工智能领域的应用仅限于人工智能研发至上市前的有限时间段内。受限于测试条件,沙盒测试可能无法全面覆盖人工智能系统投入市场后所面临的复杂场景与问题。因此,尽管监管沙盒制度在一定程度上为人工智能领域的创新提供了法律背书,但这并不意味着企业责任的完全豁免,人工智能企业在创新过程中仍然需要遵循相关法律法规及伦理规范。


参考文献


[1] 胡滨,杨楷.监管沙盒的应用与启示[J].中国金融,2017(02):68-69.


[2] 张惠清.“监管沙盒”中国化运作——英国“监管沙盒”的启示[J].活力,2022(24):44-47.


[3] 张红.监管沙盒及与我国行政法体系的兼容[J].浙江学刊,2018(01):77-86.


[4] 廖凡.金融科技背景下监管沙盒的理论与实践评析[J].厦门大学学报(哲学社会科学版),2019(02):12-20.


[5] 陈继祥,王敏.破坏性创新理论最新研究综述[J].科技进步与对策,2009,26(11):155-160.


[6] 刘鹏,郭戈英.走向适应性监管:理解中国金融监管机构改革的治理逻辑[J].学海,2023(03):42-50.


[7] 张广伟.欧盟人工智能监管沙盒制度的功能、局限及其启示——基于欧盟《人工智能法》的解析[J].德国研究,2024,39(02):116-132+136.


[8] 黄静怡.“分级分类”与“契约”风险治理并行的人工智能监管制度构建——以欧盟《人工智能法案》为分析对象[J].海南金融,2024(02):76-85.


[9] 刘洋,李益斌.愿景政治视角下人工智能规范的“欧洲方案”研究[J].当代世界与社会主义,2023(04):153-161.


[10] 史凤林,张志远.论人工智能的公法规制:美欧模式与中国路径[J].理论月刊,2023(08):127-139.


[11] 易学文.论“监管沙盒”制度的实践哲学转向——以欧盟《人工智能法》为分析对象[J].南海法学,2023,7(04):11-19.


[12] 曾雄,梁正,张辉.欧盟人工智能的规制路径及其对我国的启示——以《人工智能法案》为分析对象[J].电子政务,2022(09):63-72.


[13] 邓建鹏,李雪宁.监管沙盒的国际实践及其启示[J].陕西师范大学学报(哲学社会科学版),2019,48(05):62-76.


[14] 胡滨.金融科技、监管沙盒与体制创新:不完全契约视角[J].经济研究,2022,57(06):137-153.


[15] 张景智.“监管沙盒”制度设计和实施特点:经验及启示[J].国际金融研究,2018(01):57-64.


[16] 边卫红,单文.Fintech发展与“监管沙箱”——基于主要国家的比较分析[J].金融监管研究,2017(07):85-98.


[17] 王频,陈云良.数字经济时代金融消费者保护新范式——基于监管沙盒模式的展开[J].科学决策,2023(01):119-132.


[18] 刘帆.沙盒监管:引入逻辑与本土构造[J].西南金融,2019(03):53-63.


[19] 邓文娟,高圣平.论智能网联汽车监管的沙盒模式——兼评中国相关地方立法[J].江汉论坛,2023(04):125-128.


[20] 张乐.新兴技术风险的挑战及其适应性治理[J].上海行政学院学报,2021,22(01):13-27.


[21] 刘艳红.人工智能法学的“时代三问”[J].东方法学,2021(05):32-42.


[22] 陈吉栋.人工智能法的理论体系与核心议题[J].东方法学,2023(01):62-78.


[23] 陈兵,董思琰.生成式人工智能的算法风险及治理基点[J].学习与实践,2023(10):22-31.


[24] 陈兵,董思琰.分类分级治理算法的基本内涵及实践进路[J].西安财经大学学报,2023,36(06):70-79.DOI:10.19331/j.cnki.jxufe.2023.06.007.


[25] Regulating Autonomy: An Assessment of Policy Language for Highly Automated Vehicles[J]. SchuelkeLeech BethAnne;Jordan Sara R.;Barry Betsy.Review of Policy Research,2019.


[26] A Sandbox Approach to Regulating High-Risk Artificial Intelligence Applications[J]. Truby Jon;Brown Rafael Dean;Ibrahim Imad Antoine;Parellada Oriol Caudevilla.European Journal of Risk Regulation,2021.


[27] 郭萍. 互联网行业破坏性创新研究[D].中国科学技术大学,2016.


[28] 李芳恬. 沙盒监管法律制度研究[D].郑州大学,2022.


[29] 李杨. “监管沙盒”制度研究[D].北方工业大学,2023.


[30] 刘帆. 金融科技时代沙盒监管法律制度研究[D].西南政法大学,2020.


var s = document.getElementsByTagName("script")[0]; s.parentNode.insertBefore(hm, s); })();