作者:冯一帆
随着社会经济的发展,人工智能已广泛应用于当今人们的工作与生活之中。然而,人工智能在提供便利的同时,也会产生诸如算法黑箱和信息茧房等风险,因此,对其进行监管十分重要。本文通过梳理欧盟、美国和英国人工智能监管制度,来探究域外人工智能监管问题。
截至目前,在人工智能监管方面,欧盟、美国、英国并未出台专门的法律法规,但已出现与人工智能相关的监管指导性文件,其中公众关注的有欧盟委员会通过的《人工智能法案》(草案)、美国的《人工智能权利法案蓝图》与《人工智能风险管理框架1.0》、英国发布的指导性文件《人工智能监管政策》与人工智能新监管框架的提案《促进创新的人工智能监管方法》。通过上述政策文件可以发现,目前欧盟、美国、英国在人工智能监管的机构设置、主要特点及具体内容等方面均存在一定的差异。
监管的机构设置
欧盟人工智能监管的机构设置。欧盟意识到使用人工智能技术可能带来的潜在风险,因此,欧盟委员会于2021年发布的《人工智能条例》预设了一个专门的国家监督机构来确保法律的适用和实施。该条例规定:“对于欧盟机构和组织开发的人工智能系统,由欧洲数据保护监督员主管负责。”即欧盟委员会提议在每个成员国设立中央监管机构(欧洲人工智能委员会)和国家监管机构来对人工智能进行监管。
美国人工智能监管的机构设置。一般来说,独立的监管机构作为政府权力的延伸与补充,其创建的目的通常是对不公平举措进行预防。目前,美国并未统一设置人工智能监管机构,各政府部门通过发布对现有规则的解释与指引或发布新规则来对人工智能进行监管,监管主体有联邦政府及其相关部门或机构、州政府及其相关部门或机构。
英国人工智能监管的机构设置。去中心化的英国制度不会创建新的监管机构,相反,其将依靠现有的监管机构来执行,如金融行为监管局、信息专员办公室、竞争与市场管理局、平等与人权委员会以及药品和保健产品监管机构,其中,信息专员办公室是英国拟建立的人工智能监管机构。
监管的主要特点
欧盟自2016年起就不断探索对人工智能技术应用的监管体系构建,其以欧洲整体层面为视角,致力于构建协调一致、适合欧洲发展的人工智能治理体系。欧盟监管的政策重点是,以基本人权为底层逻辑,侧重于保障个人权利。其治理模式是基于比例原则的风险分层治理。监管机制是采取分级监管、多种监管,并实行高额的行政处罚,且将公私机构一起纳入监管范围。欧盟在人工智能领域的执法案例主要涉及反垄断法和数据保护法,典型案例是谷歌案,2017年,谷歌因存在滥用市场支配地位行为而被欧盟委员会处以24.2亿欧元的罚款。
美国侧重于对人工智能在具体应用场景下的监管,但是尚未出台统一综合的人工智能立法。联邦政府在为市场提供监管参考时通常采用白皮书、指南等形式;地方政府在提供监管参考时则多以立法形式。监管政策的重点是,以促进产业发展为主,在治理时侧重于维护公平和保护隐私。其治理模式是风险评估与风险管理框架。监管机制不是单一的依赖于行政监管,而是强调政府部门与私营部门的协作。并且,为了推动人工智能技术的发展,主张企业进行自我监管。
在执法方面,主要集中在美国联邦贸易委员会与美国版权局。两个机构以维护市场公平竞争和保障人工智能技术合理使用为执法目的,典型案例是Everalbum人脸识别案和《黎明的曙光》版权案。
英国人工智能监管政策的重点是,以促进科技发展为主,治理方面侧重于支持创新的监管体系。监管机制是统筹协调各部门进行人工智能监管工作,强调监管方式的灵活性,并保持手段和目标之间适当的比例性。在执法方面,英国以保护用户隐私数据安全为前提,并主要依赖于《英国通用数据保护条例》。然而,英国信息专员办公室执法活跃度并不高,截至目前,仅有极少数的罚款案件。如2021年的美国人脸识别公司Clearview AI案,因Clearview AI未经个人同意自行收集和处理个人生物识别数据,英国信息专员办公室以其侵犯英国隐私法律法规为由,对美国人脸识别公司Clearview AI处以750万英镑的罚款,命令Clearview AI停止收集和使用在互联网上公开的英国居民个人数据,并从系统中删除英国居民的相关数据信息。
监管的具体内容
欧盟在2023年6月通过了《人工智能法案》的谈判授权草案(以下简称《法案》),《法案》的监管思路是以横向监管为基础,以风险规制为主要方式,同时兼顾监管与发展的动态平衡。
《法案》具有以下特征:
其一,根据风险程度的等级对人工智能进行分类,其中评估风险是关键环节,分为不可接受的风险、高风险、有限风险与最小风险四类,并根据风险程度的不同来匹配不同的监管措施。
其二,《法案》提出风险管理覆盖规制的全过程。欧盟为规避风险,结合人工智能的特征提出了全生命周期的规制方案,该方案将覆盖人工智能产品入市前与入市后,实现事前、事中、事后的全面规制。在事前阶段,将人工智能的预期风险划分为四个等级,依据应用场景和风险等级的不同,制定与之相对应的监管举措;在事中阶段,强调人工智能监管沙盒的作用机制;在事后阶段,规定系统供应商应针对高风险进行全程售后监测,并及时将故障数据上报给国家监管部门。
其三,根据风险类型和风险程度不同,对规制措施进行动态调整。上市前需对人工智能系统进行合格评估,主要评估即将上市的系统是否属于《法案》第二章规定的各项禁止性做法。若高风险人工智能系统在上市后发生实质性修改,则应启动新的评估程序。上市后需针对人工智能系统制定监测计划,并对高风险系统的监测系统进行重点监测。因该监测系统主要收集、分析基于使用人工智能系统而产生的数据,所以该系统需具备日志记录功能,以保证相关数据的可追溯性。
美国于2022年10月提出了《人工智能权利法案蓝图》(以下简称《蓝图》),《蓝图》并未明确实施细则,而是以公平与隐私为重点,要求相关主体在人工智能系统开发过程中以坚守公平正义为底线,保证系统使用者不受算法歧视和数据隐私泄露的侵害。《蓝图》通过设立五项基本原则来预防滥用人工智能技术带来的风险,即规避算法歧视;加强隐私数据保护;及时履行通知与解释义务;准备替补方案与退出机制;构建安全高效系统。2023年1月,美国国家标准与技术研究院发布《人工智能风险管理框架1.0》(以下简称《框架1.0》)。该文件之所以备受关注,一方面是因为其致力于识别与人工智能系统部署相关的各类风险,从性质上来看是非强制性的指导性文件,可由相关机构自愿选择使用,其比约束性法律更容易在应用中实现更新迭代;另一方面是因为它是由多方利益主体共同参与并制定的,具有高可信度和高接受度。
在具体内容上,《框架1.0》由一个摘要、两部分正文和四个附录所组成,第一部分是基础信息,包含对人工智能风险的界定、框架的管理目标和受众主体等。第二部分是框架核心及具体配置,指出框架核心由四个顶层模块所组成,即治理、映射、测量和管理,而每个功能项下还分别下设两级展开目录。《框架1.0》采用多元化的治理方案,旨在帮助相关主体部署人工智能系统,减少对人工智能技术的偏见,增强其可信度并保护个人数据隐私。从而有效规避人工智能系统带来的风险,帮助诸多行业及组织将人工智能风险管理原则转化为实践,以提高相关主体使用人工智能系统的安全性与可靠性。
英国在人工智能监管路径设计方面主张平衡创新与发展。英国政府于2022年7月颁布的《人工智能监管政策》(以下简称《政策》),以创建新型人工智能监管机制为目标。新型人工智能监管机制将基于人工智能的自适应性、自主性等特征来协调各部门实施相应的监管工作。在监管方面,《政策》提出了四项原则:其一,坚持具体情形具体监管原则。即根据不同的情形设置不同的监管方案,并明确各监管机构所承担的监管责任,从而保障监管方案的针对性和有效性。其二,遵循协调原则。即鼓励监管部门间建立沟通协调机制,从而实现跨部门的个性化监管。其三,鼓励创新原则。即支持创新监管,要求监管机构着力解决有明确证据证明风险存在的问题。其四,比例性原则。即在确保监管方法与被监管行为特点相一致的同时,还应确保目标与方法之间的比例性。
2023年3月,英国发布政策报告《促进创新的人工智能监管方法》(以下简称《方法》),《方法》的制定以提供具有创新性、可信赖性的人工智能监管框架为目的。《方法》指出,监管框架将以以下基本原则为基础,即安全性、可靠性和稳健性、透明度和可解释性、公平性、问责制和治理以及可争议性和补救措施。
基于监管原则,英国政府计划采取以下方法来构建一个灵活的监管框架:其一,基于人工智能应用场景来评估风险,灵活调整监管;其二,应重点关注人工智能应用导致的真实、可识别和不可接受的风险;其三,制定针对人工智能特征的跨部门原则,以保障监管框架的一致性;其四,通过不断审查监管方法来保持监管方法的适应性。