摘要:随着数字技术的迅猛发展,数字科技伦理问题日益凸显。欧盟已经形成相对完善的数字科技伦理监管政策体系,并设置相关监管机构,具有一定的借鉴意义。对欧盟数字科技伦理监管进展进行分析后发现:第一,欧盟数字科技伦理监管主体包括立法层的欧盟委员会、欧洲议会、欧洲理事会;在制度执行层,主要包括欧盟和成员国相应的数字科技伦理监管机构;行业组织和协会则发挥着提供意见和咨询等作用。第二,监管政策布局以人工智能和大数据为重点领域,重点议题主要面向人工智能的可信赖与负责任式创新、数据安全与隐私保护、互联网安全。第三,监管模式与机制为欧盟统一框架引领下成员国各具特色的双重监管,注重综合性监管政策与细分监管政策的配合且多元社会主体共同参与其中。欧盟相关实践对中国开展数字科技伦理监管的启示在于:在制度设计上,要注重软性约束与硬性监管相结合、全局性监管与专门性监管并行,加强双边和多边伦理监管制度建设;在监管模式上,要广泛吸纳多元主体参与数字科技伦理监管政策的制定,形成中央和地方一致且协调的双重监管,并设置相应的伦理监管机构来保障制度的有效执行;在社会生态赋能上,要加大数字科技领域的创新投资力度,推动数字科技的广泛应用和协调发展,加强国际合作与交流。 关键词:数字科技;科技伦理;监管模式 基金资助:国家社会科学基金重大项目“国企混合所有制改革的实现路径选择研究”(20&ZD073);中国社会科学院国情调研重大项目“数字科技伦理监管制度调查研究”(GQZD2023009);中国社会科学院登峰战略企业管理优势学科建设项目。 |
21世纪以来,数字经济作为一种新的经济形态在全球发展迅猛,并逐步成为中国经济高质量发展的重要引擎。以人工智能、大数据、区块链以及互联网等为代表的数字科技是企业数字化转型和国家经济发展的重要技术支撑。从国际经验来看,欧盟是较早开展数字科技发展战略布局的地区,为了促进数字科技的快速发展,先后发布了《欧洲人工智能战略》《人工智能白皮书》《欧洲数据战略》《欧洲新工业战略》《投资未来:欧洲2021—2027数字化转型》《2030数字指南针:欧洲数字十年之路》等战略性文件来对数字科技的发展进行部署和规划,以期降低对美国等数字科技领先国家的依赖,将数字主权牢牢握在手中。随着数字化转型进程的不断深入,数字科技渗透到经济和社会的程度也在不断加深。然而,在数字科技为人类生产、生活带来智能化和便捷化的同时,个人隐私泄露、数据安全性、算法黑箱、深度伪造、信息茧房以及数字鸿沟等伦理问题也随之出现,引起政府、学界等主体的广泛关注和探讨,面向数字科技伦理监管的重要性日益凸显。欧盟对数字科技的伦理监管开始的较早,制度体系建设相对完善,对于中国数字科技伦理监管具有重要的借鉴意义。早在1995年欧洲议会和欧盟理事会出台的《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》就对数据安全和个人隐私问题提出了相关监管要求,再到《一般数据保护条例》《可信人工智能伦理指南》和《人工智能法案》(草案)等一系列监管政策的出台和实施,欧盟构建了相对严格和完善的数字科技伦理监管制度体系,形成了以政府为主导,多方利益主体共同参与的监管模式,并设置了相应的监管机构来保障伦理监管制度的有效落地。在梳理相关研究文献的基础上,本文将系统性阐述和分析欧盟数字科技伦理监管领域主要主体及其发挥的作用、伦理监管政策的布局、重点议题、监管模式和机制以及监管机构设置等,并结合中国现行的数字科技伦理监管制度建设和机构设置情况,提出相应的政策建议,这对中国加强数字科技的伦理监管,推动经济和社会的高质量发展具有重要意义。
从既有对数字科技伦理监管的研究来看,学者们对欧盟、美国、英国以及日本等国家的数字科技伦理监管情况的研究较丰富,且多属于制度建设情况、动态分析和经验借鉴层面。一是从数字科技规制与监管的总体思路方面开展分析,贾开等[1](2018)、章小杉[2](2019)对欧盟和美国关于算法歧视的法律规制模式进行了分析和比较,其将欧盟的模式归纳为以数据保护为中心,美国的模式为以算法责任为中心,并在此基础上对提出了中国的算法歧视规制之路。郭丰等[3](2020)和林美玉,王琦[4](2021)对欧盟的5G相关监管法律和指导性文件进行介绍与分析,并从监管模式、推动机制以及保障措施等方面解读了欧盟的5G安全监管工作的路径和举措,对中国5G网络安全监管具有一定的借鉴意义。宋黎磊等[5](2021)对中、美、欧三个区域的人工智能治理体系进行了归纳和比较分析,其中,中国是在负责任的人工智能理念下不断加强制度体系建设,美国则在经济发展、技术创新以及伦理监管三者之间实现多方利益主体平衡的治理,欧盟作为人工智能伦理监管的领先者对全球的治理体系具有影响力。三者可以尝试通过国际合作平台、民间行为体等媒介来加强合作监管。二是按照人工智能(算法)、大数据、区块链等数字技术类别来分别阐述和分析存在的伦理问题、监管政策体系的建设情况等。其中,对于人工智能技术伦理监管的研究主要关注深度强、弱人工智能不同发展阶段所涉及的伦理问题以及风险,并提出了相应的防范措施[6]。也有部分研究中国现行的算法伦理监管法律框架和制度探索算法监管与算法治理的多重监管与治理模式[7-8]。胡鹏鹏,翟相娟(2022[9])对区块链技术给个人信息删除权带来的伦理问题提出宏观与微观监管进路。三是针对数字科技应用中的重点企业类型探索伦理监管的主要范式、实现模式与推进路径,包括针对互联网平台企业的监管范式重塑[10]、人工智能企业道德伦理监管[11]、数字企业社会责任治理[12]以及平台情境下的企业社会责任治理内容、维度与模式的全方位重塑[13]等多层次研究。四是针对一些国家或地区发布的某一项或几项数字科技伦理监管政策的内容进行具体分析与研究。金晶(2021)[14]以欧盟的《一般数据保护条例》为重点内容,对欧盟个人数据保护政策定位、规则构建、司法推动以及风险和展望等进行了系统阐述和分析。曾雄等(2021)[15],王伟洁等[16](2022)以及金玲[17](2022)对《人工智能法案》(草案)的相关内容进行了介绍,指出欧盟在人工智能伦理监管上试图取得促进技术创新和加强伦理监管之间的平衡,弥补在人工智能技术上的短板,并实现数字主权的战略目标。
通过梳理现有数字科技伦理监管领域的相关文献,可以发现学者们停留在对欧盟、美国、英国以及日本等国家的伦理监管法律法规以及监管模式等进行介绍,结合中国数字科技伦理监管的现状,提出完善中国伦理监管制度体系以及加强数字科技伦理监管的政策建议,缺少对欧盟数字科技伦理监管制度体系、监管模式和机制等方面进行系统性的深入分析。正是针对学者们研究较少的这一领域,本文将对欧盟数字科技伦理的监管主体、政策布局、重点议题、监管模式和机制进行系统性和较深入的剖析和总结,并在此基础上提出有助于完善中国数字科技伦理监管的启示和经验借鉴。
一、欧盟数字科技伦理的监管主体与政策布局
鉴于域内的大型数字企业较少,欧盟数字科技伦理的监管主体主要是政府机构、社会组织以及行业协会等,其监管政策的形成主线是政府牵头,其余主体以提交研究报告、修改建议以及对相关政策进行测试等形式提供相应的支撑。在数字科技伦理监管的政策布局上,人工智能和大数据为重点领域,伦理监管的政策体系较完善,其中《人工智能伦理准则》和《一般数据保护条例》较有代表性。对区块链和互联网的伦理监管则侧重于具体应用领域的安全性、自由性和平等性。
(一)欧盟数字科技伦理监管的核心主体及其监管方式
欧盟对于数字科技的伦理监管一直走在前列,鉴于域内的大型数字企业较少,其主要监管主体是政府机构、社会组织以及行业协会等。按照不同监管主体在数字科技伦理监管中所发挥的作用和监管方式,将其划分为立法层、执行层以及行业组织和协会三个层面,各类数字科技伦理监管主体及其监管方式具有较大的差异性。
1.立法层:欧盟委员会、欧洲议会与欧洲理事会
欧盟数字科技伦理监管相关法律法规的核心立法机构主要有欧盟委员会、欧洲议会以及欧洲理事会。按照欧盟现行的立法程序,三者在其中发挥着不同的作用。一般而言,一项数字科技伦理监管立法最早由欧盟委员会提出,草案形成之后交由欧盟理事会审议,最终由欧洲议会决定是否通过,如果通过,相关草案将在欧盟公报公布20天后生效,经过2年的过渡期之后正式实施。
欧盟委员会主要发挥制定数字科技伦理监管政策并设立伦理委员会等作用。欧盟委员会根据欧盟域内的数字科技发展情况及战略规划来制定相关伦理监管政策,将伦理监管的思想、原则以及措施等内嵌到数字科技相关发展战略和资金支持计划之中,并设立了科技伦理委员会以对数字科技伦理监管提供指导和咨询等支撑。具体而言,在数字科技伦理政策的制定方面,欧盟委员会以欧盟核心价值观为指导,针对人工智能、算法以及大数据等数字技术所面临的伦理问题制定相应的监管政策,并在欧盟全域内推行。欧盟委员会出台的伦理监管政策以《可信人工智能伦理准则》《人工智能法案(草案)》《一般数据保护条例》,《数字服务法案》等较有代表性,在数字科技伦理监管中发挥着重要的作用。在将伦理监管的相关思想、原则以及措施等内嵌到战略规划和资金支持计划中方面,例如启动于1984年的“欧盟科研框架计划”在“第七框架计划”中提出了负责的研究与创新(responsible research and innovation,RRI)理念,将科技伦理理念从科技产品应用扩展到科技的创新与研究中。《欧洲人工智能战略》提出要在欧盟核心价值观与《欧盟基本权利宪章》的基础上,确立合适的人工智能伦理与法律框架。《人工智能协调计划》中明确了欧盟人工智能的两大关键原则是设计伦理(ethics by design)和设计安全(security by design)。《欧洲数据战略》提出要建立包含公共数据的使用与共享、个人数据的使用以及网络安全等领域的统一数据治理框架。
欧盟委员会推动设立欧盟层面和成员国层面的伦理监管部门和咨询专家组等,以制定监管准则或提出数字科技伦理监管的建议等。欧盟委员会早在1997年就组建了欧洲科学和新技术伦理专家组(the European Group on Ethics in Science and New Technologies)就科技伦理的政策制定和立法等方面提供建议。为了更好的制定伦理监管规则,2018年6月欧盟委员会在《欧洲人工智能战略》框架下成立了人工智能高级专家组,就人工智能的发展机遇、中长期风险等问题提供政策建议,并负责起草人工智能规范性文件。欧盟数据保护委员会是欧盟数据保护的中心,也是成员国内部数据保护机构合作机制的关键。在成员国层面,数字科技伦理监管机构有相应的设置,例如德国于2018年组建了数据伦理委员会,对数据保护等伦理问题制定相关原则和提供监管建议。
欧洲议会和欧洲理事会制定和审议数字科技伦理监管的相关法律法规。首先,欧洲议会在数字科技伦理监管领域所发挥的作用主要体现在制定数字科技相关伦理监管法律,并在欧盟领域得到推行。早在2016年,欧洲议会法律事务委员会就针对机器人的伦理监管发布了《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》和《欧盟机器人民事法律规则》,提出了对机器人工程师伦理准则、机器人研究伦理委员会伦理准则以及使人类免受机器人伤害的基本伦理原则等。2019年1月,欧洲议会的产业、研究与能源委员会发布报告,呼吁欧盟针对人工智能和机器人制定全方位的欧盟产业政策,涉及网络安全、人工智能和机器人的法律框架、伦理治理等。其次,欧洲议会和欧洲理事会对欧盟委员会提出的数字科技监管政策或法案进行审议并提出相应的修正案或建议,有助于相关监管政策的进一步完善。例如2017年10月,欧洲理事会指出,欧盟应具有应对人工智能新趋势的紧迫感,确保高水平的数据保护、数字权利和相关伦理标准的制定。2021年4月20日,欧洲议会发布了拟议的《人工智能法案》的修正案(Laying Down Harmonised Rules on Artificial Intelligence(Artificial Intelligence Act)And Amending Certain Union Legislative Acts)。
2.制度执行层:相关伦理监管机构
除了数字科技伦理监管政策的制定之外,欧盟为了保障政策的有效推行和域内执行的一致性,设置了欧盟整体层面和成员国层面相应的监管机构。在人工智能伦理监管机构的设置上,《人工智能法案(草案)》中明确要建立人工智能委员会来推动法案的实施和加强成员国之间的交流,保证欧盟全域内法案执行的统一性和协调性。在成员国层面设置通知机构来发挥对人工智能产品的风险等级的评估、监管以及信息传递等职能。在数据伦理监管机构设置方面,从《关于个人保护中有关个人数据处理以及此类数据的自由流动指令》(95指令)到《一般数据保护条例》均提出要在欧盟构建两个层级的数据保护监管机构,并指出其相应的权力和责任,从而确保在欧盟区域内相关监管制度的有效执行。在区块链伦理监管机构设置方面,区块链伦理问题主要与金融领域的虚拟货币、数据安全和隐私保护等相关联。除了数据伦理监管机构的设置之外,欧盟拟设立反洗钱机构,并于2024年开始运作,成员均来自于各成员国的相关监管机构,从而实现一系列反洗钱指令执行的协调性和一致性,降低跨境虚拟货币流动中的风险。在互联网伦理监管机构的设置方面,2019年欧盟正式实施的《关于欧洲网络与信息安全局信息和通信技术的网络安全》的目标之一就是将欧盟网络和信息安全署(ENISA)设置为永久性机构,并对其职能进行重新界定,提出了网络安全认证制度,并对跨国境的网络安全事故进行联合处理,提高公民的网络安全意识等全域性的网络安全监管要求。
3.行业组织与协会
行业组织和协会在欧盟数字科技伦理监管中主要发挥为开展数字科技伦理监管政策制定提供支持性意见、推出行业示范性规则、促进伦理监管政策实施等作用,其中具有代表性的行业组织有人工智能高级专家组、欧洲人工智能联盟在线论坛以及欧洲绿色数字化联盟等。
人工智能高级专家组(High-Level Expert Group on AI)是欧盟委员会在《欧洲人工智能战略》框架内于2018年6月成立。该专家组由学术界、企业界和民间的52位专家代表组成,就人工智能发展机遇、中长期风险等问题提供政策建议,并负责起草人工智能规范性文件。《可信赖人工智能伦理指南》就是由人工智能高级专家组撰写并提交欧盟委员会发布的,具有重要的参考价值。欧洲人工智能联盟在线论坛欧是由欧盟委员会牵头组建的在线论坛,其既可以广泛动员社会各界参与到人工智能相关的主题讨论中,又可以协助高级专家组的政策制定和提供政策反馈。随着时间的推移,欧洲人工智能联盟越来越成为欧洲人工智能领域社会各界的交流沟通平台。欧盟《人工智能法案》(草案)经过了广泛的意见征询以及专家论证阶段,历时两年后出台。在这个过程中,欧洲人工智能联盟在线论坛作为一个平台,先后组织约4000多名利益相关者就人工智能的技术和社会影响进行辩论,并最终决议每年召开一次人工智能大会。除了加强传统的数字科技伦理监管之外,行业组织还将数字科技伦理延伸至环境目标的实现上,欧洲绿色数字化联盟的成立宗旨就是将环境保护和数字科技结合起来,旨在推动欧盟实现数字化转型的同时,也实现实施气候变化倡议的目标。欧洲绿色数字化联盟是由德国电信、Orange和西班牙电信在内的26家ICT领域企业的高管们组成了一个联盟,沃达丰集团、诺基亚和爱立信的领导人也参与其中,目标是围绕“更绿色”的数字技术以及更节能的服务的投资与开发,帮助欧洲科技行业“变得更加可持续、循环和零污染”。
此外,欧洲政策研究中心、非盈利组织、欧洲数据创新委员会等也发挥一定的伦理监管政策制定和相关报告的研究等工作,对推动欧盟数字科技伦理监管的合理性、重复性、一致性以及互动性等产生一定的影响。例如欧洲政策研究中心于2022年9月14日发布了《人工智能法案和新兴的欧盟数字法案》报告,针对《人工智能法案》(草案)与欧盟其他数字法律法规之间是否存在重叠、不一致性以及差异等进行了分析。欧洲数据创新委员会是在《数据治理法案》推动下设立的,其主要向欧盟委员会提供数据保护领域的相关建议和咨询,推动跨部门数据的流动、使用与共享的治理与规范制定等工作。
(二)欧盟数字科技伦理监管的政策布局
1.面向人工智能伦理监管的政策布局
欧盟高度重视人工智能伦理监管政策制定与布局,以确保人工智能技术朝着有益于人类的方向发展。在人工智能伦理监管政策布局中,欧盟呈现的特点有以实际应用中出现的问题为引导,以机器人伦理监管为开端,逐渐覆盖到人工智能的研发和应用等领域,既内嵌到人工智能发展战略中,又专门制定相关的伦理监管的政策或法规。
欧盟将伦理监管的相关内容内嵌在人工智能发展战略中,以实现对人工智能伦理的“软”监管和原则性指导,并对后续伦理监管政策的出台起到了推动和引导作用。《欧洲人工智能战略》《人工智能协调计划》以及《人工智能白皮书:通往卓越与信任的欧洲之路》等战略性文件最具代表性,试图构建欧盟共同的人工智能监管框架,为人类提供可信任的人工智能系统。在《欧洲人工智能战略》中将对人工智能的伦理监管作为人工智能发展的目标之一,即在欧盟现有价值观和《欧盟基本权利宪章》下,确定人工智能伦理和法律框架。《人工智能协调计划》则指出人工智能技术的发展要符合伦理规范,并进一步提出2019年至2020年间要建立人工智能伦理监管框架。《人工智能白皮书:通往卓越与信任的欧洲之路》指出要构建欧洲共同人工智能监管框架,对人工智能按照风险等级实现分类监管,以减少人工智能对社会的潜在风险为目标。
在人工智能伦理监管政策的布局方面,欧盟开始于对机器人的伦理监管,主要监管政策分布领域为人机共存、如何应对机器人对人类的伤害以及机器人技术工程师伦理等。2017年2月,欧洲议会决议通过了《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics),该规则中包含机器人监管的总体原则性规定和伦理道德规范,也包含适用于无人交通工具、护理机器人等细分领域的法律规定。同该项规则一起发布的指导性准则还包括《机器人技术工程师伦理行为准则》《研究伦理委员会准则》等以供未来立法作具体参照。在《欧洲人工智能战略》《人工智能协调计划》以及《人工智能白皮书:通往卓越与信任的欧洲之路》等重要政策文件的指导下,专门针对人工智能技术的伦理监管准则相继出台。2019年4月8日,欧盟委员会出台《可信人工智能伦理准则》和《建立以人为本的可信人工智能》形成了包含可信人工智能的基础原则、可信人工智能的要求和实现手段以及评估机制等三个部分的欧盟人工智能伦理准则框架。2021年4月21日,欧盟委员会发布的《人工智能法案》(草案)是全球范围内第一份综合性人工智能监管法案,在彰显欧盟的人工智能伦理监管标准和有效应对不同风险等级的人工智能等方面具有全球标杆意义。
2.面向大数据伦理监管的政策布局
从20世纪七十年代开始,欧盟各成员国就开始分散制定关于数据安全或隐私保护相关的法规和条例等,具代表性的有《有关个人数据自动化处理之个人保护公约》(108号公约)《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》(95指令)以及《一般数据保护条例》(GDPR)等,逐渐构建起欧盟域内相对严格的保护个人数据主权和隐私的监管规则体系。欧盟关于大数据伦理监管规则政策的布局在全球具有标杆性地位,《一般数据保护条例》被众多国家或地区当做数据隐私政策制定的参照,深刻影响着全球大数据伦理监管规则的方向。
欧盟成立之后,为了统一各成员国对数据安全和隐私保护的监管法规,欧洲议会和欧盟理事会于1995年通过了《关于个人保护中有关个人数据处理以及此类数据的自由流动指令》(95指令),构建以数据主体同意为核心的数据处理合法化标准,同时也赋予个人对数据的知情权、拒绝权和删除权等基本权利,并通过行政及司法救济来确保个人的数据权利不受侵犯,该指令的发布标志着对个人数据保护和伦理监管进入到“大一统”的欧盟法时代。2018年11月21日,欧洲数据保护专员公署发布了针对欧盟机构和机关的个人数据泄露报告指南《第(EU)2018/1725号条例》,建立了个人数据泄露的评估和报告机制。2018年欧盟颁布的《一般数据保护条例》(GDPR)是史称最严格的个人数据保护法规,数据所有者被赋予携带权、删除权以及申请司法救济、侵权补偿等权利,并确立了个人数据跨境流动的“充分性认定”标准等。2021年欧盟发布的《电子隐私条例》(草案)是对数据伦理监管的进一步细化,对电子通信服务领域的个人数据和隐私保护做出更加具体的要求,将对电子通信内容和电子通信元数据的保护放在了重要位置。2022年欧盟相继发布了《数据法案》《数据治理法案》《数字服务法案》以及《关于GDPR下的个人数据泄露通知》(第9/22号指南)最终版等分别针对非个人数据流动和使用、数据共享和再利用、不同类型数字平台服务企业以及数据泄露等重要细分领域或主体的数据伦理问题提出了具体的监管措施,是对《一般数据保护条例》中空白的填补,也是针对新问题或新主体给出的新监管措施。
3.面向区块链伦理监管的政策布局
作为一种新兴技术,区块链技术体现着技术进步的价值取向并代表着先进技术创新和共识可信。然而区块链的去中心化是以透明度为代价,也存在损害个人信息安全的风险。此外,区块链的创新性、去中心化、匿名性、不变性及自动化等技术特征引发了与被遗忘权、可携带权等与个人信息权利存在冲突的伦理问题。欧盟对区块链的伦理监管主要从个人信息安全、隐私保护以及虚拟货币等角度进行,相关监管政策主要散落在大数据伦理监管政策和反洗钱监管政策中。欧盟具代表性的区块链伦理监管政策有《欧盟反洗钱第五号指令》(AMLD5)和《欧盟反洗钱第六号指令》(AMLD6),这两项反洗钱指令的生效将从事虚拟货币兑换服务的主体以及钱包托管服务商等纳入反洗钱监管,并且明确了其尽职调查的内容和措施,将欧盟的反洗钱和反恐金融规则扩展到了虚拟货币领域。欧盟各成员国根据反洗钱令的要求,陆续完善国内的制度和机构设置。
4.面向互联网伦理监管的政策布局
网络安全是欧盟数字化和欧洲互联的基石,互联网伦理问题主要集中在安全性和隐私保护领域。目前,欧盟已经构建起以《关于欧洲网络与信息安全局信息和通信技术的网络安全》、《关于在欧盟全境实现高度统一网络安全措施的指令》、《欧盟电子通信准则》(European Electronic Communications Code,简称EECC)以及《网络弹性法案》等政策为主的伦理监管框架。其中,2016年发布的《网络与信息系统安全指令》(后被《关于在欧盟全境实现高度统一网络安全措施的指令》替代)是欧盟最早关于网络安全的监管政策,具有统领性的意义。该指令要求各成员国要制定网络安全战略,将《网络与信息系统安全指令》转化为国内法,并加强成员国之间的合作与交流。2019年正式实施的《关于欧洲网络与信息安全局信息和通信技术的网络安全》则是将欧盟网络和信息安全署(简称为ENISA)设置为永久性机构,提出了网络安全认证制度,并对跨国境的网络安全事故进行联合处理,提高公民的网络安全意识等全域性的网络安全监管要求。2022年9月15日发布的《网络弹性法案》针对具有数字元素的产品在整个生命周期内引入了强制网络安全要求,从而保护消费者和企业免受安全功能不足产品的影响,监管对象包括制造商、进口商、经销商等数字产品产业链中的多个主体。该法案是欧盟第一部针对数字产品制造商实施的网络安全立法。2023年正式生效的《关于在欧盟全境实现高度统一网络安全措施的指令》在《网络与信息系统安全指令》所包含的监管实体基础上,将数据服务、关键产品制造、邮政快递等主体纳入监管范围,加强了网络安全风险管理的相关要求,细化了国际合作机制等。至此,欧盟已经形成已覆盖网络与信息系统安全、风险管理、安全事故跨境联合处理以及数字产品全链条安全等多个领域,成为保障欧盟互联网安全域伦理监管的重要政策依据。
除了互联网整体层面的伦理监管政策,欧盟专门针对5G网络安全制定了监管政策来应对相关伦理问题。其中,《5G网络安全建议》对5G网络安全相关制度建设和具体路径做出了部署,以确保欧盟5G网络的安全性。在该建议的统领下,欧盟相继配合出台了《5G网络安全风险评估报告》、《5G网络威胁视图》、《欧盟5G网络安全风险消减措施工具箱》《EECC安全措施指南》以及《5G补充说明》(林美玉等,2021)[4]等指导性文件,为通信服务提供商、设备制造商缓解5G网络安全风险等问题提供了更加明确的技术指导。欧盟形成了覆盖5G网络整体和具体细分领域的相对完善的政策监管体系,为欧洲互联、安全且自由的使用5G网络铺平了道路。
二、欧盟数字科技伦理监管的重点议题
欧盟数字科技伦理监管重点议题的核心始终围绕着以人为中心,不侵害公民基本权利,不违背人类道德伦理,让数字科技更好的服务于人等理念,试图构建以欧盟为主导的全球数字科技伦理监管制度体系。欧盟在数字科技伦理方面的重点议题主要集中在人工智能和大数据领域,尤其是人工智能领域。欧盟数字科技伦理监管的重点议题主要包括算法的非歧视与透明性、数据的安全性、隐私保护、数字鸿沟、数字贫困、自由、公平性以及对特殊群体的关注等,贯穿于人工智能、大数据、互联网以及区块链等领域。
(一)可信赖的人工智能与责任式人工智能创新
人工智能领域相关的科技伦理监管是较早的,欧盟一直强调在使用人工智能技术时,需要维护法律面前平等、个人隐私、言论自由以及参与文化和政治生活的权利,尤其是对于少数群体而言。欧盟围绕人工智能伦理的重点议题主要有个人隐私保护、深度伪造、算法歧视以及算法透明性等。
在个人隐私保护方面,欧盟在人工智能发展战略性文件中建议资助更多关于标准化隐私设计方法的研究,促进加密解决方案和保护隐私的机器学习,从而确保高质量的数据可用于训练算法和执行人工智能任务而不侵犯隐私。此外,欧盟从最开始的《欧盟机器人民事法律规则》到《可信人工智能伦理准则》《人工智能责任指令》,再到《人工智能法案》(草案)均将个人隐私保护放在重要位置,由于机器人和人工智能这一系统包含数据系统和数据流,《欧盟机器人民事法律规则》提出需要对个人和敏感数据的机密性特别关注,并出台了《机器人技术工程师伦理行为准则》与《研究伦理委员会准则》作为补充。《可信人工智能伦理准则》中更是将尊重隐私作为可信赖人工智能的一项要求单独列出。《人工智能法案》(草案)也将隐私保护和数据治理作为监管重要内容。
在人工智能应该以人为中心、为人类服务方面,欧盟在人工智能伦理监管领域一直将基本价值观贯彻其中。《欧盟机器人民事法律规则》《可信人工智能伦理准则》等伦理监管政策中均包含相关内容的阐述,确保人工智能以人为中心,以人为中心包括尊重人的尊严、平等、公平、公正、不歧视以及自由等原则和价值观。人工智能和机器人应以人为中心并发展为人类辅助的原则,发挥人工智能的巨大潜力,例如在医疗、自动驾驶等领域。
在人工智能的深度伪造方面,《人工智能法案》(草案)中对深度伪造的概念以危害进行了阐述,是指利用人工智能技术(包括机器学习和深度学习)制作或合成的音频、图像或视频内容,让人以为是真实和原始的,从而产生了虚假信息的传递,这种深度伪造现象将引起公众对人工智能的不信任和社会的两极分化等。
在人工智能和算法的反歧视性方面,人工智能和算法的歧视性体现在种族、性别、性取向以及年龄等方面,《可信赖人工智能伦理准则》中强调应确保欧盟所倡导的关于保护公民基本人权的相关原则,尤其是对于儿童、妇女、残障人士以及少数群体等弱势群体的歧视。《人工智能法案》(草案)中的相关条款也对降低算法的歧视性发挥作用,对欧盟现有反歧视相关法律法规做了补充。
在人工智能及算法的透明性方面,由于人工智能系统和算法本身就具有不透明性,又称为算法黑箱,对其进行伦理监管以提高其透明性是极为重要的议题。《可信人工智能伦理准则》中指出透明性是建立和维护可信赖人工智能的关键,可信赖人工智能伦理透明度算法在使用过程中应该接受人类的监督,其决定必须是可问责、可质疑的,并在相关情况下是可逆转的。《人工智能责任指令》中提出高风险人工智能系统的开发和部署者具有归档、记录保存以及提供相关信息的义务,以满足后续证据披露的需要。《人工智能法案》(草案)中对于深度伪造技术的透明度提出了相关要求。此外,人工智能伦理监管机构也应具有独立性和透明度。
(二)数据隐私保护与数据安全
欧盟对大数据领域伦理监管的重点集中在隐私保护、数据安全以及数字鸿沟和数字贫困等领域。其中,隐私保护和数据安全主要集中在个人数据领域,数字鸿沟和数字贫困关注的是不同区域、不同群体平等性的伦理问题,并通过建立欧盟全域的数据保护机制,为欧洲数字单一市场的建设提供支持,推动欧盟数字经济红利的加快释放。
在隐私保护和数据安全方面,数据保护和基本隐私权利是欧盟公民数字建言平台“欧洲未来会议”(The Conference on the Future of Europe)的主要议题,同时要将弱势群体保护、算法歧视、监视和言论审查等伦理问题纳入欧委会未来的讨论中,以促进数字领域的正义和法治[18]。对个人数据的伦理监管更加重视隐私保护,非个人数据则更加重视安全性和使用,这既是《欧洲人权公约》《欧盟基本权利宪章》相关条款的体现,也是伦理监管的重要议题。《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》《第(EU)2018/1725号条例》《一般数据保护条例》以及《电子隐私条例》(草案)均对个人数据的安全和隐私保护做出相关监管要求,并对个人数据所有者相关的权利进行了明确,主要包括携带权、拒绝权、删除权等权利,且可以通过行政及司法救济来确保数据权利不受侵犯。《数据法案》《数据治理法案》以及《数字服务法案》等则分别针对非个人数据安全和使用、数据共享和再利用、不同类型数字平台服务企业等重要细分领域或主体的数据伦理提出了具体的监管措施,其中,公共部门机构持有的数据在使用时应该关注商业保密、统计保密以及第三方的知识产权保护等。
在消除数字鸿沟和数字贫困方面,首先,欧盟各成员国之间在数字科技发展上存在一定的差异,芬兰、德国等少数国家数字科技发展相对迅速,应用覆盖率较高,而其他国家则处于相对落后状态。为了消除数字鸿沟,提高域内数据共享和使用,欧盟强调建立数字单一市场,为数据共享创造良好的法律环境,例如建立数据共享服务提供者通知制度等,提高数据共享主体的信任程度,扫除成员国之间数据共享,尤其是公共数据共享方面的障碍。其次,在不同年龄段和教育背景的公民之间,已经进行数字化转型和未参与数字化转型的企业之间也存在数字鸿沟。为此,欧盟加大对妇女和老年人等弱势群体的数字技能提升和教育措施等领域的投资,从而消除数字鸿沟。《2030数字罗盘:欧洲数字十年之路》中提出欧洲2030年的战略愿景是建设一个“没有人掉队”的数字社会,力图弥补新的“数字鸿沟”和“数字贫困”。
(三)互联网安全与公平透明的数字市场
欧盟将核心价值观和公民的基本权利贯彻到网络伦理监管之中,强调公民使用网络的自由和公开性。在传统现实空间中奉行的规范、原则和价值观也应当同样适用于虚拟的网络空间,基本权利、民主和法治在网络空间中也应当受到保护。网络空间是一个拥有自由和基本权利的空间。
欧盟将互联网的安全性放在重要位置,现行的《关于欧洲网络与信息安全局信息和通信技术的网络安全》《关于在欧盟全境实现高度统一网络安全措施的指令》《欧盟电子通信准则》《外国直接投资审查条例》以及《网络弹性法案》等监管政策均强调网络的安全性和可靠性,以保障欧盟数字化进程和其他数字技术的应用。欧盟还将欧盟网络和信息安全署(简称为ENISA)设置为永久性机构,以确保全域内的网络安全。此外,欧盟专门针对5G网络的安全性制定了《5G网络安全建议》《5G网络威胁视图》、《欧盟5G网络安全风险消减措施工具箱》《EECC安全措施指南》以及《5G补充说明》等相关监管政策和技术指导文件等。
除了安全性之外,欧盟还关注隐私和信息保密以及特殊人群的权利等伦理问题。在网络使用过程中每个人都有权对其通信和电子设备上的信息保密,不受非法在线监视、非法的跟踪或拦截措施的影响,有效保护通信免受未经授权的第三方访问,禁止非法身份查验和非法保留活动记录等。欧盟关注儿童和青年的网络使用权利,保护所有儿童和青年免受网上有害和非法内容、剥削、操纵和滥用的侵害,防止数字空间被用于犯罪或为犯罪提供便利。保护所有儿童和青年不受非法跟踪、分析和锁定,特别是出于商业目的,并让儿童和青年参与与他们有关的数字政策的制定。
三、欧盟数字科技伦理监管的主要模式与机制
欧盟数字科技伦理监管的模式及机制体现为在欧盟核心价值观等理念下,政府发挥主导作用,多元主体共同参与,形成欧盟全域统一监管框架引领和成员国各具特色的双重监管。这种监管模式既强调整体层面监管的统一协调性又重视成员国自身数字科技的发展特点,既有综合性的监管政策也包含对重点领域和新问题的伦理监管。
(一)欧盟统一框架引领下成员国各具特色的双重监管模式及机制
欧盟是作为一个多国家集合体的特殊性,决定了成员国在数字经济发展和监管政策领域存在诸多差异。欧盟在数字科技伦理监管中既制定了全域内的伦理监管政策,也将相应的监管权力赋予了成员国,实行欧盟整体和成员国两个层面的监管制度体系构建和机构设置。
在欧盟层面,针对数字科技伦理监管方面陆续颁发了一系列政策,对欧盟全域内的数字科技进行伦理监管或指导,例如《一般数据保护条例》《可信人工智能伦理准则》等,并设置了欧盟数据保护委员会等相应的监管机构。在欧盟整体层面的数字科技伦理监管政策要求或指导下,成员国结合自身数字科技发展情况,纷纷制定相应的伦理监管政策。以大数据伦理监管为例,《保护个人享有的与个人数据处理有关的权利以及个人数据自由流动的指令》(95指令)《一般数据保护条例》以及《电子隐私指令》等在欧盟层面发挥统领和指导作用,且在相关条款中指出允许成员国实施更加具体的监管政策。爱尔兰、德国等成员国根据自身特点修订或制定了数据伦理监管的相关政策,其中,爱尔兰为与欧盟的《电子隐私指令》中关于Cookie等技术的使用、数据缩小以及个人数据隐私的监管形成一致性,发布了《电子隐私条例》;对原有的数据保护法律进行修订后形成了《2018年数据保护法》,并设立数据保护委员会。德国在数据伦理监管领域,2018年发布《新联邦数据保护法》,该法在遵守《一般数据保护条例》的基础上,根据德国的国情对部分条款进行了细化和补充,并设置了联邦数据保护和信息自由委员会。同样,为了执行欧盟《电子隐私指令》,德国也相应制定了《电信和电信媒体数据保护法》,其规定了电信和电信媒体在数据保护上的原则,亮点在于设置了隐私保护和用户同意权的相关条款。除了以上两个国家,其他成员国也有相应的监管制度建设。这样欧盟形成了整体层面和成员国层面两个层级的数字科技伦理监管政策体系和监管机构,从而保障欧盟数字科技伦理监管政策执行的有效性、一致性与协调性。
(二)综合性政策统领与细分政策强化的监管模式及机制
通过梳理欧盟数字科技发展与伦理监管政策布局两者之间的速度和关系后,发现欧盟具有数字科技伦理监管政策布局领先于数字科技发展的特征。为了刺激数字科技发展,欧盟制定了一系列发展战略或计划,从《人工智能战略》《欧洲数据战略》、“地平线2020”、“地平线欧洲(2021-2027)”、《2023-2024年数字欧洲工作计划》以及《2030数字罗盘:欧洲数字十年之路》等文件的发布,无一不体现出欧盟对数字科技和数字化转型的重视和支持,着力打造欧盟域内的单一数字市场,为数字经济发展提供良好的外部环境。以上文件除了资金投入和政策支持之外,伦理监管的内容也包含其中。例如“地平线欧洲(2021-2027)”将抢占人工智能和机器人、先进计算与大数据以及下一代互联网等前沿技术领域作为重点科研支持领域,与此同时在数字技术中采用“预设安全”和“隐私设计”架构原则来提升网络安全和加强数据保护。此外,为了对《2030数字罗盘:欧洲数字十年之路》计划的实施提供指导,2022年欧盟发布了《欧洲数字权利与原则宣言》,其指出欧盟数字化转型应该是以人为中心的,要合乎人的基本权利,遵守非歧视性的技术中立、网络中立、选择自由以及包容性等原则,强调对数字科技使用者的保护,主要体现在受保护、安全可靠的网络环境、隐私保护和个人数据的控制,儿童和年轻人更应该得到保护等。
除了统领性的战略规划或资助计划等,欧盟针对不同的数字科技领域制定了具体的监管政策,尤其是人工智能和大数据领域。与统领性的发展战略或计划中提及的伦理监管内容有所不同,细分领域发布的伦理监管政策大都具有强制性,要求成员国、企业或个人等相关主体均要执行。在细分技术领域中,人工智能相关的伦理监管最为完备,从《欧盟机器人民事法律规则》《人工智能责任指令》《可信人工智能伦理准则》,到《人工智能法案》(草案),既有存在一定弹性的指令和准则性约束,也有法律层面的硬性约束。大数据领域也有相应的伦理监管政策,多以条例、指令的形式发布。互联网、区块链领域的伦理监管更多与实际应用相关联,其本身的技术中立性更为明显。
综合监管政策与细分监管政策之间相辅相成,互相促进。在《欧盟人工智能战略》人工智能协调计划》(2021年修订版)以及“欧洲地平线2020”等战略和规划等综合性政策中包含着对伦理监管的布局或安排。例如《人工智能协调计划》(2021年修订版)除了对人工智能发展目标、核心任务以及具体行动做出了部署之外,还专门对伦理监管做出了相关要求。一是明确指出要制定《人工智能伦理指南》《数据应用伦理指南》以及《人工智能侵权责任法律框架的建议稿》等来规范人工智能和数据的应用与研究活动。二是对现有的伦理监管规则或法律等进行修订,以更加适用于人工智能技术和产品的变化,例如修订《一般产品安全指令》《无线电设备指令》等。三是加强与其他国家或地区在伦理监管规则方面的合作与对话。在细分伦理监管政策对综合性伦理监管政策的促进方面,细分监管政策的制定与实施既可以推动综合性政策的快速落地和有效实施,又可以更好的实现人工智能、大数据、区块链以及互联网等技术的发展,为欧盟经济发展提供新动力。
(三)多元社会主体共同参与的监管模式及机制
在对数字科技的伦理监管中,欧盟的政府机构发挥着主导作用,这可以从相关伦理监管政策和法规的颁布或制定机构中有所体现,加之欧盟大型数字科技企业数量相对较少,政府的主导性更为凸显。除了政府机构之外,欧盟引导科研机构、社会组织、企业以及公民等主体在监管政策制定和实施中发挥作用。政府的主导性体现在欧盟委员会等政府机构将伦理监管的相关内容渗透到战略、产业政策、法律框架以及治理机制等制度构建中,具有一定的权威性和强制性。例如,在人工智能伦理监管政策的制定过程中,欧盟委员会早在《欧盟人工智能战略》中就对人工智能伦理监管框架提出了构想或方向,并对相关领域的研究等给予资金支持和政策倾斜,通过构建临时专家组、伦理委员会等方式吸收和接纳相关研究人员参与到伦理监管政策的制定当中。在此过程中,除了欧盟委员会之外,其他政府部门也发挥着重要作用,例如2016年,欧盟社会和经济委员会曾就大数据伦理问题开展了调查并提交报告《大数据伦理:平衡经济利益与大数据伦理问题》(《The ethics of Big Data:Balancing economic benefits and ethical questions of Big Data in the EU Policy context》)。
欧盟在政策制定中,尤其是法律法规的制定中耗时较长,从草案的提交到最终发布文件之间需要进行多轮的征求意见和商讨等。在此过程中,企业、社会组织以及普通公民等均可参与到意见的提出和修改中来,包括欧盟内部伦理准则试点工作等。欧盟通过《欧洲技能议程2020》《欧洲网络安全技能框架》等来培养和提高企业和个体公民的数字技术技能和伦理意识,从全社会范围内提高伦理监管的意识和重视程度。此外,欧盟已发布《违反欧盟法报告人指令》,其在隐私和个人信息保护领域有专门的“吹哨人”保护机制,有助于及时发现数字科技伦理监管中的漏洞和问题。通过战略规划、监管规则、技能议程以及“吹哨人”保护机制等政策,欧盟将政府、社会组织、企业以及公民纳入伦理监管政策制定与实施中,形成了多层次的伦理监管和执行体系。
四、欧盟数字科技伦理监管对中国的经验启示
欧盟作为数字科技伦理监管的先驱,无论是在制度设计层面,还是监管模式层面以及社会生态赋能层面均对中国加强数字科技伦理监管具有借鉴意义。制度设计层面主要体现为软性约束与硬性监管政策相结合,全局性监管与专门性监管并行,积极推动双边和多边伦理监管制度建设等先进做法;监管模式层面主要体现为政府主导且多方利益主体共同参与,形成欧盟全域统一监管框架引领和成员国各具特色的双重监管,并设置了相应的监管机构来推动伦理监管制度的有效落地。在社会生态赋能层面,欧盟通过《人工智能白皮书》《欧洲数据战略》等战略性文件构建起有助于数字科技发展的社会生态系统,主要体现在加大数字科技领域的投资力度,夯实数字科技发展基础,积极推动数字科技的广泛应用和协调发展,加强国际合作与交流,形成广泛参与的合作监管机制等。
(一)政府制度设计对中国的经验启示
1.软性约束与硬性监管结合,兼顾数字科技发展和伦理监管
欧盟在对数字科技伦理监管的制度建设中的一大特点是软性约束与硬性监管相结合。软性约束是指将相关监管制度内嵌在战略规划、产业发展白皮书、投资计划、以及政府资助的研究课题中,不具有强制性,主要是突出政府相关部门对伦理监管的重视程度和指导性,并对欧盟域内数字科技的发展具有一定的鼓励性和支持性。例如《欧洲人工智能战略》《欧洲数据战略》等。硬性监管则是在前期课题研究基础上或数字科技应用过程中,针对重点领域设计的专门伦理监管制度,大多以条例、指令、公约以及法案的形式出现,例如《数据治理法案》《人工智能法案》《一般数据保护条例》《网络安全法》等。这些硬性的监管条例或法规则具有强制性,欧盟领域内的成员国需要执行对应的伦理监管条款,并且延伸到域外的相关国家和经济主体。
中国数字科技伦理监管制度建设的现状如下:一是内嵌在数字科技相关发展战略与规划中的伦理监管内容。中国相继出台了促进数字科技发展相关规划,具有代表性的有《新一代人工智能发展规划》《促进新一代人工智能产业发展三年行动计划(2018-2020年)》《促进大数据发展行动纲要》《“十四五”大数据产业发展规划》《网络安全产业高质量发展三年行动计划(2021-2023年)》等。其中,《新一代人工智能发展规划》提出建成更加完善的人工智能法律法规、伦理规范和政策体系;到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。《促进大数据发展行动纲要》中提出切实加强对涉及国家利益、公共安全、商业秘密、个人隐私、军工科研生产等信息的保护。《“十四五”大数据产业发展规划》中明确要加强隐私计算、数据脱敏、密码等数据安全技术的应用等来保障数据的安全性。上述政策性文件将产业发展放在重心,伦理监管所涉及的内容较少;所提及的数字科技伦理监管问题,仅是方向性指导、战略目标或要求,约束力有限。二是专门的数字科技伦理监管制度建设情况。2022年3月,中共中央办公厅、国务院办公厅印发了《关于加强科技伦理治理的意见》,其出台标志着我国对于科技伦理的重视程度日渐提高,是对未来的伦理监管制度设计具有指导性。该意见将人工智能单独列出,但并未提出具体的监管措施。2022年4月4日,科技部会同相关部门研究起草的《科技伦理审查办法(试行)》公开征求意见,其中仅对涉及数据和算法的科技活动的审查给出了规定。借鉴欧盟数字科技伦理监管的制度建设,中国可以在数字科技产业发展规划或促进条例中增加伦理监管相关内容,并强化不同主体的伦理监管意识和责任。此外,应该加快数字科技伦理监管的硬性制度建设,且不要停留在方向性指导或顶层设计领域,还应该注重监管制度的落地和有效性。
2.全局性监管与专门性监管并行,力求覆盖数字科技全领域
欧盟在对数字科技进行伦理监管制度设计中,兼顾数字科技全局性和专门技术领域的制度,力求覆盖数字科技相关的全部伦理问题。具体而言,欧盟出台或者准备出台的数字科技伦理监管制度中具有全局性监管功能的政策有《塑造欧洲的数字未来》《2030数字罗盘:欧洲数字十年之路》等;专门针对某一项数字技术的伦理监管制度则有《算法责任与透明治理框架》《可信人工智能伦理准则》《一般数据保护条例》以及《关于欧洲网络与信息安全局信息和通信技术的网络安全》等。
中国在数字科技伦理监管相关制度建设方面存在一定的落后性,目前出台的科技伦理监管相关政策有《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》(征求意见稿)具有全局性监管的作用,但因其不具有法律效应,约束力和有效性会大打折扣。此外,《网络安全法》《数据安全法》《个人信息保护法》等法律中已经涉及到网络安全、数据分级分类监管、数据安全流动以及个人隐私保护等相关内容,但是没有从伦理监管这一视角出发,落脚点更多在于安全性、有序性、具体应用和价值释放等。在数字科技的人工智能、区块链等细分领域,中国未出台专门性的伦理监管政策。未来,中国可以从数字科技全局进行伦理监管框架的构建,覆盖人工智能、大数据、区块链以及互联网的共性伦理问题颁布监管政策[],其次,应针对具体数字技术的特殊性伦理问题制定相应的伦理监管政策,切实促进数字科技更好的为人类服务。
3.在单边伦理监管的基础上,积极推动双边和多边伦理监管制度建设
除了域内的伦理监管制度建设之外,欧盟根据欧洲价值观以开放且自信的方式将数字科技伦理监管的相关内容内嵌到双边或多边的贸易政策和协议中。例如已经失效的《安全港协议》《隐私盾协议》以及将要生效的《跨大西洋数据隐私框架》《美日数字贸易协定》《美国-墨西哥-加拿大协定》等。其中,2020年欧盟、梵蒂冈以及微软等签署的《人工智能伦理罗马宣言》是欧盟推动全球数字技术伦理监管新标准的标志性事件,将对人工智能和数字技术的发展产生深远影响。该宣言明确表示人工智能技术应用的前提是必须要尊重个人的隐私,以可靠而无偏见的方式工作,应考虑“所有人的需求”,并强调人工智能的透明性。此外,在多边伦理监管方面,欧盟正在与欧洲理事会(Council of Europe)、联合国教科文组织(UNESCO)、经济合作与发展组织(OECD)、世界贸易组织(WTO)和国际电信联盟(ITU)等进行合作。欧盟还参与了联合国数字合作高级别小组报告的后续工作,包括关于人工智能的建议。
借鉴欧盟的相关做法,中国在加强国内数字科技伦理制度建设之外,应进一步提高数字科技伦理监管制度的国际影响力。一是依托“一带一路”建设、数字贸易试验区建设等战略,尝试将数字科技伦理监管的相关内容内嵌到与其他国家或地区的贸易合作协议中,推动监管制度的互认互信,二是主动参与到国际性数字科技伦理监管制度的制定中去,提高在国际规则制定中的地位和话语权,而不仅仅是现有伦理监管制度的遵从者或跟随者,反过来又可以提高中国相关制度建设的完善性与先进性。
(二)监管模式设计层面对中国经验启示
欧盟数字科技伦理的监管模式体现为在欧盟核心价值观等理念指导下,政府发挥主导作用,多方利益主体共同参与,形成欧盟全域统一监管框架引领和成员国各具特色的双重监管,并设置了相应的监管机构来推动伦理监管制度的有效落地。这种监管模式既强调欧盟整体层面监管的统一与协调性,又重视成员国自身数字科技的发展特点,既有制度体系建设也有相应机构设置做保障。欧盟数字科技的监管模式设计对中国的经验借鉴如下。
1.政府主导且多方利益主体共同参与伦理监管
通过对欧盟数字科技伦理监管情况的梳理和总结发现,欧盟实行以政府为主导,多元主体共同参与的伦理监管模式。该种监管模式下,政府在伦理监管政策设计、机构设置以及政策推行中发挥主导作用。在相关伦理监管政策制定和机构的设置中,会广泛征集利益相关方的意见或建议,其中包括政府部门及所属研究机构和咨询机构、社会组织、企业以及公民等主体,这样既可以对政策制定和机构设置提供一定数量和质量的意见,防止出现监管疏漏,也可以让利益主体具有一定的参与感,充分调动积极性,有助于伦理监管制度的落地。
中国政府有关部门就数字科技伦理监管领域已经形成了一些法律法规及相关政策,例如《关于加强科技伦理治理的意见》《数据安全法》等,但是多方利益主体参与度有待提高。根据《中华人民共和国立法法》中的相关规定,法律的制定需要经过法律案提出、审议、表决以及公布这四个过程,其中,专业性较强的法律草案,可以吸收相关领域的专家参与起草工作,或委托相关专家、科研单位、社会组织等起草。行政法规、地方性法规、自治条例和单行条例以及规章等则制定程序类似。其中,非专业公众对于法律或政策性文件制定过程的参与主要体现在征求意见阶段,需要进一步提高公众对于立法等相关政策制定的参与度。对于数字科技伦理问题涉及到个人的隐私保护、企业的经营活动以及其他经济主体的利益,提高公众参与程度,将非专业公众吸纳进数字科技伦理监管政策的制定中来,尤其是关于数字科技相关应用领域的伦理监管政策的制定,不再局限于征求意见阶段,将有助于提高监管政策制定的合理性和落地的有效性。上述措施对于数字科技伦理监管机构设置过程也同样适用。
2.形成中央和地方双层伦理监管,并重视监管的一致性与协同性
欧盟是一个多国家的集合体,存在政治制度和经济发展水平的差异性,在欧盟全域内推行数字科技伦理监管制度,需要成员国的行动一致性和交流合作。在进行数字科技伦理监管的过程中,欧盟成员国可以建设符合自身发展情况的制度体系,但是当涉及到欧盟全域的伦理监管制度的遵从时,需要严格执行欧盟整体层面的监管政策。例如《一般数据保护条例》具有在欧盟成员国的普遍适用性、全面约束力和直接效力,且明确指出成员国的数据保护机构就需要遵从欧盟数据保护委员会具有强制的一致性原则。在不同数据监管机构出现争议时,应当由欧盟数据保护委员会等相应的机构来解决,以确保在欧盟区域内相关伦理监管制度的一致适用性。
中国有31个省(自治区、直辖市),不同地区之间,尤其是不同民族之间存在地域和文化差异。在推行数字科技伦理监管相关政策时,借鉴欧盟的相关经验,可以尝试从中央层面和地方政府层面分别设计监管政策,中央层面的监管政策具有全局性和指导性,并赋予地方政府一定的权力空间。首先,数字科技伦理监管政策的制定和执行中要坚持中央政策和地方政策的统一性和一致性原则,既不能出现监管政策之间的矛盾性条款,也不能出现地方性政策凌驾于中央性政策等现象。其次,要强调不同省市区之间横向的协同性与合作,不能出现监管政策的割据或分块现象,带来政策实际执行的困难和不同区域间抢夺数字企业等现象。再次,要强调中央和地方以及地方政府之间的合作与交流,尤其在跨区域性的数字科技伦理监管方面。
3.相应的伦理监管机构设置为制度推行保驾护航
欧盟的数字科技伦理监管模式下,将相应的监管机构设置包含在伦理监管制度之中,并且分为欧盟整体和成员国两个层面,这样就为制度的顺利推行提供一定保障。例如欧盟在数据安全和隐私保护领域的制度中,从《有关个人数据自动化处理之个人保护公约》(108号公约)到《一般数据保护条例》均提出要在欧盟构建两个层级的数据保护监管机构,并配置了相应的权力和责任,从而确保在欧盟区域内相关伦理监管制度的有效执行。欧盟在人工智能伦理监管领域也同样进行了相似的监管机构设置和权力配置。
中国政府机构中涉及到数字科技伦理监管相关职责的主要有科技部、国家科技伦理委员会等。此外,《关于加强科技伦理治理的意见》中对于伦理监管机构的设置做出了明确:从事生命科学、医学、人工智能等科技活动的单位,研究内容涉及科技伦理敏感领域的,应设立科技伦理(审查)委员会;推动设立中国科技伦理学会,健全科技伦理治理社会组织体系,强化学术研究支撑。借鉴欧盟数字科技伦理监管机构的设置与权力配置情况,结合中国的实际情况,可以从三个方面来加强伦理监管机构的设置,一是以法律法规等强制性制度来进一步明确机构设置的层级、数量和权责分配。二是机构设置要以数字科技伦理监管制度的落地为指导性原则,从数字科技伦理审查层面扩展到风险防范、应对以及处罚等领域。三是设置中央和地方两个层级的数字科技伦理监管机构,将伦理监管贯穿到省(自治区、直辖市)、地级市(州、旗)、县(区、县级市)、乡(镇、街道)以及村。
(三)社会生态赋能层面对中国的经验启示
欧盟通过《欧盟人工智能协调计划》《人工智能白皮书》以及《欧洲数据战略》等政策性文件逐渐构建起涵盖基础能力、技术创新、产品设计以及应用场景等方位的有助于人工智能、大数据等数字科技发展的社会生态系统,并将科技伦理监管相关内容贯穿其中。正如欧盟委员会主席冯德莱恩在发布《欧盟人工智能白皮书》所说的那样,欧盟试图构建一个从网络安全到关键基础设施,从数字教育到技能,从政府组织到社会公众,从而构建起适应数字科技发展和伦理监管的社会生态。具体而言,欧盟社会生态赋能方面有以下值得借鉴之处。
1.加大数字科技领域的投资力度,夯实数字科技发展基础
除了加强科技伦理监管之外,欧盟发布了一系列发展数字科技发展战略和白皮书等,其中重要的一项是加大相关领域的投资,例如《人工智能智能协调计划》和“地平线2020计划”中均安排了未来几年中在特定数字科技领域增加相应投资,高达几百亿欧元。除了直接的资金支持以外,还设立欧洲战略投资基金,发展公私合营等模式来增加对人工智能等数字科技发展的支持,加大数字科技创新的资金投入,夯实数字科技的发展基础。
为了促进人工智能、大数据等数字科技的发展,中国出台了《新一代人工智能发展规划》《“十四五”大数据产业发展规划》《网络安全产业高质量发展三年行动计划(2021-2023年)》等一系列文件,其中明确提出要加大财政资金支持力度,发挥重大项目等国家科技计划(专项、基金)的引导作用,鼓励政府产业基金、创业投资以及社会资本的投入等支持数字科技的发展。其中,政府引导基金投入的领域主要集中在电子及光设备、能源及矿产、IT、生物技术/医疗健康和电信及增值业务,对这五大领域的投资累计均超过了100亿元,占据了所有投资金额的60%[19],这与上述欧盟的相关投资仍存在一定差距。在政府研发资金投入上,2020年中国研发投入强度为2.40%,与韩国(4.81%)、美国(3.45%)以及日本(3.27%)相比也存在一定距离1。中国未来应加大数字科技领域的资金投入力度,尤其是基础性和关键性技术领域的投入。
1 数据来源于OECD.stat网站:https://stats.oecd.org/Index.aspx?DataSetCode=MSTI_PUB。
2.积极推动数字科技的广泛应用和协调发展
欧盟积极推动数字科技的广泛应用,欧盟委员会以及各成员国政府部门发挥带头作用,积极采用人工智能等数字技术,既实现了公共部门服务效率的提升,也推动了数字科技的广泛应用。例如欧盟委员会与成员国政府部门共同采用云服务、自然语言处理、机器学习等技术来应对城市管理、灾难应急等事件。
欧盟注重全域内的数字科技协调发展,陆续推出了《数字化单一市场战略》《塑造欧洲的数字未来》《欧洲数据战略》等战略性文件,并倡或强制设立数字科技合作机构,例如数字创新中枢、泛欧AI卓越中心网络以及数据共享支持中心等,促进欧盟数字科技的发展与合作,弥补成员国之间的科技鸿沟。
在推动中国数字科技的广泛应用方面,借鉴欧盟政府部门的相关做法,除有效执行2018年国家发改委、科技部等发布的《关于促进首台(套)重大技术装备示范应用的意见》对重大技术研发做支持外,我国政府部门应该扩大国产数字科技相关应用的采购和使用,形成全国范围的示范带动作用,促进相关产品国产化率的不断提高以及数字科技的广泛应用,早日获得数字科技关键领域的主动权和领导权。
在推动数字科技协调发展方面,中国主要集中在中央层面的科技部、工业和信息化部,地方政府层面则主要集中在经济和信息化局(委员会)。以发展纲要或者规划等文件明确要设立的数字科技合作机构较少,尽管社会性数字科技合作机构可以建立,但是缺乏刚性和整体规划性,对于数字科技发展的促进作用也有待检验。借鉴欧盟相关经验做法,中国可以加速数字科技合作机构的设立,尝试采用政府所属机构的方式,这样既可以保证国家相关政策的有效实施,也可以指导和促进数字科技领域的发展。
3.加强国际合作与交流,形成广泛参与的合作监管机制
除了形成欧盟整体与成员国、成员国之间两个层面的数字科技伦理合作监管机制之外,欧盟还注重加强与其他国家和地区的合作与交流,推动合作监管机制的形成。欧盟通过签订贸易合作协议、联合制定监管规则、举办部长级会议以及多边论坛等方式来加强国际合作与交流,不断提高欧盟数字科技伦理监管规则的国际认同性。此外,欧盟数字科技伦理监管制度具有一定的“长臂管辖”特征,要求所涉及企业遵守相关的条款,以此来提高欧盟数字科技伦理监管制度的影响力。例如在数据隐私保护、人工智能可信任性上,欧盟除了要求成员国遵守相应的监管规则之外,还要求数据流入国、特定“守门人”等均要按照相关监管规则来开展经营活动。
借鉴欧盟数字科技伦理合作监管机制构建的经验,中国应该加强与不同国家或地区以及国际组织之间的数字科技伦理监管的合作与交流。在中国出台的《新一代人工智能发展规划》《“十四五”大数据产业发展规划》《网络安全产业高质量发展三年行动计划(2021-2023年)》等促进数字科技发展的相关文件中,“促进国际交流合作”、“参与国际规则或标准制定”是重要的保障措施,对于加强国际合作与交流具有了一定的认识。未来,中国可以进一步加深对欧盟、美国等数字科技伦理监管更加前沿国家的伦理监管制度建设情况的了解和掌握,通过吸收和借鉴先进的经验来补足自身监管的不足或漏洞。其次,依托“一带一路”等战略性倡议以贸易合作或交流的方式,将中国的数字科技伦理监管的相关理念或制度推广至其他国家或地区,加强与不同国家或地区之间数字科技伦理监管制度的互认互通,提高影响力与认可度。再次,参与联合国教科文组织等国际组织全球性数字科技伦理监管政策的制定中去,例如《人工智能伦理问题建议书》,推动自身和全球数字科技伦理合作监管。
参考文献
[1]贾开,郭雨晖,雷鸿竹.人工智能公共政策的国际比较研究:历史、特征与启示[J].电子政务,2018(9):78-86.
[2]章小杉.人工智能算法歧视的法律规制:欧美经验与中国路径[J].华东理工大学学报(社会科学版),2019(6):63-72.
[3]郭丰,嵇叶楠,黄潇怡.5G网络安全的欧盟策略与实践[J].电信科学,2020(6):133-137.
[4]林美玉,王琦.欧盟5G安全监管模式研究[J].信息通信技术与政策,2021(5):60-66.
[5]宋黎磊,戴淑婷.中美欧人工智能治理领域的竞争与合作[J].当代中国与世界,2021(4):58-67.
[6]莫宏伟.强人工智能与弱人工智能的伦理问题思考[J].社会与科学,2018(1):14-24.
[7]肖红军,商慧辰.平台算法监管的逻辑起点与思路创新[J].改革,2022(8):38-56.
[8]阳镇,凌鸿程,季与点等.数智化时代传统文化的特殊力量:儒家文化会驱动人工智能企业创新绩效吗?[J].创新科技,2021(7):19-33.
[9]胡鹏鹏,翟相娟.区块链技术对个人信息删除权的挑战与立法回应[J].南海法学,2022(1):94-103.
[10]肖红军,阳镇,商慧辰.平台监管的多重困境与范式转型[J].中国人民大学学报,2022(4):24-39.
[11]肖红军,阳镇,凌鸿程.媒体关注会驱动人工智能企业履行社会责任吗?——基于中国A股上市公司人工智能企业的实证检验[J].南京大学学报(哲学·人文科学·社会科学),2022(2):42-66+161-162.
[12]阳镇,陈劲.数智化时代下企业社会责任的创新与治理[J].上海财经大学学报,2020(6):33-51.
[13]肖红军,阳镇.平台型企业社会责任治理:理论分野与研究展望[J].西安交通大学学报(社会科学版),2020(7):57-68.
[14]金晶,个人数据跨境传输的欧盟标准—规则建构、司法推动与范式扩张[J].欧洲研究,2021(4):89-110.
[15]曾雄,梁正,张辉.欧盟人工智能的规制路径及其对我国的启示—以《人工智能法案》为分析对象[J].电子政务,2022(9):63-72.
[16]王伟洁,邓攀科,吕志远.欧盟2021年《人工智能法》研究[J].当代中国与世界,2021(4):58-67.
[17]金玲.全球首部人工智能立法:创新和规范之间的艰难平衡[J].人民论坛,2022(4):44-47.
[18]EDPS.Shaping a Safer Digital Future:The EDPS Strategy 2020-2024[EB/OL].(2020-06-30)[2023-04-28].https://edps.europa.eu/edps-strategy-2020-2024/.
[19]王江璐,刘明兴.我国政府引导基金的现状分析与政策建议[J].福建师范大学学报(哲学社会科学版),2019(6):78-86+170.
肖红军,中国社会科学院工业经济研究所研究员、博士生导师。
张丽丽(通信作者),北京市科学技术研究院数字经济创新研究所副研究员。
阳镇,中国社会科学院工业经济研究所助理研究员,清华大学技术创新研究中心兼职副研究员。
肖红军,张丽丽,阳镇.欧盟数字科技伦理监管:进展及启示[J/OL].改革,2023(07):73-89[2023-08-21].http://kns.cnki.net/kcms/detail/50.1012.f.20230808.1013.024.html.