社科网首页|客户端|官方微博|报刊投稿|邮箱 中国社会科学网
中国社会科学院工业经济研究所

数字科技伦理监管:美国进展与中国借鉴

2023年06月21日来源:《财经问题研究》2023年06期    作者:肖红军 阳镇

摘要新一轮数字技术产生了全新的数字经济形态和数字社会,但也引发了系列负外部性问题,数字科技伦理监管成为数字经济时代必须直面的重大现实议题,既有研究对数字科技伦理监管的理论框架、监管模式和主要议题缺乏深度解构。本文立足美国数字科技伦理监管的最新政策布局与监管实践,解析美国数字科技伦理监管的主要主体、监管模式和重点议题,搭建面向数字科技伦理监管的“监管主体—监管模式—监管机制”的一般性理论框架,研究发现,美国数字科技伦理监管主体涵盖“联邦政府—州政府—行业协会—企业”等多元主体,监管模式型侧重以国会为主导的美国政府立法与标准引领型监管、行业协会和研究机构等社会组织多元参与型监管,以及企业以数字科技伦理嵌入公司治理的嵌入型自治模式的三重主导模式,监管重点议题涵盖道德式人工智能与透明、公平和可解释的算法以及数据隐私与数据伦理等核心议题。中国加快构建数字科技伦理监管体系,需要强化数字科技伦理监管立法,在分层分类思路开展数字科技伦理制度设计和政策执行的基础上,需要进一步发挥地方数字科技伦理监管政策制定与执行的自主性原则,调动数字企业在数字科技伦理监管与治理方面的治理标准、行业规范、企业倡议、治理指南和操作手册等方面的引领作用。

关键词:数字科技伦理;监管模式;数字企业

基金:国家社会科学基金重大项目“国企混合所有制改革的实现路径选择研究”(20&ZD073);中国社会科学院国情调研重大项目“数字科技伦理监管制度调查研究”(GQZD2023009);中国社会科学院登峰战略企业管理优势学科建设项目。

 

一、引言

新一轮技术革命的实质是以人工智能、大数据、移动互联网、区块链、虚拟现实等为核心的数字技术充分嵌入经济和社会,形成面向宏观经济形态、中观产业部门和微观企业组织的全方位变革,特别是立足数字科技创新实现数字产业化与产业数字化,以数字企业主导的微观企业组织不断创新与演化。随着党和国家对数字经济发展重视程度的不断强化,建设数字中国在“十四五”时期成为国家发展的重要战略。根据2023年中国信息通信研究院对数字经济规模的测算,2022年中国数字经济规模达到50.2万亿元,同比名义增长10.3%,已连续11年显著高于同期GDP名义增速,数字经济占GDP的比重相当于第二产业占国民经济的比重,达到41.5%,足以说明数字经济已经成为国民经济的主导力量。其中,数字产业化规模和产业数字化规模分别达到9.2万亿元和41.0万亿元,占数字经济的比重分别为18.3%和81.7%,一定程度上,产业数字化成为数字经济发展主引擎。从世界范围来看,中国数字经济发展相较于世界发达国家特别是美国依然存在较大的差距,中国信息通信研究院发布的《全球数字经济白皮书(2022年)》指出,中、美、欧形成全球数字经济发展的三极格局。2021年美国数字经济规模持续保持世界第一,达15.3万亿美元。美国数字经济对国民经济渗透率更高,数字经济占GDP的比重超过60%。在数字化转型方面,美国是全球最早布局数字化转型的国家,美国商务部(DOC)早在1998年就发布数字经济的专题报告,指出信息技术、互联网和电子商务的发展会产生新的数字经济形态。

近年来,学术界加快了对数字经济的内涵、测算方法和影响效应等方面的研究。从数字经济的内涵来看,2018年OECD和美国商务部经济分析局(BEA)对数字经济的概念进行了界定,即通过交易是否涉及信息与通信技术(ICT)来界定一项经济活动是否属于数字经济;中国信息通信研究院则从产业范围和数字治理的视角界定数字经济,认为数字经济主要包括数据价值化、数字产业化、产业数字化和数字化治理四个方面。学术界对数字经济的界定视角纷繁复杂,主要包括特征视角、主体视角、产业视角和经济范式视角等多重视角。总体而言,数字经济是区别于传统工业经济时代下的新经济,包括数字经济基础产业和数字经济融合效应两个部分。从数字经济的测算方法来看,目前测算方法相对多元,对数字经济的测算包括数字经济指数编制法、增加值测算法和构建卫星账户法等[123]。从数字经济的影响效应来看,既有研究充分注意到了数字经济对宏观经济增长、经济结构调整、产业转型升级、创业与就业和社会治理等方面的重要作用。尤其是党的十八大以来,高质量发展已经成为整个经济和社会发展的主导战略,既有研究充分注意到了数字经济对高质量发展的重要驱动作用,主要表现为数字经济对生产力层面的要素投入、宏观层面的资源配置效率与全要素生产率[456]、微观层面的信息效应与匹配效率、产业层面的产业创新与转型升级[78]、微观企业层面的企业创新[910]等方面的重要驱动效应,尤其是数字经济下的关键技术支撑即数字技术具备高度的包容性[11],能够为包容性增长开辟新路,能够支撑共同富裕目标下的贫困减缓以及实现区域的均衡性增长[12]。但不容忽视的现实是,数字经济发展为经济和社会发展带来显著的正外部性的同时,也产生了诸多负外部性问题,涵盖数字技术层面的算法歧视、算法霸权和以算法垄断为核心的算法技术治理议题[13]、数字企业层面的企业数字责任缺失与异化[14]、数字平台企业垄断与社会责任治理等现实问题[151617]。特别是在人工智能领域,人工智能深度嵌入社会引发的道德伦理冲突逐步加剧,既有研究对机器人伦理、算法伦理和无人驾驶汽车伦理等问题开展了系列研究,包括人工智能是否能够成为道德与责任主体、人工智能技术伦理构成及其规制重点、人工智能伦理治理等多层次内容研究[18192021]。

遗憾的是,学术界对数字技术创新进程中的数字科技伦理问题缺乏关注与研究,较少涉及数字科技伦理中的细微议题如大数据技术伦理、算法伦理等[2223],难以为数字技术创新提供一般性理论框架。特别是,随着以Chat GPT技术为核心的人工智能语言模型的出现及其应用,一定程度上人工智能可以改变与重塑人类社会的思维范式,这引发对以人民为中心的人本价值观的全新冲击,在整个企业生产与人类社会生活中产生了较大程度的道德伦理冲突和技术伦理隐优,因而强调数字技术更好地融入社会并服务社会的数字科技伦理观建构极为迫切。实质上,数字科技伦理是以数字科技为技术基础探究其与人、与社会之间的基本关系及其对人类社会的基本影响,数字科技伦理的研究视角在于充分规范、预见和识别数字科技与人类社会的基本关系,实现数字科技创新与应用过程符合道德伦理要求与社会规范,最大程度上地实现人与技术的和谐共生。

基于上述分析,本文以美国数字科技伦理监管为主要研究对象,基于近年来美国联邦政府和各州政府出台的战略文本和政策文件为文献检索范围,并充分利用互联网资料对美国主要数字科技类企业(如Amazon、IBM、Microsoft、Facebook等)发布的年报和管理层公开发言进行人工整理,对涉及数字科技伦理监管的政策布局、监管主体、重点议题和主要模式开展系统分析。具体来看,一方面,本文系统梳理美国近年来对数字科技伦理监管的政策布局,进而分析美国数字科技伦理监管的主要模式与机制,为构建一般性的数字科技伦理监管框架提供理论参考。另一方面,本文系统总结美国联邦政府在面向数字科技伦理监管的主要领域与关键议题,为我国各级政府瞄准数字科技伦理监管前沿与重点领域政策布局提供国际经验,最终为构建适合我国数字经济发展阶段以及契合我国制度情境的数字科技伦理监管制度体系提供理论框架与政策指引。

二、美国数字科技伦理监管政策的最新布局与主要进展

(一)面向人工智能伦理监管的政策布局

在人工智能伦理监管层面,美国国会通过立法的形式加快对人工智能伦理的监管与治理。其中,2021年1月1日,美国颁布《2020年国家人工智能倡议法案》(National Artificial Intelligence Initiative Act of 2020,简称NAIIA),该法案的主要目的是:第一,确保美国在人工智能研发方面的领导地位;在公共部门和私营部门开发和使用可信赖的人工智能系统方面引领世界。第二,为当前和未来的美国劳动力做好准备,以便在经济和社会的所有部门整合人工智能系统。第三,协调所有联邦政府机构正在进行的人工智能活动,以确保每个政府机构都能为其他机构的工作提供信息。与此同时,为确保该法案的实施,美国成立了国家科学技术委员会(NSTC)人工智能特别委员会推进人工智能相关的标准、指南与技术的研究。在拜登政府时期,同样也制定了自己的人工智能战略与监管计划。政府推出了ai.gov网站,该网站“致力于将美国人民与有关联邦政府活动的信息联系起来,推动可信赖的人工智能(AI)的设计、开发和负责任地使用”。美国还成立了国家人工智能研究资源工作组和国家人工智能咨询委员会。前者旨在使研究工具的获取民主化,以促进人工智能创新,而后者将为拜登总统和联邦政府机构提供有关人工智能研发的建议。

该法案还要求美国国家科学技术委员会(NSTC)在法案颁布两年内,与公共部门和私营部门合作起草《人工智能风险管理框架》(AI RMF)。美国国家标准与技术研究院(NIST)于2021年7月启动AI RMF意见征集工作;2022年3月形成AI RMF第一版草案;2022年8月形成AI RMF第二版草案;2023年1月26日AI RMF 1.0正式发布。

2019年2月,美国国防部(DOD)推出了人工智能战略与伦理监管政策,声称“以合法和合乎道德的方式使用人工智能,以强化负责任的价值观愿景和强化人工智能利用的指导原则”,并将“继续分享我们的目标、道德准则和安全程序,以鼓励其他国家负责任地开发和使用人工智能”。该部门还声称,在与利益相关方协商后,它将制定国防事务中人工智能伦理和安全规则,并将该部门的观点推广给更多的全球受众,为全球军事人工智能提供信息伦理。另外,美国州政府在人工智能治理方面都有自己的举措,在提出和通过监管方面比联邦政府更积极。例如,伊利诺伊州提出了《生物识别信息隐私法》(存在一些技术问题)和《人工智能视频采访法》。这两项法律都反映出美国对生物识别实践的审查越来越严格——第一部与数据隐私更直接相关,而第二部则对可能在面试过程中使用Hire Vue等人工智能服务公司提出了算法透明度的要求。华盛顿州则签署了《SB 6280法案》,其建立了基本的透明度和问责机制以备政府决定部署反乌托邦式的实时监控,特别是全面禁止面部识别时侵犯个人隐私和可能存在的算法偏见。总体而言,目前,美国有数十个独立的人工智能伦理、政策和技术工作组(团体)分散在各个联邦政府机构中,涵盖国防、民事和立法领域。虽然美国联邦政府推出了人工智能伦理监管政策,但依然存在不断演变的政策可能产生政策内容不完整、不同政策之间的监管配套举措不一致或彼此不兼容等问题。

HireVue成立于2004年,总部位于美国犹他州,是人工智能招聘的先驱之一,基于人工智能算法为面试者进行视频面试,其能够捕捉面试者的面部表情、肢体语言、语调甚至眨眼睛的动作,然后运用人工智能和IT算法进行评分与分析,以此来帮助企业筛选求职者。

从人工智能伦理监管的重点领域来看,美国聚焦于智能算法的社会伦理监管,侧重从算法研发设计到算法应用的全过程监管。2022年7月20日,美国众议院能源和商业委员会以53∶2的票数通过了《美国数据隐私和保护法》(American Data Privacy and Protection Act,简称ADPPA)的修正版。该法案旨在联邦政府层面建立面向人工智能算法决策过程中的消费者隐私数据保护法律框架,为美国消费者提供了隐私权保护和有效的补救措施。该法案将“算法”定义为“使用机器学习、自然语言处理、人工智能技术或其他类似或更复杂的计算处理技术的计算过程,能够自主作出决策或促进或辅助人类决策”,例如,为特定对象提供排名、排序、促销、推荐等服务或向特定个人提供信息服务等。根据该法案,相关实体和服务提供商必须评估算法的设计、结构和数据输入,以降低潜在的道德伦理风险。

(二)面向大数据伦理(数据伦理)监管的政策布局

美国面向大数据伦理监管的政策布局主要包括顶层设计和中层衔接,形成联邦政府主导的大数据伦理监管原则、战略实践和伦理监管具体行动。其中,顶层设计立足美国国家战略层面推进对数据的管理、保护和共享等工作。中层衔接是大数据伦理监管的关键环节,主要包括政策协调机构,首席数据官、机构网络和数据管理,法律和监管框架,技术能力建设、协作和知识共享等四个方面。在政策协调机构方面,美国白宫管理和预算办公室(OMB)下设的数据委员会,既负责协调数据战略的实施,也负责通知数据管理和使用的预算优先事项。在大数据伦理监管的政策布局方面,具有代表性的是2020年9月美国总务管理局(GSA)联同14个联邦政府机构共同发布的《数据伦理框架草案》[24],其提出了数据伦理的的七项基本原则:一是了解并遵守适用的法规、规定、行业准则和道德标准;二是诚实并正直行事;三是负责并追究他人责任;四是保持透明;五是了解数据科学领域的进展,包括数据系统、技能和技术等方面;六是尊重隐私和机密性;七是尊重公众、个人和社区。

美国在大数据伦理监管领域的国家战略与政策布局始于奥巴马政府时期,自2012年以来,美国作为全球大数据伦理监管与治理的领跑者,相继出台了系列法律法规推动大数据伦理监管。2012年3月,奥巴马政府颁布《大数据研发倡议》,其中提出大数据收集、分享过程中要注意隐私、安全和道德。在此倡议促进下,联邦政府机构、科研院所和社会企业在大数据研发、管理和应用等方面进行了积极探索,取得了明显进展。在特朗普政府时期,延续了奥巴马政府的大数据伦理监管与治理的政策思路,进一步挖掘大数据的正向经济与社会价值。2019年12月,美国白宫管理和预算办公室(OMB)发布《联邦数据战略2020行动计划》。该行动计划以政府数据治理为主要视角,描绘了联邦政府未来十年的数据愿景以及2020年需要采取的关键行动,目的是在保护安全、隐私和机密的同时,充分发挥美国联邦数据资产的潜力,加速使用数据执行任务、服务公众和管理资源。拜登政府时期持续加快对大数据伦理监管的政策布局,2021年10月25日,拜登政府发布《联邦数据战略2021行动计划》,在指导各机构应对共同的数据挑战过程中使用现有的协作渠道帮助实现人工智能研究的民主化并发展联邦劳动力的数据技能。2022年1月26日,美国白宫管理和预算办公室(OMB)发布了一项联邦战略,旨在推动美国联邦政府对网络安全采取“零信任”方法。在落实关于改善国家网络安全问题上,该战略意味着向前迈出的关键一步,其侧重于进一步推进数据安全措施以显著降低针对联邦政府数字基础设施的网络攻击风险。2023年3月31日,美国白宫科技政策办公室(OSTP)发布《促进数据共享与分析中的隐私保护国家战略》,正式确立了政府的大数据伦理监管目标,该目标支持保护隐私数据共享和分析(Privacy-Preserving Data Sharing and Analytics,简称PPDSA)技术,该战略关注PPDSA技术对经济和社会的外部性影响,尤其关注对弱势群体隐私的影响,提出了PPDSA技术需要保持透明度与包容性,尊重隐私、保护公民自由和权利。

PPDSA技术是一种平衡数据收集、分析与伦理社会技术问题的解决方案,它利用隐私增强技术进行数据分析、获取数据价值,同时确保用户隐私、秘密安全。

从大数据伦理监管的重点领域来看,美国的政策布局主要集中于数据隐私领域。《美国数据隐私和保护法》为公司收集的个人信息制定国家标准和保障措施,包括旨在解决算法潜在歧视影响的措施。作为联邦政府对人工智能伦理监管需求增长趋势的重要回应的组成部分,《美国数据隐私和保护法》代表了美国在制定全面的数据隐私法方面取得了一定的进展。尽管近年来推出了其他几项涉及算法决策的联邦法案,但《美国数据隐私和保护法》是第一个得到两党支持和推动的法案,也是第一个将针对算法问责制和偏见的条款与解决数据隐私和安全问题的条款捆绑在一起的法案。该法案确定了几种不同类型的实体,这些实体具有额外的义务或豁免权。对于某些义务,相关实体按“影响”(影响力依据年度全球收入和受实体运营影响的数据主体数量而定)和“与数据主体的具体关系”(表现为直接关系、第三方关系或服务提供商关系等)进行分类。实体收集的“数据”被定义为“识别或链接或合理链接到一个或多个人的信息,包括派生数据和唯一标识符。”重要的是,员工数据和公开数据都被排除在这个定义之外。而且某些类型的数据被定义为敏感数据,包括政府标识符(如驾驶执照或社会安全码)以及与健康、地理位置、财务、登录凭据、种族、性别或阶级身份相关的数据。

(三)面向区块链伦理监管的政策布局

区块链结合了多种技术,为没有中央机构(例如银行)的多方交易提供可信、防篡改的记录。区块链可用于各种金融和非金融应用,包括加密货币、供应链管理和法律记录。2022年3月23日,美国国会政府问责局(GAO)发布《区块链——新兴技术为某些应用带来好处但面临挑战》报告,该报告提出区块链对某些应用程序有用,但对其他应用程序来说用处有限甚至存在问题。例如,由于其抗篡改性,它可能对涉及许多不一定相互信任的参与者的应用程序有用。即使对于少数受信任的用户来说,区块链的某些应用程序可能过于复杂,而传统的电子表格和数据库可能更有用。更为关键的是,区块链还可能带来安全和隐私方面的伦理挑战。从监管制度形式上,美国主要采取立法的形式对区块链伦理进行监管,商务部长与联邦贸易委员会(FTC)协商向国会提交一份关于区块链技术现状及其在消费者保护中应用的报告。2021年5月28日,美国众议院能源和商业委员会的立法听证会提出了《区块链创新法案》,该法案的伦理监管目标主要是减少欺诈以及提高商业交易的安全性。

从区块链伦理监管的重点领域来看,美国的政策布局主要集中于区块链透明度领域,这有助于阻止美国区块链公司转移到其他国家。明确的行业监管框架可以让个人和公司在美国更成功地参与区块链相关的商业活动,包括监管实体和开发商在内的决策者都可以使用监管沙盒等工具来进行区块链监管。例如,2018年10月至2021年4月,有11家企业加入了亚利桑那州金融技术监管沙盒。在联邦政府层面,消费者金融保护局(CFPB)创建了一个合规援助沙盒,在与该局共享数据的同时,企业可以在有限的时间内获得测试创新产品和服务的安全港。这可以为决策者提供机制,使其在面临监管不确定性时能够更好地履行法定义务。与此同时,决策者能够提供可协调的改进措施或提出明确预期的方案,以打击区块链相关商业中的非法活动。例如,美国财政部的金融犯罪执法网络(Fin CEN)近年来提出了一项规则,要求银行提交报告、保存记录并验证某些加密货币交易中客户的身份,以确保加密货币行业更好地应对反洗钱和国家安全风险方面的挑战。

三、美国数字科技伦理监管的主要主体与重点议题

(一)美国数字科技伦理监管的主要主体

1.美国联邦政府

美国联邦政府是美国数字科技伦理监管的主要主体,其主要采取国会立法的方式对数字科技伦理开展规范与引导。目前,美国联邦政府由6个机构和独立组织代表整个联邦政府开发人工智能技术或政策。第一,美国白宫科技政策办公室(OSTP)为总统办公厅提供经济、国家安全、国土安全等方面的建议。OSTP发布多个行政命令,确定联邦政府关于人工智能监管的总体政策目标。特别是在《2020年国家人工智能倡议法案》通过后,OSTP成立了国家人工智能计划办公室(NAIO),该办公室全面负责开发、使用和管理人工智能。第二,美国总务管理局(GSA)是提供政府信息资源的部门,为各政府机构带来了众多尖端技术,GSA的人工智能卓越中心(COE)为联邦政府机构提供服务,以确保联邦政府机构能够采用最佳的方式将人工智能技术运用到政府服务中。第三,美国国家人工智能安全委员会(NSCAI)获得2019年国防授权的特许和资助,并于2021年3月提交了最终报告,该报告就美国应如何在人工智能时代保持优势提出了战略性建议,为美国在人工智能时代遏制他国、赢得竞争提出了战略方针和行动路线图。第四,美国商务部(DOC)推进其下属各局跟进人工智能伦理监管政策的实施。联邦贸易委员会(FTC)就如何最佳定位、开发和提供人工智能产品和服务,以避免与现有和潜在的未来立法冲突,向企业发布了指导意见。第五,美国白宫管理和预算办公室(OMB)发布了如何规范人工智能应用程序的指南,该指南为发展和部署人工智能相关技术提供监管和非监管方法,减少发展人工智能技术的障碍。第六,美国两党人工智能核心小组,通过报告和个人法案制定相关法案。另外,美国国土安全部科学技术局(S&T)在数字科技伦理监管方面也作为重要的监管主体开展系列政策设计。

2.美国州政府

美国对数字科技伦理监管的主要主体还包括美国州政府,且相当程度上美国州政府对数字科技伦理监管具有较大程度的自主权与政策制定空间。在数字科技伦理监管的重点领域,美国州政府都有自己的举措,比美国联邦政府更积极更主动。在特朗普政府时期,美国联邦政府与国会通过的《2020年国家人工智能倡议法案》对人工智能伦理监管采取宽松策略,州政府层面的其他立法建议则采取更主动的人工智能伦理监管策略。例如,加利福尼亚州的《2020年自动决策系统问责法》则早于美国联邦政府。在自动驾驶汽车的监管方面,2011年美国内华达州就通过第一个关于自动驾驶汽车检测的立法,该法规定了自动驾驶汽车的检测条件,要求对自动驾驶技术进行监管。目前已有40个州通过了法律或行政命令规制自动驾驶汽车。在人脸识别技术的监管方面,美国联邦政府未出台统一的规定,而美国德克萨斯州、弗吉尼亚州、加利福尼亚州等都针对“深度伪造”行为出台了相应法案,走在了联邦政府的前面。

3.行业协会

美国行业协会在数字科技伦理监管过程中主要扮演参与者与协同者的角色。以人工智能伦理监管为例,美国联邦政府早期主要采取不干预的原则,主要是通过各州发挥自主性与独立性开展相关人工智能伦理监管的政策制定与政策执行,且社会各界对人工智能伦理监管尚存在广泛的争议性。美国商会(USCC)则呼吁对人工智能进行监管,以确保它不会损害经济增长或成为国家安全风险。美国人工智能促进协会(AAAI)在人工智能伦理监管中发挥了重要作用,其主要致力于促进人工智能的研究和应用。AAAI还旨在提高公众对人工智能的理解,提高人工智能从业者的教学和培训水平,并为研究规划者和资助者提供当前人工智能发展潜力和未来方向的指导。AAAI提出了专业性的人工智能道德原则以监管人工智能行为,具体包括:一是承认所有人都是利益相关方;二是避免伤害(负面后果);三是诚实守信;四是公平并采取行动不歧视;五是尊重产生新想法、发明、创意作品和计算工件所需的工作;六是尊重隐私;七是保密。

4.企业

美国在发挥联邦政府与州政府对数字科技伦理监管的引领与规范的同时,也充分发挥市场自我调节的重要功能,主要体现为充分尊重企业作为数字科技伦理治理的重要角色与功能。企业扮演数字科技伦理监管的参与者、互补者与协同者的重要角色,发挥对数字技术伦理治理的重要功能。以IBM为例,针对数字科技伦理的监管与治理,IBM组建了道德伦理委员会。其中,IBM的人工智能道德委员会是一个多学科机构,负责领导人工智能道德政策和实践的治理和决策过程。具体来看,IBM的人工智能道德委员会的伦理监管目标是在整个公司层面支持道德、负责任和值得信赖的人工智能文化和价值观,并指导公司技术层与业务层对人工智能系统进行道德开发和部署。与此同时,IBM遵循三个总体原则:第一,人工智能的目的是增强人类智能。第二,数据和见解属于其创造者。第三,人工智能技术必须透明且可解释。IBM坚信当人工智能成为企业的核心甚至支柱型技术或者业务时,人工智能的可解释性、公平性、鲁棒性(稳健性)、透明性和隐私性成为人工智能伦理监管的重要内容与追求目标,只有遵循上述原则才能构建真正合乎道德的人工智能工具。

(二)美国数字科技伦理监管的重点议题

1.道德式人工智能与透明、公平和可解释的算法

美国对人工智能伦理监管的重点在于着重塑造道德式人工智能与透明、公平和可解释的算法。既有研究普遍认为,从人工智能技术中获益将取决于创建和部署人工智能系统的能力,这些系统被认为是合乎道德和值得信赖的。但是,目前最大的挑战在于对什么是合乎道德和值得信赖的人工智能、如何识别人工智能以及如何在实践中证明人工智能的可持续性尚未达成共识。解决人工智能与人类社会可能存在的道德伦理冲突和可能的负外部性的可行方法是:基于透明、公平和可解释等概念框定人工智能算法开发、系统部署和技术使用的基本规范,通过人工智能的算法设计与算法验证能够证明该算法是透明、公平和可解释的。另外,人工智能的可解释性问题被称为人工智能的“黑匣子问题”,许多机器学习算法系统的响应无法用人们容易理解的术语解释。开发机器学习算法的标准方法产生了一组高度复杂的数据矩阵,包含数百、数千或数百万个连接节点,每个节点都包含一个权重或值。当机器学习模型被“训练”时,这些权重需要进行调整以提高模型的性能。这个动态的、复杂的系统不是为了去解释决策过程,也通常不能提供一个容易理解的原因解释,即无法说明它是如何达到任何给定的结果。目前,美国正对人工智能的可解释性问题开展系统性研究,例如,通过了美国国防预先研究计划局(DARPA)的“可解释人工智能”(XIA)计划,该计划的主要目的是开发可解释的人工智能系统,让算法开发与研究人员能够开发与设计更多可解释的算法模型,同时保持高水平的智能学习表现(预测准确性),并兼顾算法决策的过程性以及算法决策结果的准确性。

美国联邦政府对算法伦理监管的重点在于算法决策的公平性、算法透明度方面。2022年7月20日,美国国会众议院能源和商业委员会通过的《美国数据隐私和保护法》,其提出了算法决策的公平性和算法歧视监管的相关条款,在第207条明确提出“公民权利和算法”,根据该条款,相关实体和服务提供商不得以歧视或其他方式收集、处理或传输存在具有歧视性的数据,比如基于种族、肤色、宗教、国籍、性别或残疾状况的数据。且与美国大多数现有的州政府数据隐私法不同,《美国数据隐私和保护法》要求不同类型的公司评估某些算法程序、算法模型与工具的具体影响,并将这些评估结果提交给联邦贸易委员会(FTC)。在算法透明度方面,美国立法的重点在于监管算法设计开发层面的算法透明度,根据《美国数据隐私和保护法》的相关内容,相关实体和服务提供商必须评估算法在设计、模型结构和数据输入层面可能存在的伦理问题,以降低潜在歧视性影响的风险。更为关键的是,《美国数据隐私和保护法案》对算法可能存在的危害构建了负面清单,以负面清单式监管规避可能的算法负外部性。

2.数据隐私与数据伦理

美国在大数据领域的数据泄露事件引发的公共安全和个体隐私破坏等风险持续存在,根据德国研究型数据统计公司Statista的统计,美国的数据泄露事件数量从2010年的662起大幅飙升至2020年的1 000多起。自2020年以来,每起数据泄露事件对公司造成的平均损失为50万美元。在大数据领域,美国数字科技伦理监管的重点在于数据隐私与数据伦理等方面,即充分尊重与保障数据权属下的个人隐私和公共安全。实际上,在面向大数据技术的科技伦理监管政策方面,美国自奥巴马政府以来持续重视数据伦理。例如,2012年3月,美国白宫发布的《大数据研究与发展计划》是美国在国家战略意义上正式出台大数据战略,并在2012年3月29日进一步发布《大数据研究和发展倡议》,提出需要增强大数据收集过程、使用分享过程中的隐私保护、安全与道德性,确保使用主体的使用过程能够合乎社会道德以及避免破坏个人隐私和公共安全。为进一步保障大数据应用过程中的数据隐私,美国自2013年以来持续公布系列关于数据隐私保护的相关行动计划。例如,2013年5月9日,美国联邦政府签署行政命令13 642号《开放数据政策备忘录》,规定所有新生成的联邦数据应对公众开放,并恰当地保护数据隐私。在2014年5月9日公布的《美国开放数据行动计划》中,承诺用可发现的、机器可读的、有用的方式发布公开数据。另外,美国联邦政府发布的《大数据:关于算法系统、机遇和公民权利报告》提出,政府的重要任务在于对大数据与算法系统的系列潜在隐私风险问题进行监管。

在拜登政府时期,美国加快了对大数据伦理监管的政策布局,把数据隐私与数据伦理监管摆在了更为重要的战略位置,表现为在立法层面加快了面向数据隐私风险防范与追责体系的立法进程。例如,在《联邦数据战略》中所提及的第一项原则就是“伦理性治理”,并表示将把数据伦理治理作为一种组织原则和文化融入数据战略中。2020年9月,美国总务管理局(GSA)联同14个联邦政府机构共同发布了《数据伦理框架草案》,该草案指导联邦政府雇员在收集和使用数据时作出符合数据伦理的选择。2022年7月20日,美国众议院能源和商业委员会通过《美国数据隐私和保护法》的修正版,与其他数据隐私法相比,该法案以不同的术语和不同的范围开展全方位大数据伦理监管,主要体现为:第一,法案面向的实体范围发生重大变化,“涵盖实体”定义为收集、处理或传输数据并受《联邦贸易委员会法》约束的任何实体或个人,包括《通信法》规定的公共承运人,或者是非营利组织,实体范围涵盖了绝大多数企业。第二,法案面向的数据范围发生重大变化。“涵盖数据”包括任何识别、链接或合理链接到个人或设备的信息,还包括从此类信息中派生的任何数据或唯一标识符,如IP地址、目标广告标识符等。第三,特别注重保护未成年的数据隐私。法案将“儿童”定义为17岁以下的任何人。第四,对敏感数据进行了特别关注。“敏感数据”包括超出其他州隐私法认为敏感的数据类别。大多数法律认为种族、民族、基因数据、儿童数据等信息属于敏感数据,但《美国数据隐私和保护法》包括所有这些以及任何设备的登录凭据信息。且敏感数据的使用需要在收集、处理或传输之前就必须获得个人的肯定性明示同意。更为关键的是,《美国数据隐私和保护法》明确了数据持有者的责任义务范围,要求大数据持有者承担数据来源与处理过程信息披露、数据隐私产生的影响评估、数据自动收集与运算的影响评估、年度第三方评估认证等四项义务。

四、数字科技伦理监管的主要模式与机制选择

(一)以国会为主导的美国政府立法与标准引领型监管模式

与英国、欧盟、韩国等其他发达国家相比,美国对数字科技伦理的监管更依赖于政府立法主导的监管模式。实际上,美国在引入立法模式监管数字科技伦理也从犹豫阶段走向了坚定落实阶段,呈现出一个渐进式的监管模式转型。具体而言,在特朗普政府时期,政府机构被劝阻不要引入新的监管措施,因为担心这些措施会阻碍创新。从2021年初开始,可以看到有限治理的稳步出台。《2020年国家人工智能倡议法案》于2021年1月1日通过,要求建立多个机构来提供联邦政府层面的跨部门联合指导。其中,最著名的是国家人工智能计划办公室(NAIO),其负责支持人工智能研发、教育计划、跨机构规划和国际合作,负责监督和实施美国国家人工智能战略,协调联邦各政府机构、私营部门、研究部门和其他利益相关方在人工智能研究和监管政策制定方面的协调合作,最终为推进人工智能伦理监管政策制定与实施提供整体性部署和战略性指引。联邦政府机构也在推行其他规模较小的举措,例如,美国国家标准与技术研究院(NIST)制定的《人工智能风险管理框架》(AI RMF 1.0),该管理框架适用于设计、开发、部署或使用人工智能系统的组织。总体来说,美国对数字科技伦理监管的立法特点是强调促进创新以保持美国在数字科技特别是人工智能领域的全球领导地位,重新利用现有法律并引入目前有利于治理的软法,这意味着美国对数字科技伦理监管立法模式的重点依然是在规范数字科技良性生态发展的同时,以硬法与软法相结合的方式提高数字科技竞争力。

具体来看,在人工智能伦理监管方面,美国形成了政府立法主导的数字科技伦理监管模式,美国联邦政府持续重视对新一代数字技术监管的立法工作,高度重视人工智能领域的相关法律法规等制度建设。例如,第117届美国国会在2021年共提出了130项与人工智能相关的法案。在制定技术标准方面,美国联邦政府机构主动参与人工智能国际标准制定,以促进自愿的、行业引领的标准制定,促进人工智能创新。2019年2月,特朗普在签署的人工智能行政命令中要求美国国家标准与技术研究院(NIST)发挥在人工智能标准制定方面的重要作用。美国在负责人工智能标准制定的国际标准委员会中处于领导角色,但美国政策制定者应更加积极地应对其他国家主导的、限制性的、歧视性的标准方法。与此同时,美国联邦政府基于人工智能应用领域专业化原则分部门对人工智能技术开展伦理监管。例如,美国交通部(DOT)监管自动驾驶汽车的使用,美国食品药品监督管理局(FDA)监管基于人工智能的医疗设备。在算法伦理监管方面,《算法问责法2019(草案)》进入参众两院的立法程序,该草案是面向人工智能算法伦理监管的总体部署,特别是对人工智能算法应用广泛与频繁的大型互联网平台企业的算法伦理提出了明确规范与要求。在大数据伦理监管方面,美国同样地针对大数据伦理的具体专业细分领域出台相应的监管法案和政策布局。例如,2020年6月,美国参议院发布《数据问责和透明度法2020》,着重将算法对数据自动收集和自动运算决策纳入到伦理监管框架,提出消费者应当有权质疑收集数据的理由并要求人工对算法自动化决策进行审查和解释。

2021年1月12日,美国食品药品监督管理局(FDA)发布了该机构首个基于人工智能/机器学习(AI/ML)软件医疗设备(SaMD)行动计划,以促进对AI/ML医疗设备的伦理监管。

(二)行业协会和研究机构等社会组织多元参与型监管模式

区别于政府立法主导的数字科技伦理监管模式,各类行业协会和研究机构等社会组织在美国数字科技伦理监管特别是在人工智能伦理监管中发挥重要作用,在数字科技伦理监管方面更侧重于对人工智能技术的风险识别、风险评估,以及对监管原则、监管对象、监管内容等方面开展系列治理活动。

从研究机构来看,其对数字科技伦理监管主要是提出前瞻性的监管原则与监管指南框架,充分提出可预见性和可操作性的监管方案与相应监管模式。2023年1月26日,美国国家标准与技术研究院(NIST)正式发布了《人工智能风险管理框架》及配套使用手册。该框架旨在帮助人工智能系统的开发者、用户和评估人员更好地管理可能影响个人、组织、社会或环境的人工智能风险,提高人工智能系统的可信度,并提出了人工智能风险监管的跨周期与多元化参与模式,将相关活动分为应用程序背景、数据和输入、人工智能模型、任务和输出四个维度以及“人与地球”一个特殊维度(用以代表作为人工智能背景的人权、社会和地球等更广泛的福祉),并强调测试、评估、检验和确认在整个生命周期中的重要地位,监管目标是确保人工智能更加负责任以及更加可信,确保人工智能监管贯彻到全生命周期。

从行业协会来看,美国行业协会在美国联邦政府立法主导的数字科技伦理监管模式下,逐步形成“强社会参与以及影响型”监管参与模式,这种模式表现为以美国商会(USCC)主导的人工智能监管标准制定与倡议等形式推动美国联邦政府对人工智能领域的监管。2023年3月9日,美国商会(USCC)发布《人工智能委员会报告》,呼吁尽快制定人工智能法律监管框架,规避因技术进步导致的国家安全风险。该报告提出了人工智能监管治理框架的五大原则,既要注重个人权利、自由、隐私保护,又要确保美国人工智能领先地位的创新驱动。具体来看,五大原则包括:一是效率原则,评估现有法律法规的可适用性;二是中立原则,填补法律空白的同时避免过度立法和过度监管;三是比例性原则,采取以风险为本的监管方法和执法手段;四是共治性原则,注重分散化监管和协同治理;五是灵活性原则,鼓励私营部门进行风险评估和创新。在生成式人工智能领域,美国新闻/媒体联盟(The News/Media Alliance,简称NMA)在2023年发布了有关Chat GPT生成式人工智能的监管原则,提出生成式人工智能开发者与部署者必须尊重创作者对其内容的权利,尊重知识产权(知识产权原则)、生成式人工智能系统应该对出版商透明(透明性原则)、生成式人工智能系统的部署者应该对系统输出负责(责任原则)、生成式人工智能系统不应该创造或冒不公平的市场或竞争结果的风险(公平性原则)、生成式人工智能系统应该是安全的、避免隐私风险的(安全性)。

生成式人工智能是一种能够自动生成文本、图像和其他形式内容的人工智能技术,具备通用性、泛化性和迁移性等特征。

(三)企业以数字科技伦理嵌入公司治理的嵌入型自治模式

企业不仅是市场主体,更是技术创新与应用的主体。数字企业的主导技术是数字科技,以企业为中心构建企业自我驱动的数字科技伦理监管治理体系尤为重要。美国企业主导的数字科技伦理监管主要表现为企业以数字技术治理的方式推动数字科技向善和社会价值创造,其主要实现模式是将企业数字科技伦理融入企业价值主张、融入企业战略、融入企业技术创新管理过程,实现企业对数字科技伦理的有效治理,确保数字科技更好地融入社会。在人工智能算法伦理监管领域,Amazon、IBM、Microsoft近年来都强化了对人工智能算法的伦理监管,主要是通过企业主导制定相关人工智能伦理准则、人工智能伦理治理倡议等开展数字科技伦理治理。例如,Microsoft开发了六项人工智能的首要伦理原则:公平、可靠和安全、隐私和安全、包容性、透明度、问责制。Amazon在战略层面提出了“负责任地使用机器学习算法”,通过可持续的数字技术开发价值观影响平台用户的方式确保平台用户、其他互补者更负责任地开发与使用机器学习算法等各类工具。具体来看,Amazon提倡机器学习算法的生命周期包括设计和开发、系统部署、持续使用三个主要阶段,所有使用机器学习算法的行为都必须尊重法治、人权、公平、隐私的价值观。特别是负责任的机器学习算法领域是一个新兴技术快速发展的领域,因而机器学习算法的可持续开发与利用是算法技术伦理和算法技术向善的一个新的起点,需要鼓励用户考虑这些建议背后的价值观和意图,并鼓励平台用户与第三方一起负责任地开发或使用机器学习算法系统,确保机器学习算法在开发和使用过程中不破坏伦理道德和基本人权等。

企业开展数字科技伦理监管的另一种模式是基于企业主导的数字科技伦理委员会的方式开展数字科技伦理治理,这意味着企业主动将数字科技伦理治理面对的各类社会议题、重点难点问题放置于公司治理层面,特别是引入各类利益相关方参与机制以推动数字科技伦理议题的落实,强化企业董事会、战略委员会、高管团队等战略决策者对数字科技伦理的认知,确保企业在数字技术开发与利用过程中更好地保护利益相关方的利益,确保各类战略决策符合道德规范和伦理要求。例如,IBM是一家有110年历史的数字科技企业,其在2021年成立了人工智能道德委员会,以强化企业数字科技伦理治理。具体来看,在信任和透明原则的指导下,IBM通过涓滴策略来追求合乎道德的数字科技伦理,即其将监管重点聚焦特定的数字科技伦理监管领域,而非整体性和全面性的监管。具体来看,IBM人工智能道德委员会定期处理数字科技伦理议题,例如,人工智能的精确调节、种族司法改革、数据责任、人脸识别、算法偏见、可信任的人工智能系统等。Facebook是面向社交领域的数字平台,为应对用户舆论可能产生的道德伦理冲突以及对人权的破坏等潜在风险,Facebook主张以平台规则的全球统一性为逻辑起点开发一套网络社区舆论标准,包括数百条关于“仇恨言论”、欺凌、暴力、裸体、假新闻、垃圾邮件、版权等的规则,对可能违反Facebook规则的内容进行评估并作出决定。但是,Facebook在以统一规则治理的方式开展数字科技伦理治理的过程中也面临诸多的利益相关方压力,例如,当“黑人的命也是命”抗议活动在世界各地蔓延时,社会活动人士认为Facebook在处理其平台上的“仇恨言论”方面监管不力,导致员工抗议和广告商的广泛抵制。而且与处理其他有争议的内容相比,Facebook在减少“仇恨言论”方面较少作为,部分原因是针对“仇恨演讲”内容需要对文本语句的上下文敏感性进行智能判断,这对算法治理提出了较大的挑战。

五、美国数字科技伦理监管对中国构建数字科技监管体系的经验借鉴

(一)政府制度设计对中国的经验借鉴

在数字科技伦理监管的政府制度设计层面,美国的主要模式是通过立法的方式对数字技术可能涉及到的道德伦理风险和潜在道德冲突进行监管,以各类法律法规的形式强化数字技术在嵌入企业与社会过程中的监管治理,确保数字技术开发者、使用者和创新者能够在统一的规制与规则指引下开展统一的行动。在人工智能算法领域,监管的重点是鼓励数字技术创新与应用,确保技术开发与创新过程中的安全性和道德伦理规范。更为关键的是,美国对数字科技伦理监管的政策呈现出连续性,即以联邦政府主导的国会立法持续推进关于数字科技伦理监管的法律法规。以人工智能算法伦理监管为例,早在2016年奥巴马政府时期,就发布了《国家人工智能研究与发展战略规划》,其推动对人工智能开始系统性研究,促进人工智能可持续发展,要求人工智能研究与开发契合社会需求和道德伦理规范。2019年特朗普政府时期继续强化对人工智能发展战略规划过程中的道德伦理、法律与社会影响评估,新增了确保人工智能系统的安全性内容,将人工智能算法应用的安全建设作为人工智能重大战略方向之一。2020年1月,美国白宫发布了《人工智能应用监管指南》,该指南从监管和非监管两个层面提出了人工智能应用的相关原则和建议,并针对通用或特定行业人工智能应用程序的设计、开发、部署和操作提出10条监管原则,具体包括公众对人工智能的信任、公众参与、科学完整性与信息质量、风险评估与管理、成本效益分析、灵活性、公平性与非歧视性、信息与透明度、安全性与可靠性、跨部门协调。可以看出,美国对数字科技伦理监管制度总体上遵循渐进式原则,且在制度安排上偏向于战略性指引、总体性意见、抽象式原则逐步走向具象性法律监管,在立法过程中以灵活有效、科学前沿的措施对人工智能算法、大数据主体进行科学分类,并非采取“一刀切”的方式进行监管,而是立足分类治理原则推进以人工智能、大数据、区块链等为核心的数字科技伦理监管。

因此,中国在数字科技伦理监管的制度构建和政策设计过程中,一方面,需要积极借鉴美国国会立法这一最高顶层制度设计的模式开展数字科技伦理监管,鼓励地方政府在重要行业和创新领域先行先试,充分发挥地方自主性原则,积极借鉴美国采取“州政府监管早于联邦政府统一立法”方式,在地方重要行业和重要领域先行先试的基础上,积极探索监管成功模式与经验,以法律为最高准绳,并充分发挥市场的调节功能,面向数字科技重点行业和重点领域开展相关立法工作,针对人工智能的技术类型与伦理影响程度的差异性,尽快探索通用性人工智能和专用性人工智能的差异性伦理监管法律,进而确定不同类型人工智能伦理监管的主要主体、主要对象、主要议题、主要措施和监管边界范围。另一方面,政府在数字科技伦理监管的制度与政策涉及的目标取向方面,其重要目标之一在于识别、控制、防范数字科技创新与应用过程中的道德伦理风险和公共安全风险,以最大限度地降低风险源和最大限度地控制风险环节为基本原则,针对各类数字科技开发与设计的相关组织和主体进行伦理监管制度设计。

(二)监管模式设计对中国的经验借鉴

在监管模式设计方面,美国对数字科技伦理监管模式主要是以政府战略引领、法律牵引、市场自治的方式开展数字科技伦理监管,充分发挥政府对数字科技伦理的宏观政策制定与调控作用,更好地发挥市场主体特别是从事数字技术创新、开发与应用的主体自我治理的重要作用,以分层分类的模式开展数字科技伦理监管。具体来讲,从分层的视角来看,美国在发挥州政府积极性与自主性的基础上,进一步通过国会和联邦政府机构的制度建构和政策部署推动整体性的数字科技伦理监管行动。在人工智能伦理监管方面,美国在人脸识别技术的伦理监管便是由州政府自主探索,走在联邦立法的前面。以《美国数据隐私和保护法》为例,在充分考虑美国各州隐私法的基础上,进一步提出区别于美国各州隐私法的关键监管内容和监管议题。从分类的视角来看,美国对数字科技伦理监管以监管对象、监管领域、监管议题等多重分类思路开展数字科技伦理监管制度与政策设计,针对数据持有者的差异性,大型数据持有者的数据伦理风险和公共安全风险更大,其监管内容重点与小型数据持有者的数据伦理监管内容具有明显的责任差异性。在《美国数据隐私和保护法》中明确提出了小型数据持有者与大型数据持有者的分类监管思路,对小型数据持有者将被免除大多数数据安全监管方面的要求,特别是在个人数据的简短形式通知方面采取豁免原则。就大型数据持有者而言,其面临更多的伦理监管要求,具体包括:第一,简短形式的通知。提供一份关于其被涵盖数据做法的简短通知。第二,隐私影响评估。每两年进行一次隐私影响评估,权衡被涵盖数据的收集、处理和传输做法的好处与这些做法的潜在外部效应。第三,算法影响评估。对用于收集、处理或传输被涵盖数据的任何算法进行年度影响评估,并向联邦贸易委员会提交评估报告。第四,年度认证。大型数据持有者的执行官必须每年向联邦贸易委员会证明,该实体保持遵守该法案的合理内部控制,以及确保认证的官员参与,并由认证官员负责。在人工智能伦理监管制度与政策设计过程中,美国联邦政府同样遵循分类监管思路。例如,2020年1月,美国白宫发布的《人工智能应用监管指南》从监管和非监管两个层面出发提出设计、开发、部署和操作等10条监管原则,为人工智能伦理监管提供了整体性的部署。

因此,中国在数字科技伦理监管制度设计的过程中,在借鉴美国基于分层分类思路开展数字科技伦理制度设计与政策执行的基础上,需要进一步发挥地方政府政策制定与执行的自主性原则,考虑到中国数字科技创新与应用呈现出区域发展不平衡、行业不平衡的现状,需要根据地方数字经济发展状况、数字科技重点行业发展状况、面临的风险等级开展精准分类,对不同行业、不同应用场景、不同风险等级的重点行业、重要领域和主要监管对象开展制度分类设计,有效发挥中央顶层制度设计和地方具体政策执行自主性的优势,确保中央政府与地方政府在数字科技伦理监管过程中的制度框架一致性与政策协同性。

(三)企业参与数字科技伦理监管对中国的经验借鉴

在企业参与数字科技伦理监管方面,美国充分发挥市场主导的企业自主性原则,充分发挥企业自我治理的重要作用,形成政府立法主导、企业治理参与的数字科技伦理监管格局。更为关键的是,从企业参与数字科技伦理监管模式来看,主要表现为三个主要特征:第一,发挥数字科技领军企业的标准制定功能,特别是发挥从事人工智能技术开发与应用的数字科技龙头企业的作用,通过企业主导制定的数字科技创新与应用的各类倡议、指南、企业手册等方式树立行业示范效应,带动产业链上下游企业乃至整个数字商业生态圈的其他企业开展系统学习,基于学习效应发挥数字科技伦理监管的辐射扩散作用。第二,数字科技领域的相关龙头企业主要采用数字科技伦理委员会、董事会和战略委员会等方式实现伦理嵌入治理监管模式,形成“董事会—高管战略决策团队—员工”的传导体系,确保数字科技伦理治理充分融入到组织创新战略、管理过程、业务流程,最大程度地实现数字科技伦理融入企业治理全过程。第三,企业自我主导的数字科技伦理治理充分引入利益相关方参与机制。即数字科技伦理监管涉及到的多元利益相关方主体具备广泛性特征,需要充分引入不同领域和不同价值诉求的利益相关方,主要包括政策设计者、科学家、研发人员、技术应用者、社会公众等不同类型的利益相关方主体,建立定期沟通协商机制,进而制定相关数字科技伦理监管的重点领域和重点议题。

因此,中国在数字科技伦理监管制度设计的过程中,一方面,发挥数字科技领域重点行业的科技领军企业的重要作用,发挥这类企业在数字科技伦理治理方面的重要作用,以这类科技领军企业为载体推动企业主动对标国际数字科技领域的世界一流企业相关的治理标准、行业规范、治理指南、企业倡仪和操作手册等,实现中国企业主导的数字科技伦理治理标准充分融入国际主流标准,并进一步结合中国数字科技创新与应用过程中的主要社会问题与道德伦理风险,制定重点治理领域与细分环节,并积极构建以科技领军企业为牵引的数字科技伦理监管与治理共同体或治理生态圈。另一方面,进一步增强企业社会责任导向,立足企业社会责任战略融入算法技术治理、大数据治理、区块链安全治理等多重数字科技伦理治理领域,实现企业数字科技创新与应用过程中的可持续创新、可持续开发利用、可持续创造综合价值,通过企业社会责任战略构建动态的利益相关方沟通参与机制,确保数字科技伦理治理内容与议题的动态性与时效性。

 

参考文献

[1]金星晔,伏霖,李涛.数字经济规模核算的框架、方法与特点[J].经济社会体制比较,2020(4):69-78.

[2]蔡跃洲.数字经济的增加值及贡献度测算:历史沿革、理论基础与方法框架[J].求是学刊,2018,45(5):65-71.

[3]许宪春,张美慧.中国数字经济规模测算研究——基于国际比较的视角[J].中国工业经济,2020(5):23-41.

[4]郭家堂,骆品亮.互联网对中国全要素生产率有促进作用吗?[J].管理世界,2016(10):34-49.

[5]阳镇,陈劲,李纪珍.数字经济时代下的全球价值链:趋势、风险与应对[J].经济学家,2022(2):64-73.

[6]黄群慧,余泳泽,张松林.互联网发展与制造业生产率提升:内在机制与中国经验[J].中国工业经济,2019(8):5-23.

[7]荆文君,孙宝文.数字经济促进经济高质量发展:一个理论分析框架[J].经济学家,2019(2):66-73.

[8]赵涛,张智,梁上坤.数字经济、创业活跃度与高质量发展——来自中国城市的经验证据[J].管理世界,2020,36(10):65-76.

[9]阳镇,凌鸿程,季与点,等.数智化时代传统文化的特殊力量:儒家文化会驱动人工智能企业创新绩效吗?[J].创新科技,2021,21(7):19-33.

[10]诸竹君,袁逸铭,焦嘉嘉.工业自动化与制造业创新行为[J].中国工业经济,2022(7):84-102.

[11]张勋,万广华,张佳佳,等.数字经济、普惠金融与包容性增长[J].经济研究,2019,54(8):71-86.

[12]夏杰长,刘诚.数字经济赋能共同富裕:作用路径与政策设计[J].经济与管理研究,2021,42(9):3-13.

[13]阳镇,陈劲.数智化时代下的算法治理——基于企业社会责任治理的重新审视[J].经济社会体制比较,2021(2):12-21.

[14]肖红军,阳镇,商慧辰.平台监管的多重困境与范式转型[J].中国人民大学学报,2022(4):24-39.

[15]肖红军,李平.平台型企业社会责任的生态化治理[J].管理世界,2019(4):120-144+196.

[16]肖红军,阳镇.平台企业社会责任:逻辑起点与实践范式[J].经济管理,2020(4):37-53.

[17]阳镇,陈劲.数智化时代下企业社会责任的创新与治理[J].上海财经大学学报,2020(6):33-51.

[18]于雪,段伟文.人工智能的伦理建构[J].理论探索,2019(6):43-49.

[19]莫宏伟.强人工智能与弱人工智能的伦理问题思考[J].科学与社会,2018(1):14-24.

[20]段伟文.机器人伦理的进路及其内涵[J].科学与社会,2015,5(2):35-45

[21]BURREL J.How the machine‘thinks’:understanding opacity in machine learning algorithms[J].Big data&society,2016,3(1):1-12.

[22]董军,程昊.大数据技术的伦理风险及其控制——基于国内大数据伦理问题研究的分析[J].自然辩证法研究,2017(11):80-85.

[23]MITTELSTADT B D,ALLO P,TADDEO M,et al.The ethics of algorithms:mapping the debate[J].Big data&society,2016,3(2):1-21.

[24]FEDERAL DATA STRATEGY.Data ethics framework[EB/OL].(2021-09-03)[2023-03-02].https://resources.data.gov/assets/documents/fds-data-ethics-framework.pdf.

 

肖红军,中国社会科学院工业经济研究所研究员,管理学博士,研究领域是企业社会责任与企业成长。

阳镇,博士,中国社会科学院工业经济研究所助理研究员,清华大学技术创新研究中心兼职副研究员,研究方向为企业技术创新与可持续发展。

 

肖红军,阳镇.数字科技伦理监管:美国进展与中国借鉴[J].财经问题研究,2023,(06):73-86.

分享到: