社科网首页|客户端|官方微博|报刊投稿|邮箱 中国社会科学网
中国社会科学院工业经济研究所

软法范式的人工智能伦理监管:日本制度探析

2023年09月13日来源:《现代日本经济》2023年04期    作者:刘湘丽 肖红军

摘要在人工智能伦理监管中,平衡技术发展与监管的关系十分重要。这需要根据人工智能的技术特点采取不同于传统监管模式的做法。日本的思路是政府设定目标、企业自主规范、多元主体参与,并依此构建了软法范式的监管制度。该制度强调技术发展优先,注重不增加企业制度成本和不损伤技术研发积极性,通过软法性质的原则、指针来引导企业预防伦理事故,达到既维护社会价值又促进技术发展的目的。日本的监管模式体现了“敏捷监管”的观点,也彰显了日本特有的行为方式。日本经验显示,对变化快、复杂且应用前景不确定的新兴技术,软法范式不失为一种有效的监管。但同时也需要构建激励企业的机制,完善高伦理风险领域的法律法规。

关键词:人工智能;伦理监管;软法范式;敏捷监管;日本

基金:中国社会科学院国情调研重大项目“数字科技伦理监管制度调查研究”(GQZD2023009);中国社会科学院登峰战略企业管理优势学科建设项目。

 

引言

不久前,美国企业OpenAI推出智能聊天机器人系统ChatGPT标志着人工智能进入了新的发展阶段。人工智能在带来发展机遇的同时,也引发了伦理问题与安全挑战。如何对人工智能开发利用活动进行伦理监管,已成为当今世界面临的重要课题[1]。日本在21世纪初期就已注意到了机器人带来的社会伦理问题。2010年代以后,日本开始出现人工智能伦理问题的研究,政府从2016年起有组织、有规模地讨论对策,制定伦理监管的原则、指针,新增法律条款,逐步搭建制度框架,对企业实践产生了积极影响。现阶段的日本人工智能伦理监管,可以说已经有了较完整的理论基础和制度框架,值得我们进行深入研究,归纳出其形成原因、架构特征和运行要素,为拓宽人工智能伦理监管思路提供参考。

人工智能是新兴技术,现在处于发展之中,技术规律及应用前景仍不明朗,但已经引发了伦理问题,需要进行社会监管,在促进技术发展的同时,规避技术造成的负面影响。然而,技术发展与监管之间存在着矛盾。监管过度,会抑制企业技术创新意愿。而疏忽监管,则可能使伦理风险增加,失去技术稳定发展的社会环境。因此,平衡技术发展与监管的关系十分重要。有研究认为,技术发展与监管之间是相互影响和促进的“共进化”关系,技术发展推动原有监管制度变革和新制度诞生,但反过来监管制度的变化也为今后的技术发展走向及创新突破奠定了基础[2]。薛澜、赵静2019指出,学界对监管政策与创新发展关系有了新的认识,如有研究提出“监管需要以加速创新为目标”监管部门需要提供利于创新的法规;“监管已成为一种内生政策,通过包括行业在内的各利益相关者的参与而形成”“监管影响创新,但创新结果创造了新的监管条件”[3]。总而言之,“能推动技术创新的监管政策”观点有着较广的影响力。监管政策要能推动技术创新,必须适应技术规律、满足创新需求和贴近创新现场。传统的监管模式是政府主导的、基于法律的监管。但对于人工智能这样的新兴技术,应该根据其迭代快、不确定性强、复杂及存在潜在风险等特点,采用不同的管理模式。近期学界讨论热烈的敏捷监管Agile Governance就是新模式的一种推演。所谓“敏捷监管”是指“具有柔韧性、流动性、灵活性或适应性的行动或方法”[3]。其特征体现在两方面:一是参与广泛度,敏捷模式下需要包括政府、企业、消费者等利益相关者参与监管过程;二是时间灵敏度,敏捷监管模式要对快速发展中的变化做持续的准备,及时克服“政策衰退”为技术发展拓宽道路。这两点都与传统监管模式形成了鲜明对比。

在研究日本人工智能伦理监管的过程中,我们发现日本对技术发展与监管采取的立场可以概括为“既对立又统一”这个立场跟上述文献的观点基本一致。日本人工智能伦理监管的前提条件,就是优先发展技术,要消除伦理问题带来的社会障碍,为技术发展铺平道路,同时也期望人工智能技术的发展为更有效、更合理的监管提供可能性,如更精准地确定伦理风险和损失规模。这样的立场也给监管模式的选择带来了变化。有学者指出,与欧美国家相比,日本的人工智能伦理监管更加强调技术发展和倾向于非约束性监管[4]。日本对伦理规范也有自己的理解,如“责任说明”在日本主要指对决策结果的主动解释,而不像欧美国家那样强调对决策结果的问责[5]。一些学者认为,日本监管采取的是“软法”方式,主要依靠监管原则、指针来引导企业自主规范。正如经济产业省2020年所指出的那样,日本希望摆脱政府从规则设计到监督、执法全过程一手承担的传统模式,力图形成以企业为核心、多元利益相关者共同参与治理的监管格局,而这样做可以避免阻碍企业的技术创新[2]。从日本现行的软法范式的监管模式中,可以看到“敏捷监管”的基本思路,还可以看到日本特有的行动方式。可以说,这是研究人工智能伦理监管模式的极佳案例。

在以上先行研究的基础上,本文将从3个方面解析日本人工智能伦理监管制度的形成原因、架构特征和运行要素。第一,通过历史溯源梳理日本人工智能伦理监管制度的形成过程,把握其发展脉络和最新状况。第二,从制度结构入手,分析日本人工智能伦理监管的架构内涵,阐释原则、规则、监督、执法各层面的特征、形成原因和作用。第三,归纳出日本人工智能伦理监管制度的运行要素,揭示这些要素的社会文化原因以及在经济发展中的意义。最后,对日本经验进行简要评述。本研究拓展了日本人工智能伦理监管研究,为解决人工智能伦理问题提供了新的思路。为保证论据的真实性,本文写作过程中参阅了众多的日本政府文件、报告、法律条文以及学术文献、媒体报道等原文资料。在解读和分析过程中,力求引用多方面观点,运用质性分析手法和相关学科知识,以保证研究结论的客观准确性。

一、渐进式的制度发展

日本的人工智能伦理监管发展到如今的态势,经历了20余年。这里通过将这段时间分为伦理观念探讨、伦理监管制度建立、企业行动实践3个阶段来考察制度形成的脉络见图1

1 日本人工智能伦理监管的发展阶段

注:阶段时间的表示,仅是对社会事件的大致的划分,并不意味着“伦理监管制度建立阶段”中就绝对没有“伦理观念探讨阶段”或“企业行动实践阶段”的事件存在,其余类同。

资料来源:作者绘制。

 

伦理观念探讨阶段

这里的伦理观念,是指现代社会尊崇的“价值”观念,如幸福、快乐、痛苦、公平、正义、善良、诚实、尊敬、自律性自由意志、权利、平等、共同体、传统等[6]。伦理观念探讨,就是探讨如何规避人工智能利用所带来的伦理风险及事故。日本的伦理观念探讨阶段为2000年至2017年。其间,日本开始出现探讨机器人及人工智能利用所引起的伦理问题的研究,但最初只是学术团体或国家行政部门的个别行为,后来开始有组织的、规模性的探讨,逐渐形成了伦理监管的社会共识,为制度建设奠定了基础。

21世纪初期,机器人利用所导致的伦理问题引起了日本社会的关注。哲学界对此展开研究,探讨了机器人的责任主体问题、心智问题和人机连接问题。多数研究认为机器人无法履行社会责任,在利用过程中可能会损害人的尊严等伦理观念[7]。日本人类工学学会2009年制定了机器人研究伦理准则[8]日本机器人学会2014年提出了“社会责任、公正行动、遵规守法、确保公平、钻研与进步、尊重与合作、保护研究对象、完善研究环境、教育与培训”9项原则[9]。同时,政府也认识到机器人的开发利用应确保人的安全和促进社会高质量发展。经济产业省2013年制定了“看护机器人开发伦理指针”决定对机器人开发补贴项目进行伦理审查,以确保机器人不损害人的隐私和尊严[10]。总体来看,这一时期的探讨比较零散,没有形成较大的社会影响和政策影响,然而在2016年之后这种局面开始得到改变。

大约从2016年开始,日本政府开始牵头组建若干研究会,对人工智能伦理问题进行广范围的讨论。总务省2016年成立了人工智能网络化研究会,该会的研究报告指出,人工智能在促进社会经济发展的同时,也可能会冲击现行的社会伦理观念,如侵害人的尊严与自由意志、挑战人的存在意义、操控人的情感、造成个人隐私的泄露。因此应制定伦理规范,预防人工智能的开发利用伤害到人的尊严和自由意志,并且保证人的主动地位、对决策结果的可解释性以及消费者的安全性[11]。内阁府的人工智能与人类社会恳谈会2017年在报告中指出,人工智能有望成为可持续发展的驱动力,但也可能引起社会伦理问题,必须把握好人工智能决策与人类判断之间的平衡,避免人工智能服务对人的感情、信念、行动进行操控、排序和分类同时持续关注人性观念随着人工智能进步而出现的变化包容对人工智能的不同认知强化法律以防止个人信息与隐私泄露,尊重人在人工智能利用过程中的自主选择和自由意志,避免造成利用者与非利用者之间的社会对立。该报告强调研究开发者要强化伦理规范,遵照所属学会、机构的伦理准则,履行责任说明义务,保证信息透明,并且努力开发技术,确保服务器安全,防止算法被篡改、隐私被泄露,保证技术由人控制,以及推理、逻辑、计算过程的透明可释[12]。

比如,利用人工智能技术的广告、推销手段、聊天软件。

比如,自动驾驶车等自动化机器可以改变人的时空感觉和身体感觉,由此导致人对自身能力和感觉的认知发生变化。

比如,人会有艺术等方面的创造,而现在人工智能也能绘画、作曲,或是人与人工智能协同创造。对于这些不同的创造,应该如何来评价它们的价值(有用性、独创性、艺术性等)社会应该如何接受?

在学界,人工智能学者松尾丰等人在2016年的论文中提出,应重视人工智能用于军事的风险和操纵人类心智的风险[13]。机器人哲学研究者久木田水生2017年指出,伦理问题的实质是现代社会尊崇的“价值”受到了侵犯[6]。造成伦理问题的原因是人工智能开发利用过程中出现的数据偏差。人工智能大量收集个人数据,这可以帮助人进行个性化选择,但人工智能的数据受开发者的标注、算法等控制。如果开发者的主观意识与法律、社会伦理观念不一致,就会产生技术上的偏差,进而对现代社会价值造成冲击。

经过政府、学界的广泛讨论,日本社会基本上形成了共识,要对人工智能开发利用活动进行伦理监管,避免对现代社会价值体系的冲击。

伦理监管制度建立阶段

伦理制度建立阶段为2017年至2021年。这一阶段,日本开始部署人工智能伦理监管制度,不仅制定了伦理监管原则、指针,还新增加了法律条款和行政规定。

总务省2017年率先制定《人工智能开发指针》草案),提出了协同、透明、可控、安全、网络安全、隐私、伦理、利用者支援、责任说明9项原则[14]。2018年又制定《人工智能利用指针》草案),提出了正确利用、正确学习、协同、安全、网络安全、隐私、尊严·自律、公平、透明、责任说明10项原则[15]。2019年3月29日,内阁府通过《以人为中心的人工智能社会原则》确立了日本人工智能伦理监管的最高准绳。该原则阐述了人工智能开发利用的7项原则,特别指出人工智能开发利用不得侵犯基本人权或损害人的尊严、隐私、自由和平等,应确保决策结果的透明可释、公平,以及开发运营企业的责任说明,还应提高社会大众的知识素养水平,创造公平竞争、促进创新的制度环境[16]。

日本随后又制定了一批旨在指导企业行动的指针文件。比如,经济产业省在2019年、2021年先后制定了《人工智能·合同利用指针》《实现人工智能原则的监管指针》。前者用于指导企业在数据利用和人工智能软件开发过程中保护隐私和权利[17]后者用于指导企业建立人工智能伦理监管制度[18]。消费者厅在2020年制定了《人工智能利用指针——为了更聪明地利用人工智能》。该手册在政府官网和服务窗口公开,向消费者普及人工智能的知识、人工智能与人的差异性,以及利用人工智能服务时的注意事项和求助方法[19]。日本还在2021年6月做出实施综合数据战略的决定,对政府及社会加速建设数字平台做了部署。

同时,日本还通过新增法律条款或行政规定来应对以人工智能为代表的数字技术带来的伦理问题。日本2018年对《反不正当竞争法》进行修改,新设了对非法获取和使用“受保护数据”的条款,将非法获取、使用和提供有ID、密码的受保护数据的行为界定为“不正当竞争行为”违反者将承担民事救济义务[20]。总务省和经济产业省随后制定了信息银行认证制度,对服务能力达到标准的信息银行代客管理数据的企业进行认证和授予标识,由日本IT团体联盟对信息银行在数据伦理委员会、数据安全、个人隐私保护等方面的表现进行审查和认证[21]。

日本还在2017年修改了《个人信息保护法》将个人识别符号纳入了个人信息范畴,新设了“要保护信息”条款,规定未经本人同意原则上不能获取“要保护信息”。“要保护信息”是指人种、信仰、社会地位、病史、前科等犯罪史、被害史,以及其他的可能造成歧视、不平等待遇的信息[22]。日本2020年又修改法律,规定当信息泄露严重损害个人权益的事态发生时,企业必须向信息保护委员会报告和通知本人;向外国的第三方提供个人信息时,要向本人提供第三方充分的信息;本人可以指定个人信息的出示方式;当个人权利或正当利益可能受到侵害时,有权要求停止使用和消除;企业有义务公布安全管理措施;违法或者助长违法行为者不得利用个人信息[23]。

2018年12月19日,厚生劳动省对《利用人工智能诊断治疗支援系统与医师法第17条规定的关系》做了修改。原来的规定是,人工智能在诊疗过程中是医生判断阶段提高效率和提供信息的支援型工具,但没有对使用该工具的医生的责任做明确规定。修改后的规定是,当在诊断、治疗中使用人工智能时,实施诊断、治疗等的主体是医生;医生对人工智能使用负有一切责任;该诊疗作为《医师法》第17条的医疗行为来实施[24]。由于人工智能技术的进步,如今诊断、治疗的全过程都可能有人工智能参与,新规定强调了医生的主体地位和义务,体现了以人为中心的原则。

企业行动实践阶段

企业行动实践阶段为2021年至今。在这一阶段,日本政府倡导的效果有所显现,建立人工智能伦理监管制度的企业不断增加。当然,这一阶段中政府的制度建设也在持续展开,比如,数字厅和内阁府的知识财产战略促进局在2022年3月4日发表了《平台数据规则运营指针1.0版》明确了参与平台数据处理各方主体的行为规范以及风险应对措施。

根据电子信息技术产业协会JEITA2022年对会员企业的调查[25]冲电器集团OKI、建伍公司JVC、索尼集团、东芝集团、日本微软公司、松下集团、日立公司、富士通集团、三菱电机公司、理光集团都已制定了人工智能伦理原则。这些企业还将监管融入公司业务,同时通过教育促进伦理文化的形成。如富士通集团通过设立“人工智能伦理监管室”来负责全集团伦理监管工作,还把伦理监管与公司治理相结合,设立“富士通集团人工智能伦理外部委员会”聘请外部专家进行伦理评估,并将结果汇报给董事会,推动全集团伦理监管工作。该公司的“以人为中心人工智能研究会”是具体的业务执行部门,负责研究人工智能伦理监管方案,与客户合作开发了伦理风险的评估系统以及风险应对预案手册。

普华永道咨询公司PwC指出,由于人工智能快速融入企业核心业务,同时政府发布伦理监管规则,日本企业的人工智能伦理监管近年发展较快。根据该公司2022年对日本企业的人工智能伦理监管状况的抽样调查23%的企业“采取了全面措施”24%采取了“部分措施”31%“研究并准备采取措施”14%“尚未采取措施”3%“未辨识到风险”6%表示“不清楚”[26]。由此可见,近半数的日本企业在伦理监管上采取了措施,加上“研究并准备采取措施”的已达到了78%。但也有调查指出有伦理监管意识的企业虽然很多,但采取全面措施的还比较少[27]。总体来看,人工智能伦理监管在日本企业中仍然处于发展过程中,但是已经进入大多企业的决策视野。

调查对象为销售收入在500亿日元以上企业的300名部长及以上级别管理人员。

调查对象为销售收入在500亿日元以上企业的300名部长及以上级别的管理人员和1 000名美国企业管理人员。

二、多元主体参与的监管架构

日本的人工智能伦理监管从制度架构上可分为原则层、规则层、监督层、执法层[28]。其中,原则层设定人工智能伦理监管的目标,规则层明确实现上述目标的路径,监督层引导企业自主规范,执法层对违规行为进行追责。日本对各层内容的设计,可以说有意识地遵循了政府设定目标、企业自主规范、多元主体参与治理的思想,但现实情况与这一指导思想还有差距,有待完善。

本文主要参照了经济产业省《我国人工智能治理模式1.1版》的观点,但对两个地方的表述做了改动。一个是该文件使用“目标”来表示监管架构第一层,而本文直接使用“原则”的说法。另一个是该文件将通用规则和特殊规则视为不同层次的规则,而本文从执行角度认为它们是同一层次的规则,因此没有分层。

设定伦理监管目标的原则层

内阁府2019年发布了《以人为中心的人工智能社会原则》内阁府是国家综合管理机关,该机关的文件对经济产业省、总务省等职能机关有着指导意义。该原则指出人工智能时代需要贯彻尊重人的尊严、多元包容、可持续发展这3个基本理念,人工智能能够解决日本的社会经济问题,但也可能带来负面影响,必须从人、社会体系、产业结构、创新系统、治理方面推动变革,塑造安全且有效使用的人工智能社会。该文件提出的人工智能社会原则包括以下7项,即以人为中心;教育与素养;确保隐私;确保安全;确保公平竞争;公平、责任说明及透明;创新[16]。

以人为中心原则,就是在人工智能的开发利用过程中不能违背宪法及国际规范的基本人权,人工智能应扩展人的能力,有利于每个人追求各种各样的幸福,应防止人对人工智能的过度依赖,更要避免人工智能操纵人的自由意志。

教育与素养原则要求人工智能的开发利用要避免产生社会落差与隔阂。必须向全体大众平等提供接受教育与素养培养的机会,在学习人工智能、数理、数据科学等知识的同时,也要学习跨越文理范围的知识,同时了解人工智能技术的局限性,诸如因为数据资料的偏差所引起的公平性、公正性、隐私保护等问题。

确保隐私原则要求在使用人工智能系统或应用软件收集个人信息的过程中,包括政府在内的所有参与者都不应侵害个人的自由、尊严、平等。如果出现因人工智能利用导致个人风险增高的情况,应从技术和管理两方面采取应对机制。

确保安全原则要求进行人工智能利用的风险评估与降低危机研究,发展涵盖网络安全的危机管理机制,应注意避免对单一或少数特定人工智能的依赖。

确保公平竞争原则强调要防止特定国家垄断人工智能资源或利用支配性地位进行不当的数据收集,以及进行主权的侵害;防止特定企业垄断人工智能资源,或利用支配性地位进行不当的数据收集,以及进行不公正竞争。在人工智能利用上,不得出现利用财富与社会影响力而偏袒部分社会成员的情况。

公平、责任说明及透明原则要求确保人工智能决策的公平与透明性,以及对结果的正确说明义务和对技术的信赖性。具体而言,在人工智能的开发利用中,不应因人种、性别、国籍、年龄等个人背景不同而受到歧视待遇。人工智能开发运营企业应对人工智能使用数据的事实、数据的取得方法与使用方法,以及确保人工智能正确运作结果的机制进行正确说明。人工智能开发运营企业应就人工智能的使用、采用和运营,与利益相关者展开正确对话,应构建确保人工智能以及支撑其数据、算法的信赖机制。

创新原则要求人工智能发展要以社会创新为驱动力,在人工智能的使用方向、投放市场方面创造新的、更多的机会。为促进人工智能的持续发展,应跨越国境、产学官民、人种、性别、国籍、年龄等界限,促进人才、研究双向流动,推动国际化、多样化和产官学合作。推进人工智能品质与信赖性、数据有效收集与整理方法、人工智能开发、测试运用方法理论等方面的研究。以确保隐私与安全行为为前提,构建能加速人工智能发展的计算机资源以及共享高速网络的研究开发环境。推进制度改革,清除阻碍人工智能发展的障碍。

指明实现目标路径的规则层

为落实《以人为中心的人工智能社会原则》总务省、经济产业省等国家职能机关制定了一系列指针。这些指针的功能体现在两方面:一是帮助企业理解《以人为中心的人工智能社会原则》强化人工智能伦理观念;二是支持企业进行人工智能伦理监管,提高人工智能伦理监管水平。此外,各国家职能机关还新增加了部分法律条款和行政规定,来满足人工智能伦理监管的社会需要。这些指南、法律条款、行政规定涉及人工智能的开发、利用、合同签订、数据监管领域的伦理规范,它们构成了日本人工智能伦理监管规则的主要内容。从规则适用范围又可分为适用所有领域的通用规则和适用特殊领域的特殊规则见表1

1 日本的人工智能伦理监管规则

资料来源:内閣府政策統括官(科学技術イノベーション担当).関係府省庁におけるAI関連指針·原則·ガイドライン等の策定状況[EB/OL].[2023-02-15].https://www8.cao.go.jp/cstp/ai/ningen/r21kai/siryo1.pdf

 

1.通用规则

大多数的通用规则是务实指导形式的指针[28]它们不具有法律约束力。之所以选择没有法律约束力的指针,据经济产业省称,有3个方面的理由:一是指针不如法律严格,可以及时修改内容,更容易满足形势变化的需要[29]二是指针不如法律详细,允许企业有多种履行规范的途径,因此不会阻碍企业的技术创新[30]三是指针不像法律有强制性,因此,不会增加企业开发利用技术的成本[28]。这些指针的突出特色是注重路径分析和实践范例分享,其目的在于为企业进行人工智能伦理监管提供具体指导。

以经济产业省的《实现人工智能原则的监管指针1.1版》为例说明此类通用规则的主要内容[30]。该指针的重点在于指导企业构建人工智能监管系统。该指针提出的人工智能监管模型由环境风险评估、目标设定、监管系统构建、运行、成果评价、环境风险再评估6部分组成,倡导在分析和评估当前系统实现目标状况的过程中快速解决问题。

企业首先应进行环境风险评估,分析人工智能利用过程中可能出现的伦理问题、出现的频率和环境因素,进而评估伦理问题可能引发的负面影响。企业应参考行业等标准进行环境风险评估。其次应设定监管目标。应以《以人为中心的人工智能社会原则》提出的7项原则为最终目标,根据环境风险评估的结果决定自己的监管目标。再者,应构建一个问题预防、监控、纠偏、应对机制。经过比较当前系统运行与监管目标的差距以确定需要改进的地方,在考虑差距程度、影响范围、发生频率等因素的情况下决定负面影响是否可以接受。在比较差距时应与行业、政府制定的标准保持一致。加强监管人员的伦理教育培训,减少人为因素造成的伦理问题。在确保业务秘密的前提下推进企业、部门间的信息共享和意见交流,以利于共同解决问题。预先制定事故和纠纷的应对预案,减少利用者的事故损失。另外,企业在监管实施过程中应切实做好责任说明工作。持续记录人工智能监管系统的运行状况,为随时进行说明做好准备,主动公布监管目标、监管措施以及监管系统运行情况等信息。企业应对人工智能监管系统的运行成果进行评价。评价者应由监管系统设计、运营以外的部门和利益相关者担任。最后,企业应再次进行环境风险评估,确定监管系统需要改进的地方。

2.特殊规则

针对道路交通、医疗等领域的人工智能伦理问题,日本新增加了法律条款和行政规定,并且也在探讨对政府行政利用和大众监控领域的伦理监管见表1

在道路交通领域,日本2020年4月对《道路交通法》《道路运输车辆法》进行修订,增加了无人驾驶第三等级的自动驾驶系统安全标准的条款。一是规定了使用自动驾驶系统的驾驶员的义务。当自动驾驶过程中发生事故或违章,驾驶员也不一定能免除责任。二是规定驾驶员有记录保存自动驾驶系统运行状况的义务[31]。日本2022年11月又增加了特定自动驾驶和远程操作小型车的许可条款2023年4月1日生效。特定自动驾驶、远程操作小型车属于无人驾驶第四等级,指的是没有司机的自动驾驶,需要安装远程监视设备和安排远程监控人员,如特定条件下的无人驾驶和配送机器人等。该条款规定,拟实施特定自动驾驶的人有义务向都道府县公安委员会提交特定自动驾驶计划。公安委员会审查特定自动驾驶计划,对符合许可标准的颁发许可证。如有违反行为,都道府县公安委员会可以进行责令整改或撤销许可的行政处罚,发生事故时,警察署长有权暂停特定自动驾驶许可[32]。

在医疗领域,日本2018年在《医师法》第17条中增加了“使用人工智能进行诊疗时,医师要对最终判断负全部责任”的条款。2019年下达了《关于利用人工智能技术医用图像诊断支援系统的评价指标》要求各级卫生主管部门加强审查利用人工智能技术医用图像诊断支援系统的有效性和安全性[33]。在数据可信性方面,要求在审查时申报数据的取得方法,要求分析系统售后的性能变化及给患者带来的正面和负面影响,要记录和保存性能变化数据以便需要时验证,还强调诊断的最终责任人是医生。

此外,日本还在考虑对政府行政服务中使用人工智能进行伦理监管。目前,欧盟的《AI白皮书》已将政治避难、移民、国境管制中使用人工智能判定为高伦理风险事项。英国制定了政府机关使用的《数据伦理框架》。日本政府主管信息的官员们CIOChief Information Officer已经在讨论政府信息系统或行政服务中使用人工智能时,应该根据风险的程度,确保学习数据的透明性、排除偏差、保存数据加工的历史记录等,表示日本已经把此项课题列上了日程[34]。

日本也在讨论大众监控领域的规则。按照日本《个人信息保护法》人脸识别数据和个人姓名、出生日期一样,在获取时是不需要征得本人同意的。但获取人脸识别数据时,要公开使用目的、联系方式以及监视器安装位置。2021年7月JR东日本公司要在车站等安装监视器以监控刑满出狱者,最后因为社会反对而不得不取消。从这个事件中,个人信息保护委员会看到了民意,认为必须强化对人脸识别数据的监管,明确规定获取数据的保留期限,要求公开数据的销毁方法、简明易懂地标明获取目的等[35]。2023年1月个人信息保护委员会发表了《将相机图像用于预防犯罪和安全问题专家小组报告》草案),明确了利用人脸识别技术时应注意的个人信息安全保护事项。这将成为车站、机场、购物中心等公共场所利用人脸识别技术的规则。

引导企业自主规范的监督层

日本在监督层没有硬性的检查制度,主要靠企业自我监督来落实伦理规范。之所以没有硬性检查规定,据经济产业省称,是因为考虑到这种规定的可操作性不大。由于政府不占有信息优势、伦理问题与数字程序之间关系复杂、企业数量多等原因,政府很难判断企业是否遵守了规定。虽然有要求企业公开系统源代码、算法、数据等信息的观点,但这样的做法可能会引起基本人权、商业机密方面的问题[29]。

然而,日本还是采取了责任要求和激励政策相结合的方式来引导企业遵守伦理规范。

在责任要求方面,日本制定了透明可释、责任说明原则,要求企业记录、保存、公开信息,确保人工智能系统运行过程、决策结果的透明性和可解释性,避免黑箱操作。还要求上市公司在非财务信息栏目中公开人工智能系统开发、运营风险、监控方法和排除方法等信息[30]。要求企业与社会各方面积极互动,鼓励利益相关者依据企业公开信息参与监督。还在考虑引进与上市公司财务报告外部审查制度相似的制度,但同时也非常谨慎,保留了企业的选择余地。

在激励政策方面,日本制定了公共采购优先制度,在政府采购、公共物资采购中优先伦理记录良好的企业[27]还制定了伦理审查和认证制度,在医疗设备引进、数据托管、云服务等环节中由政府、行业或第三方机构对企业进行伦理审查和认证,将企业的伦理记录和其经济利益挂钩[36]。日本还每年调查企业的伦理监管情况,总结经验,表彰做得好的企业。

此外,日本还在酝酿建立实时数据监管平台。所谓实时数据,指用大量且高精度的感应器和监视器、物联网等手法收集到的企业信息。这些信息不是碎片型、特定时点型的,而是无时差、持续型的数据。日本设想在企业及社会建立收集信息的大型网络,对企业活动进行实时监管,其中当然也包括对人工智能伦理的监管。企业自身利用这个实时监管系统,可以掌握经营活动的所有信息,更有效地生产价值。政府则可以通过这个系统了解企业遵守法规的状况,甚至社区、个人也可以利用这个系统来监督企业活动[35]。

日本还计划设立利益相关者评估机制。由来自经营、技术、法律、政策各方面的专家组成评估小组对企业伦理实施情况进行评估,评估报告向社会公开,以督促企业改进自身的伦理监管制度,促进政府修改法规和指针、标准,帮助消费者了解企业伦理监管制度对自身消费行动的影响,以此增强企业、消费者、政府之间的信赖关系[35]。

对违规行为追责的执法层

执法层的重点是对违规企业进行追责和处罚。这是伦理监管的配套手段。但就目前而言,日本的执法层还比较薄弱,体现为缺乏系统、成形的制度设计,新的法律制度尚未出台,因此在一定程度上影响了监管效果。事实表明,现有的法律已不能在判定事故责任和救济受害者方面适应人工智能的情况。比如,在人工智能利用所导致的伦理事故中,不能依照过失责任为原则的《民法》追究违法行为责任。这意味着不能对被害者实施救济。虽然按照《制造物责任法》可以减轻被害者的举证责任的负担,但其适用范围有局限性。又如,现行法律对于人工智能运营商的资本金额等财力没有规定,可能会使被害者得不到正当程度的救济[28]。鉴于此情况,经济产业省已提出尽快修改法律,根据违背伦理原则的行为所带来的社会影响、风险程度,实施能带来充分激励和示范效应的制裁。

同时,日本也在考虑一些法律之外的激励机制。如建立事故调查机制,成立事故调查委员会调查伦理事故;建立延期诉讼制度,鼓励当事企业公开信息;建立违规企业曝光制度,公开违规企业的名称;建立违规企业黑名单制度,将违规企业排除在政府采购名单之外。

三、制度运行的四台引擎

软法范式的日本人工智能伦理监管制度之所以能运行,是因为有4个重要因素,它们相当于车辆运转的4台引擎,即技术发展优先的政策导向、基于原则的监管模式、多元主体参与的决策与实施方式、注重奖优惩劣的激励机制。

技术发展优先的政策导向

日本在人工智能伦理监管中强调技术发展优先。日本清醒地认识到以人工智能为代表的数字技术是新工业革命的巨大推动力,必须抓住时机,加快技术开发,才能保证社会经济的稳定发展。但由于人工智能已经能替代交易决策、政策决策中的人类的判断功能,已经可以获取人类经济、生活以及社会行为的所有数据,并随之带来了对隐私、人权、平等伦理观念的一定程度的威胁,并且国际国内都出现了要强化伦理监管的舆情,所以,日本决定构建伦理监管制度,但这是为了避免因伦理问题带来的社会不安,目的是为人工智能技术的发展铺平道路。

从日本的相关资料中可以明确地看到这个政策导向。内阁府的《以人为中心的人工智能社会原则》强调,人工智能伦理监管的目的是要确保人工智能技术的稳定发展。它指出要通过有效利用人工智能来促进社会经济变革和推进社会可持续发展,要推进产官学的研究合作,促进包括技术及社会制度在内的广范围的研究开发,构建有利于人工智能发展的制度环境[16]。经济产业省的《我国人工智能治理模式1.1版》指出,在进行人工智能伦理监管时要注意避免阻碍人工智能的发展[28]。

与以往产业革命中出现的蒸汽机技术、计算机技术等一样,人工智能技术本身是中性的,不具有任何社会伦理的性质,之所以出现伦理问题,是因为人将自身的各类观念通过数据收集、标签添加、算法设定等手段赋予给了人工智能。因此,要监管的是人在技术开发应用过程中的行为方式,而不是人工智能技术本身。

日本还进一步就保证人工智能顺利发展做了全面的规划。经济产业省在《治理创新:社会5.0时代的法与制度再设计》中明确提出,为了持续发展经济和解决社会问题,必须促进人工智能技术创新的稳定发展,但同时也要维护安全、隐私、人权、公平竞争等社会价值,该报告认为,以往的监管制度基本上由政府立法和执法,以自上而下的形式展开。而在以人工智能为代表的新技术形势中,这种监管模式也必须变革。以往政府对市场的监管主要集中在维护公平竞争、保护消费者利益方面。而现如今的监管还要加上如何促进技术创新这一新课题。企业是创新的主体,新的监管制度必须能够促进企业的创新意愿。因此,人工智能伦理监管机制中必须将企业作为主体之一,协同政府、学术界以及消费者团体等共同制定规则和实施规则[29]。

事实上,在日本人工智能伦理监管制度形成过程中,企业界除了在处理人工智能开发利用过程中实际或可能发生的伦理事故方面发挥不可或缺的作用之外,对于如何管控事故风险也提出了明确的意见。经济团体联合会等产业团体曾表示,“清单式”检查会造成企业的制度成本增加,从而不利于集中资源进行研究开发[37]。这表明企业界不赞同以往的监管方式。日本政府对企业界的意见做出了积极回应,从而形成了技术发展优先的监管制度。

基于原则的监管模式

日本对人工智能所导致的伦理问题采取基于原则的监管模式。所谓“基于原则的监管模式”是与基于法规的监管模式相对而言的。基于法规的监管,就是政府制定法规,对企业行为进行检查,对违规行为进行处分。以往的监管都是采取这样的模式。而与此相对应的基于原则的监管,则是政府协同企业、学界以及消费者团体等制定原则行为规范),企业自觉行动,消费者团体等多元主体参与监督,通过这种模式来确保原则的实施。基于原则的监管模式也被称作软法式监管,因为作为依据的原则没有配套的罚则,故不能对企业构成很强的法律约束。日本的监管主要依据没有法律约束力的原则、指针,因此带有明显的软法式色彩。这种基于原则的监管模式的益处在于监管所依据的原则不是由政府单方面、自上而下决定的,而是由包括企业在内的社会各方面共同讨论、自下而上形成的产物,因此能够一定程度地契合企业诉求和得到企业的认同,并能够减少企业的制度成本,给企业技术创新留下更多空间。基于原则的监管模式也有利于制度的及时更新。日本称伦理监管原则、指针为“活的文件Living Document意思是要对它们进行不断补充和修改。而这些补充、修改在各主管部门层次上就可以完成,不像法规那样需要经过旷日费时的国会审议。

日本采取基于原则的监管模式,其背后可能受到技术、社会、文化因素的影响。

从技术因素看,日本学界、企业界的主流观点认为,人工智能正在快速发展过程中,不宜设定过细的监管法规。并且,人工智能伦理问题的因果关系较为复杂,也难以设定义务、责任性质的监管法规。再者,人工智能是未来经济发展的新动力,如果过多、过细地设定监管法规,将会限制人工智能的研究开发和商业利用,阻碍人工智能创新[28][30]。经济团体联合会在2019年的《人工智能活用战略》中指出,“政府出于确保人工智能可信性的目的,而不考虑人工智能利用领域、社会影响等各种背景情况,一刀切地要求人工智能利用主体承担责任说明等义务的做法将会阻碍人工智能的利用,是不妥当的”。同时指出,即使是不具有法律约束力的指针也会对经营活动产生制约[37]。以上观点对日本选择基于原则的监管模式起到了重要作用。

从社会因素看,日本社会长期以来对新技术的态度是比较肯定的,这是宽松监管的思想基础。从文化因素看,受日本特有的“机器人文化”的熏陶,日本形成了与机器人共存的社会共识,也是宽松监管的一个原因[7]。日本在20世纪60年代就有了以漫画、动画为主要形式的“机器人文化”如机器猫、奥特曼、机动战士等作品。这些作品中的机器人有着人类没有的力量与智慧,并且能与人类友好共处,因此受到从幼儿到成人的喜爱。在这种艺术的影响下,日本社会基本上对机器人持有接受的态度。

多元主体参与的决策及实施方式

日本的人工智能伦理监管的运行体制具有多元主体参与的特点,具体有以下两方面的表现见表2

2 日本人工智能伦理监管主体及作用

资料来源:作者整理。

 

一是政府、行业、企业和社会力量共同参与监管过程。政府具有管理国家的职能,是监管架构中具有行政权力的组织,但面临人工智能所带来的伦理问题,它没有过分依赖行政强制手段,而是采取了引导方式,通过民主讨论、凝聚共识、进而形成合力来寻找解决问题的最佳方案。行业团体如日本经济团体联合会、日本电子信息技术产业协会、日本云产业协会等也参与了监管。它们既提供了技术规律的信息,也表达了促进技术发展的要求。企业是人工智能的开发者和服务事业运营者,了解各领域的不同情况和具体要求。它们不仅是监管框架形成的参与者,更是自主规范、自我监督的主力军。社会团体可以说是监管框架中的第四方力量。虽然不像其他主体那样与人工智能有着那么紧密的关联,但它们也是利害相关者。学界人士从价值观、经济规律、法律等角度提供知识,或提供解决伦理问题的技术方法;消费者团体从消费者视点提出伦理的问题点和监管需求;而媒体则及时、敏锐地发现伦理问题并提醒社会关注。

二是各主体在监管各层面发挥不同作用,相得益彰。在原则、指针以及激励措施的制定层面,由政府牵头,聘请各方人士,采取会议或研究会形式,经过若干次讨论,形成文字文件,再由政府发布。参加讨论者以企业、行业团体人士居多,此外还有哲学、经济学、人工智能学界、法律界及会计界人士及消费者团体等。在监督层面,政府的作用表现为推动原则、指针的社会认知和实施各种激励措施,如对医疗设备引进实施伦理审查和认证等。企业的作用则是自主规范、自我监督,包括责任说明、风险管控等。此外,行业团体帮助政府实施伦理审查和认证,对本行业企业执行伦理规则的情况进行调查和提出建议。消费者团体、媒体等社会力量通过参与政府实施的伦理监管调查和第三方实施的伦理监管调查发挥监督作用。在执法层面,政府除了采取行政处置和依据现行法规处置外,还在酝酿设置伦理监管的特定法规。行业、企业虽是被监管、执法的对象,但因为软法的缘故,行业团体在参加事故调查,企业在遏制问题发生、公布事故信息方面也发挥着自律作用。同时,媒体、消费团体等的影响也在增大,例如由于媒体报道的影响,政府开始制定人脸识别技术的监管法规。

注重奖优惩劣的激励机制

日本人工智能伦理监管的基本依据是软法,是没有法律强制性的原则、指针。但这并不等于说这套规则就仅是形式上的,没有任何约束意义。实际上,日本的软法方式中也包含着自身的奖优惩劣的激励机制。奖优,就是对有利于伦理规范的行为进行各种形式的奖励。与之相对,惩劣,就是对有碍于伦理规范的行为进行惩罚。

首先,日本以表彰优良企业的方式鼓励企业进行伦理监管。政府在制定规则时,会邀请很多企业代表参加。这些企业都是在人工智能领域的领先者,他们的意见和观点大都得到了重视,反映到了规则里。被邀请参加政府的咨询会议,就是社会地位上的表彰。自己的意见被载入了规则,自己就有了履行的责任心。政府每年还进行伦理监管调查,在调查报告中列举优秀企业的事迹。被认定为优秀的企业,就会继续落实规则,发挥标兵作用。一些行业团体还制定了认证制度,对符合条件的优秀企业颁发合格证书。这些认证制度,实际上也是对优秀企业的奖励。比如,2022年4月1日开始实施的“人工智能云服务的安全、信赖信息公开认证制度”专门对云服务运营商的安全、信赖信息公开现状进行认证。企业可以按照规定将安全、信赖措施的具体内容、公开方法等资料上交给日本云产业协会,该协会组织专家进行审查。对审查合格的企业,颁发合格证书和徽章,有效期2年。这个认证,目前来看具有提高客户认知度等效果,将来也有可能成为市场进入的资格条件[36]。

其次,日本的软法式监管中,也含有“惩劣”的意味,如没有通过认证就可以被看作间接的惩罚。并且,政府和学术界也存在着逐渐将软法变硬法的观点,如日本已在考虑对严重违规行为制定责任追究机制,包括行政处罚、公开曝光、剥夺资格、禁止参与公共采购等。但是现在只是处于讨论阶段,结果尚待时日。

四、对日本经验的思考

日本在人工智能伦理监管方面走了与欧美国家略有不同的道路,即注重不增加企业制度成本和不损伤技术研发积极性,通过软法性质的原则、指针来引导企业预防伦理事故,达到既维护社会价值又促进技术发展的目的。

日本的实践显示,为了防止人工智能背离社会的伦理,对其开发应用活动进行伦理监管是必要的,但需要把握好伦理监管与技术发展之间的关系。伦理监管与技术发展是一对矛盾。伦理监管必然会给企业造成负担,带来制度成本,相应削减技术开发投资。并且,人工智能作为新兴技术还在发展中,迭代速度快,技术手法与伦理风险的关系还不能彻底厘清,所以伦理监管不适宜标准过细、限制过严,有必要优化伦理监管方式,把握好伦理监管的“度”。尤其是当无法精准理解和判断人工智能的技术规律、伦理风险时,适当地降低监管力度是贴切的选择。不同领域的伦理风险程度不同,可进行差别监管,对高风险领域实行以法规为主的监管模式,对低风险领域采取以原则为主的监管模式。

日本人工智能伦理监管在大多数领域是软法在发挥作用,硬法只在特定领域使用。软法的作用在于预防、避免伦理风险,而硬法通过事后惩罚,有以儆效尤的作用,两者相辅相成。另外,软法利于及时调整和修改,能够更好地适应技术发展和社会经济形势的需要。这体现了所谓“敏捷监管”概念的基本意义,即根据技术、企业和消费者行为的变化,及时地修改政府对市场主体的监管力度、方式。如由政府牵头,适时地召开研讨会和实施企业调查,更新人工智能伦理监管原则和行为指针;定期清点现有法规,对能适用或修改后能适用的法律继续援引使用,对必须增加法律条款的则及时修订。

人工智能伦理监管原则和指针的制定应该采取政府牵头、多元主体参与的形式。以人工智能开发、运营和利用企业为中心,由学界、法律界、消费者等社会各方人士来共同决定。由于人工智能中的伦理问题与数据、学习模型、算法等技术问题缠绕在一起,不像产品质量、剽窃知识产权等那样容易识别,所以应着重发挥企业的作用。多元主体发挥作用的具体形式就是设立特定课题的顾问委员会,该顾问委员会由政府主管部门牵头,从不同群体选拔专家及有识之士,确定讨论题目和期限,要求提交研究报告,并公布于社会。根据研究课题的需要,可以同时或先后设立适当数量的顾问委员会,持续地更新监管规则等。日本经验显示了人工智能社会多元主体参与决策与实施的治理模式,为研究宏观管理提供了新的思路。

日本人工智能伦理监管与传统监管的根本区别还在于把技术发展放在了优先地位。企业是技术发展的主体,因此要在制度设计的源头就考虑到如何保护企业的积极性[38]。在制定伦理原则、行动指针时,要让企业参与原则、行动指针的制定,把企业的正当诉求反映在政府文件中,让企业减少抵触情绪,把落实原则、实践行动指针看作经营的必须行为,是对社会的承诺,就像上市企业公开财务信息一样,是社会责任的一部分[39]。同时,要建立适当的激励机制,如将企业伦理行为表现与政府公共采购挂钩的经济激励;政府或第三方机构对伦理行为表现优秀的企业进行表彰和颁发证书等社会激励。并且要有必要的法律激励,制定事故追责制度,对造成重大伦理事故的企业进行诉讼和追究法律责任。这些激励企业参与伦理监管的措施,兼顾了企业和政府利益,有很大的可操作性,值得参考借鉴。

应该指出的是,日本当前的做法也存在着局限性。比如,日本的软法范式主要依靠企业自觉来避免人工智能伦理风险和维护社会价值,但这存在着不确定性。要确保伦理监管的效力,还必须有相应的惩罚机制,日本虽然有一些,但还很薄弱,尤其是法律方面的进展较慢,应加快法律建设[40]。

有研究指出,“法律能够在不阻碍技术创新与发展的前提下,防控技术带来的负面问题以及监管过程中的潜在危机。法律是规范人工智能技术研发与使用的有效选择”[41]。软法与硬法是相辅相成的关系,软法可以提高自律性,预防事故发生。而硬法除了有警示作用外,主要是事后发生作用,惩戒肇事者和保护受害者。再者,关于是否制定强制性法律,日本还没有达成社会共识,而现有的原则、指针等又有些太抽象,这样就很难从质和量两方面对伦理监管制度做出中肯的评价。日本的人工智能伦理法律体系将如何发展,尚待观察。但可以预见,以原则、指针为代表的软法会继续存在并变革下去,与法律法规的硬法一起在伦理监管中发挥作用。

 

参考文献

[1]中国信息通信研究院政策与经济研究所人工智能与经济社会研究中心.全球人工智能治理体系报告(2020)[R/OL].[2023-06-17].chrome-extension://efaidnbmnnnibpcajpcglclefindmkaj/http://www.caict.ac.cn/kxyj/qwfb/ztbg/202012/P020201229534156065317.pdf.

[2]市川類.AI原則の体系化と今後のガバナンスの方向~デジタル·AIにおけるイノベーションと社会制度の共進化[R/OL].(2020-10-02)[2023-03-15].https://hermes-ir.lib.hit-u.ac.jp/hermes/ir/re/70115/070iirWP20-15.pdf.

[3]薛澜,赵静.走向敏捷治理:新兴产业发展与监管模式探究[EB/OL].(2019-12-03)[2023-06-17].https://www.gmw.cn/xueshu/2019-12/03/content_33370283.htm.

[4]芳田千尋.AI論理に関する現状[J].UNISIS TECHNOLOGY REVIEW,2019(5):83-91.

[5]中川裕志.AI論理指針の動向とパーソナルAIエージェント[J].情報通信政策研究,2020,3(2):1-23.

[6]久木田水生.人工知能の倫理:何が問題なのか[EB/OL].(2017-11-06)[2023-01-15].https://www.soumu.go.jp/main_content/000520384.pdf.

[7]岡本慎平.日本におけるロボット倫理学[J].社会と倫理,2013(28):5-19.

[8]一般社団法人日本人間工学会.人間工学研究のための倫理指針[EB/OL].(2009-11-13)[2023-03-15].https://www.ergonomics.jp/official/page-docs/product/report/JES_Rinri_Guideline_20091113.pdf.

[9]日本ロボット学会.倫理綱領[EB/OL].(2014-10-07)[2023-03-13].https://www.rsj.or.jp/info/compliance/ethics.html.

[10]AMEDロボット介護機器開発·導入促進事業基準策定評価コンソーシアム.倫理審査申請ガイドライン[EB/OL].[2023-03-15].https://robotcare.jp/data/outcomes/2018/04.pdf.

[11]AIネットワーク化検討会議.報告書2016 AIネットワーク化の影響とリスク―智連社会(WINSウインズ)の実現に向けた課題[R/OL].(2016-06-20)[2023-01-15].https://www.soumu.go.jp/main_content/000425289.pdf.

[12]人工知能と人間社会に関する懇談会.「人工知能と人間社会に関する懇談会」報告書[R/OL].(2017-03-24)[2023-01-15].https://www8.cao.go.jp/cstp/tyousakai/ai/summary/aisociety_jp.pdf.

[13]松尾豊,西田豊明,堀浩一,武田英明,長谷敏司,塩野誠,服部宏充,江間有沙,長倉克枝.人工知能と倫理[J].人工知能,2016(9):635-641.

[14]AIネットワーク化検討会議.国際的な議論のためのAI開発ガイドライン案[EB/OL].(2017-07-28)[2023-01-15].https://www.soumu.go.jp/main_content/000499625.pdf.

[15]総務省情報通信政策研究所.AI利活用原則案[EB/OL].(2018-07-31)[2023-01-15].https://www8.cao.go.jp/cstp/tyousakai/humanai/4kai/siryo1.pdf.

[16]内閣府.人間中心のAI社会原則[EB/OL].(2019-03-29)[2023-01-15].https://www8.cao.go.jp/cstp/aigensoku.pdf.

[17]経済産業省.AIデータの利用に関する契約ガイドライン1.1版[EB/OL].(2019-12-09)[2023-01-15].https://www.meti.go.jp/press/2019/12/20191209001/20191209001-1.pdf.

[18]AI原則の実践の在り方に関する検討会,AIガバナンス·ガイドラインWG.AI原則実践のためのガバナンス·ガイドラインver.1.0[R/OL].(2021-07-09)[2023-01-15].https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_6.pdf.

[19]消費者庁.AI利活用ハンドブック~AIをかしこく使いこなすために~[EB/OL].[2023-02-11].https://www.caa.go.jp/policies/policy/consumer_policy/meeting_materials/review_meeting_004/assets/ai_handbook_200728_0002.pdf.

[20]経済産業省知的財産政策室.不正競争防止法平成30年改正の概要(限定提供データ、技術的制限手段等)[EB/OL].[2023-02-11].https://www.meti.go.jp/policy/economy/chizai/chiteki/H30nen_fukyohoshosai.pdf.

[21]安増拓見.情報銀行ってどんなもの?[J].国民生活,2020(1):11-14.

[22]個人情報保護委員会事務局.改正個人情報保護法について[EB/OL].(2016-11-28)[2023-02-15].https://www.meti.go.jp/committee/kenkyukai/sansei/daiyoji_sangyo_chizai/pdf/003_02_00.pdf.

[23]個人情報保護委員会.令和2年改正個人情報保護法特集[EB/OL].[2023-02-15].https://www.ppc.go.jp/news/kaiseihou_feature/#rouei.

[24]厚生労働省.人工知能(AI)を用いた診断、治療等の支援を行うプログラムの利用と医師法第17条の規定との関係について[EB/OL].(2018-12-19)[2023-01-15].https://www.mhlw.go.jp/content/10601000/000468150.pdf.

[25]一般社団法人電子情報技術産業協会.会員企業によるAI倫理に関する取組~AIの倫理的な開発、利活用の促進に向けて~[EB/OL].(2022-10-07)[2023-02-15].https://www.jeita.or.jp/japanese/pickup/category/2022/pdf/ai-ethics.pdf.

[26]PwC.2022年AI予測(日本)[R/OL].[2023-02-15].https://www.pwc.com/jp/ja/knowledge/thoughtleadership/2022/assets/pdf/2022-ai-predictions.pdf.

[27]藤川琢哉,深澤桃子.AI活用における日本企業の現状とAIガバナンスについて[EB/OL].(2022-11-08)[2023-02-15].https://www.pwc.com/jp/ja/knowledge/journal/rdl2211.html.

[28]AI原則の実践の在り方に関する検討会.我が国のAIガバナンスの在り方Ver.1.1[R/OL].(2021-07-09)[2023-01-15].https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20210709_1.pdf.

[29]経済産業省.Society5.0時代における法とアーキテクチャのリ·デザイン[R/OL].[2023-01-15].https://www.meti.go.jp/shingikai/mono_info_service/dgs5/pdf/001_s06_00.pdf.

[30]AI原則の実践の在り方に関する検討会.AI原則実践のためのガバナンス·ガイドラインVer.1.1[EB/OL].(2022-01-28)[2023-01-15].https://www.meti.go.jp/shingikai/mono_info_service/ai_shakai_jisso/pdf/20220128_1.pdf.

[31]政府オンライン.ついに日本で走り出す!自動運転“レベル3”の車が走行可能に[EB/OL].(2022-05-07)[2023-02-15].https://www.gov-online.go.jp/useful/article/202004/1.html.

[32]企業法務ナビ.改正道交法が春から施行、自動運転レベル4について[EB/OL].(2023-01-12)[2023-02-15].https://www.corporate-legal.jp/news/5121.

[33]厚生労働省.次世代医療機器評価指標の公表について[EB/OL].(2019-05-23)[2023-02-15].https://www.mhlw.go.jp/content/10601000/000515843.pdf.

[34]田丸健三,満塩尚史,柳原尚史,高木幸一,西村毅,梅谷晃宏,楠正憲,細川努.AIシステムにおけるデータ利用の特性と取扱い上の留意点[J].政府CIO補佐官等ディスカッションペーパー,2020(6):1-14.

[35]赤田康和.顔認識カメラの規制強化へ個人情報保護委、データ扱い方など具体化[N/OL].(2021-12-22)[2023-02-15].https://www.asahi.com/articles/ASPDP71WJPDNUTIL055.html.

[36]クラウドサービス情報開示認定機関一般社団法人日本クラウド産業協会(ASPIC).AIクラウドサービスの情報開示認定制度を新設~令和4年4月1日(金)運用開始~[EB/OL].(2022-04-01)[2023-03-15].https://www.atpress.ne.jp/news/304211.

[37]一般社団法人日本経済団体連合会.AI活用戦略~AI-Readyな社会の実現に向けて~[EB/OL].(2019-02-19)[2023-03-13].https://www.keidanren.or.jp/policy/2019/013_gaiyo.pdf.

[38]杨雪,樊洺均.技术创新对日本劳动力就业的影响及应对[J].现代日本经济,2022(2):79-94.

[39]张鹏飞.日本人工智能产业发展和政策研究[J].现代日本经济,2021(5):25-40.

[40]新保史生.AI原則は機能するか?——非拘束的原則から普遍的原則への道筋[J].情報通信政策研究,2020,3(2):53-70.

[41]马治国,徐济宽.人工智能发展的潜在风险即法律防控监管[J].北京工业大学学报(社会科学版),2018(11):65-71.

 

刘湘丽,肖红军.软法范式的人工智能伦理监管:日本制度探析[J].现代日本经济,2023,42(04):28-44.

分享到: