摘要:鉴于人工智能发展存在巨大的不确定性,如果不能适当监管和治理,人类社会很可能出现一个“反乌托邦未来”,良好监管和治理是人工智能健康发展的必要保障机制。当前,人类正进入一个巨大的不确定时代,人工智能发展已到了“奥本海默时刻”,加强人工智能监管刻不容缓。人工智能监管目标是要实现发展与安全、监管治理与国际竞争的平衡,中国人工智能监管治理既要促进国内人工智能产业安全发展,还要有利于抢占全球人工智能监管治理规则制高点。为有效实现监管目标,中国人工智能监管应坚持“以人为本,智能向善”、推进包容审慎监管、加强监管治理国际合作等基本理念。加强人工智能监管必须结合人工智能技术发展特点,及时更新监管制度,创新监管方式,主要措施有:推进基于风险的监管方式,实行敏捷监管,推进“软法”与“硬法”协同监管,采用“沙盒监管”,建立“吹哨人”制度。 关键词:人工智能;奥本海默时刻;智能向善;敏捷监管;沙盒监管 基金项目:中国社会科学院智库基础研究项目(23ZKJC054);中国社会科学院学科建设“登峰战略”资助项目(DF2023YS24)。 |
人工智能(AI)是新一轮科技革命和产业变革的重要驱动力量,将对全球经济社会发展和人类文明进步产生深远影响。鉴于人工智能发展存在巨大的不确定性,如果不能适当监管和治理,人类社会很可能出现一个“反乌托邦未来”:人工智能将摧毁就业机会,并让虚假信息不加控制地传播,或者只有富裕国家才能从这项技术中获益等。因此,在人工智能发展过程中,良好监管和治理须臾不可缺,可以说,人工智能的发展与治理,相辅相成,相伴而生,如鸟之两翼、车之两轮。党的二十届三中全会通过《关于进一步全面深化改革 推进中国式现代化的决定》,明确提出要完善推动人工智能产业发展政策和治理体系,推动新质生产力发展,要建立人工智能安全监管制度,完善生成式人工智能发展和管理机制。
一、人工智能迎来了“奥本海默时刻”,加强监管刻不容缓
人工智能技术是当前最受关注的新兴科技,人工智能应用对于提高效率、降低成本、改善生活质量、推动创新和促进社会进步等产生非常巨大的推动作用,但与此同时,人们对人工智能担心也与日俱增。人工智能正在越来越多地被拿来与核武器类比,也被认为是“人类最后的技术”。全球精英人士如霍金、Yoshua Bengio、Max Tegmark、Stuart Russell、埃隆·马斯克、Daron Acemoglu等,都对“盲目”发展人工智能提出过严厉警告。警告的内容直指人工智能带来的社会不平等、经济失衡以及劳动力替代问题,人工智能在战争、核武器等领域的潜在危险和可能带来不可逆转的灾难,还有在网络安全、隐私保护、生物技术等关键领域带来的重大风险。简言之,人类正处于人工智能的“奥本海默时刻”①,距离第一个“人工智能核弹”可能只有几年的时间。
①奥本海默是研制原子弹的“曼哈顿计划”首席科学家,被誉为“原子弹之父”。“奥本海默时刻”,指的是在核武器的研发和使用过程中所面临的道德和伦理困境。与人类面临核武器的道德挑战类似,人工智能的开发者和决策者需要权衡技术创新和社会影响,以确保人工智能的发展符合人类的价值观和长远利益,被形容为人工智能的“奥本海默时刻”。
与从前“技术中立”思想不同,人们认为人工智能并非是一项纯粹的新技术,简直就是“新物种”。当前,人工智能正在以一种超级快的速度进化,必须要做好计划,不能任由其像科幻小说的发展那样失控。与人类过往经验不同,过去是坏人试图利用新工具作恶,而现在是这个新工具本身可能就是人类对手。Google DeepMind前沿安全与治理主任Allan Dafoe甚至认为“我们只有2~4年的窗口期来解决这一问题”。因此,加强人工智能监管刻不容缓。
面对人工智能,人类正进入一个巨大的不确定时代。人工智能教父杰弗里·辛顿(Geoffrey Hinton)在一次采访中曾表示,人类对于人工智能,就像“一个人拥有了一只非常可爱的老虎幼崽,老虎幼崽是个很棒的宠物,但你最好确定当它长大后,它永远不会想吃掉你,如果你能确定这一点,那就没问题”。2023年3月,埃隆·马斯克、杰弗里·辛顿、Yoshua Bengio、Stuart Russell等领袖级人物参与签署了《暂停大型人工智能研究》的公开信(Pause Giant Al Experiments:An Open Letter,由美国生命未来研究所向全社会发起),信中呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月,并要求这一暂停是公开可核查的,涵盖所有主要的人工智能开发组织和团体。他们还建议利用这段时间制定和部署一套针对高等级人工智能设计和研发的共享安全协议。在当今社会,最极端的“人工智能末日论者”莫过于Eliezer Yudkowsky,他主张应“立即轰炸数据中心”。
其实,“立即轰炸数据中心”并不可行,“绥靖”态度更不对,唯有加快人工智能监管治理系统开发才是正确态度。《暂停大型人工智能研究》公开信中呼吁,人工智能开发人员必须与政策制定者合作,以显著加快开发强大的人工智能治理系统,其中至少应包括:建立专门负责人工智能的有能力的新监管机构;监督和跟踪高性能人工智能系统和大量计算能力;推出标明来源系统和水印系统,以帮助区分真实与合成,并跟踪模型泄漏;强大的审计和认证生态系统;界定人工智能造成的伤害的责任;为人工智能技术安全研究提供强大的公共资金;以资源充足的机构来应对人工智能将造成的巨大经济和政治破坏。
二、加强人工智能监管的基本理念
早在1940年,科幻作家阿西莫夫就提出“机器人三原则”,即“第一条:机器人不得伤害人类,或坐视人类受到伤害;第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾;第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾”。但是,这仍然具有极大风险,包括定义是否准确科学带来的风险,比如,如果机器人将人定义为“只有白人才是人”,这样,机器人很有可能成为种族屠杀的工具。由此可知,监管人工智能并不像给人工智能发条指令就“万事大吉”那么简单。2017年1月,在美国加州召开的阿西洛马会议通过《阿西洛马人工智能原则》,旨在确保人工智能发展和应用符合人类的价值观和利益,得到了全球有识之士和业界领袖的支持和签署。《阿西洛马人工智能原则》被认为是对人工智能发展具有里程碑意义的一套指导原则,它强调了人工智能研究的目标应该是创造有益的智能,而不是无序的智能;这些原则还强调了人工智能系统的安全、透明度和责任,确保其在运行过程中与人类的价值观相一致。尽管这些原则在某些方面存在争议,但总体上为全球人工智能发展提供了重要的参考和指导,成为此后英国、欧盟和经合组织(OECD)等制定了各自人工智能发展准则和政策的重要依据。总体而言,人们普遍认为对人工智能的监管力度,至少不能弱于对像医药、航空和核能等领域的监管,否则人工智能“切尔诺贝利事件”的出现将很快反噬人类。
由于人工智能发展是各国产业技术竞争前沿重点领域之一、且目前人工智能监管并没有形成国际统一规则,因此,人工智能监管要实现两个基本目标:第一,实现人工智能发展与安全的平衡,尤其是要通过规制避免新兴人工智能技术成为压制个人自由甚至吞噬个人主体性的工具。第二,实现人工智能监管治理与国际竞争的平衡。监管人工智能不仅不能以损害国内人工智能发展为代价,还要通过良好监管治理来促进我国人工智能产业发展、提升国际竞争力,并且,要抢占全球人工智能监管治理规则制高点,要力争将人工智能监管治理“中国方案”上升为国际社会的“治理准则”。考虑到现阶段这两个基本目标,我国人工智能监管应坚持三个基本原则。
一是坚持“以人为本,智能向善”。科技向善是一个不断发展的概念,智能向善是科技向善的具体化,它的目标是让科技更好地服务于社会、造福人类。如何确保人工智能技术的发展始终遵循“以人为本”的原则,如何始终保持人类的主体地位,成为各行各业在整合人工智能技术的同时努力实现的目标。在2024年5月14日的中美人工智能政府间对话首次会议中,中方阐明了基本立场,包括坚持“以人为本、智能向善”理念,确保人工智能技术有益、安全、公平,推动全球人工智能治理框架和标准规范的制定和实施。“以人为本,智能向善”要求发展“以人为中心的人工智能”(Human-Centered人工智能,即HC人工智能)或可信赖的人工智能系统。HC人工智能强调在人工智能技术的设计和应用中,应始终关注人类的需求和利益,确保人工智能技术能够真正为人类服务,而不是成为威胁人类生存和发展的工具。HC人工智能不仅是技术层面的改进,更是社会伦理与责任的体现。HC人工智能要求实现“人机对齐”,人工智能系统在自我优化和执行任务过程中,不仅要高效完成任务,还要符合人类的伦理和价值体系。为建设HC人工智能系统,确保输出内容与人类的价值观和道德准则相符,要求在人工智能监管治理中各个学科如哲学、法学、社会学、伦理学、心理学等有识之士加入进来,促进人工智能在透明度、公平性、可解释性、安全性等方面符合用户预期。
二是推进包容审慎监管。2017年1月,国务院办公厅发布《关于创新管理优化服务培育壮大经济发展新动能加快新旧动能接续转换的意见》,首次提出“探索动态包容审慎监管制度”,此后,包容审慎监管成为我国政府监管新技术、新产业、新业态、新模式等新经济的主导模式。包容审慎的内涵是“放”与“管”的辩证统一,既包容创新,又严守底线;在具体监管措施上,包容审慎监管注重分类监管,即根据不同经营主体的特性,采取不同形式的监管措施。人工智能具有创新性与风险性并存的技术经济特性,而包容审慎监管遵循有效市场与有为政府相互融合的理念,对技术创新、经济创新与风险规制之间相互平衡的监管原则与人工智能产业的技术经济风险特性高度适应和契合。对人工智能实行包容审慎监管就是要平衡创新与风险、统筹效率与安全,既促进人工智能技术创新、产品开发以及产业应用,又审慎对待人工智能发展可能产生的市场垄断、不公平竞争、数据安全、偏见歧视等市场风险与社会问题。2023年8月15日,《生成式人工智能服务管理暂行办法》颁布施行,该办法明确规定,对生成式人工智能服务实行包容审慎和分类分级监管。要坚持发展和安全并重,在加强治理的同时,采取有效措施鼓励生成式人工智能创新发展。
三是加强监管治理国际合作。如何有效监管人工智能,是全人类面临的共同课题,加强国际合作至关重要。不可否认,由于各国利益诉求不一致,国际合作进展迟缓,好在国际社会已经开始行动起来。具有标志性的事件包括2023年11月在英国布莱切利庄园召开的首届全球人工智能安全峰会和2024年5月14日在瑞士日内瓦举行的中美人工智能政府间对话首次会议。在布莱切利庄园会议上,包括中国、美国、英国在内的28个国家及欧盟共同签署了《布莱切利人工智能宣言》(Bletchley Declaration),这是全球第一份关于有必要监管人工智能发展的全球声明。《布莱切利人工智能宣言》呼吁和倡导以人为本,希望人工智能科研机构、企业等承诺以安全、以人为本、值得信赖和负责任的方式设计、开发、部署和使用人工智能。《布莱切利人工智能宣言》只是起点,后续国际社会关于人工智能监管治理只能加强、不能削弱。在中美人工智能政府间对话首次会议上,中方支持加强人工智能全球治理,主张发挥联合国主渠道作用,愿同包括美方在内的国际社会加强沟通协调,形成具有广泛共识的全球人工智能治理框架和标准规范。此外,2024年3月,Geoffrey Hin-ton、姚期智、Stuart Russell、傅莹等30余位专家,共同拟定并签署了《北京人工智能安全国际共识》,为人工智能发展划定几条不可逾越的红线:自主复制或改进、权力寻求、协助不良行为者、欺骗。确保这些红线不被僭越是可能做到的,但需要我们的共同努力,既要建立并改进治理机制,也要研发更多安全技术用于监管治理。应该立即实施针对超过特定计算或能力阈值的人工智能模型和训练行为的国家层面的注册要求;注册应确保政府能够了解其境内最先进的人工智能,并具备遏制危险模型分发和运营的手段。
三、创新监管方式加强人工智能监管
传统的监管方式如产品许可制度、研究与开发监管、产品侵权责任,难以适用于管理自主智能机器所带来的风险,必须结合人工智能技术发展特点,及时更新监管制度,创新监管方式。
(一)基于风险的监管方式,或者说采取“分级分类”抓重点的方式进行监管
当前,欧盟的《人工智能法案》确立了“基于风险”的人工智能治理框架,将人工智能系统评估后划分为最小风险、有限风险、高风险和不可接受风险四个等级,并对各个等级采取差异化的监管方式。这种“基于风险”的治理框架与传统法律中“基于权利”的治理框架相区别,更符合对人工智能的监管要求,这样做的好处在于可以采取一种相对灵活和合比例的方式执行立法所确立的原则,有的放矢地制定监管措施,从而在节省监管资源的同时最大程度避免风险的产生和扩散。我国先后针对算法推荐服务、生成式人工智能服务等出台了《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》等专门性部门规章,也明确表示要采用“分级分类”方式进行监管。比如,《互联网信息服务算法推荐管理规定》提出,根据算法推荐服务的舆论属性或者社会动员能力、内容类别、用户规模、算法推荐技术处理的数据重要程度、对用户行为的干预程度等对算法推荐服务提供者实施分级分类管理。
(二)实行敏捷监管
由于人工智能技术复杂、迭代快、不确定性强、存在巨大潜在风险等特点,传统监管方式属于刚性集中型监管模式与被动回应型监管模式,显然难以应对,需要实行敏捷监管。所谓“敏捷监管”,是指“具有柔韧性、流动性、灵活性或适应性的行动或方法”。与传统监管方式,有两个方面显著改进:一是参与广泛度,敏捷模式下需要包括政府、企业、消费者等利益相关者参与监管过程;二是时间灵敏度,敏捷监管模式要对快速发展中的变化做持续的准备,为技术发展拓宽道路。针对人工智能快速迭代特点,敏捷监管采用“小步快跑”的迭代方式持续跟进人工智能技术发展,主张采用数字化监管技术、“以数字技术监管数字技术”,也就是“红队测试”机制来监管①。敏捷监管要求人工智能开发者有责任通过严格的模型评估、数学证明或定量保证来证明符合安全设计的人工智能系统未僭越红线。
①红队测试(Red Teaming)是一种主动的安全评估方法,源自军事和网络安全领域,类似于信息与网络安全领域的“白帽子黑客”。红队测试通过第三方机构或者执法部门的对抗式检测,验证大模型是否存在安全漏洞或者违法违规行为。
(三)推进“软法”与“硬法”协同监管治理
当前,各国政府虽然对人工智能监管的侧重点略有不同,但是整体上呈现出加速演进态势,即从初期构建以“软法”为导向的规范体系向“硬法”为保障的风险防控体系转变。软法是指那些不能依靠国家强制力保证实施的法规范,而硬法是指能够依靠国家强制力保证实施的法规范。软法侧重对行为的积极激励和引导,而硬法则注重对行为的强制约束;软法的作用在于预防、避免伦理风险,而硬法通过事后惩罚,有以儆效尤的作用。“软法”与“硬法”相辅相成,两者协同才能实现对人工智能系统的有效监管治理。近年来,我国针对特定应用场景,制定了《互联网信息服务算法推荐管理规定》《生成式人工智能服务管理暂行办法》《互联网信息服务深度合成管理规定》等法律法规,对人工智能发展可能产生的扰乱社会秩序、损害国家安全、侵犯人民生命财产、算法歧视、知识产权保护等构建了硬性的底线要求,同时,发布了《新一代人工智能伦理规范》《网络安全标准实践指南——人工智能伦理安全风险防范指引》等,围绕人工智能全生命周期治理提出基本伦理要求与人工智能开发指导,为人工智能在隐私、偏见、歧视、公平等方面的伦理问题提供治理规范。未来,我国将继续沿着“软法”与“硬法”协同的思路推进对人工智能的监管。
(四)采用“沙盒监管”保护创新的方式推进监管
“沙盒监管”是一种创新的监管理念,旨在通过设立限制性条件和制定风险管理措施,允许企业在真实的市场环境中测试创新产品、服务和商业模式。沙盒监管先划定一个范围,对在“盒子”(作为受监督的安全测试区)里面的企业,采取包容审慎的监管措施,同时杜绝将问题扩散到“盒子”外面,属于在可控的范围之内实行容错纠错机制,并由监管部门对运行过程进行全过程监管,以保证测试的安全性并作出最终的评价。作为创新的监管机制,沙盒监管为践行包容审慎监管理念提供了临时性、局部性的试验场所,既能为技术创新留有足够的发展空间,又能推进监管政策的迭代修改,是技术与制度协同创新的实践依托。在沙盒监管退出阶段,应由独立且公正的第三方机构对沙盒测试项目进行专业评估和安全认证,监管机构依据该评估报告,结合沙盒监管协议和测试结果,对沙盒测试项目或产品做出无条件通过测试(可按测试结果不做更改即向市场提供人工智能产品或服务)、有条件通过测试(在修改测试结果并审核通过后向市场提供人工智能产品或服务)或不予通过测试等决定。
(五)建立“吹哨人”制度
“吹哨人”一词最早源于英国警察吹哨示警的行为,后被英、美、日、韩等发达国家用于金融市场、疫情防控、安全生产等领域监管,成为内部人员基于维护公共利益的目的,挺身而出揭露组织弊端和突出问题的代名词。“知屋漏者在宇下”,企业内部员工处于研发生产经营一线,对可能存在的问题和危险情况是最了解的。新一代人工智能技术的发展和应用往往是企业内部事务,具有较强的隐蔽性和保密性。为更好监管人工智能,也需要引入“吹哨人”制度,解决信息不对称问题,改变监管部门单兵作战的局面,鼓励人工智能从业人员等内部人揭露新一代人工智能技术在发展和应用过程中出现的问题,协助政府部门开展有效监管。发挥“吹哨人”作用关键是要在精神和物质层面诱导内部员工能够为了社会公共利益而挺身而出。日本《公益通报者保护法》中甚至将“吹哨人”统一命名为“公益通报者”而不是“举报者”,原因是在东方文化中,“举报者”与“告密者”意思相近,不利于形成和塑造为了维护公众利益而挺身揭发不法行为者的英雄文化。从发达国家公益“吹哨人”制度建设运行情况来看,以下几点对于建立发挥人工智能“吹哨人”制度具有借鉴意义:第一,畅通举报的实现路径,包括畅通渠道、后续调查跟进、互动反馈等;第二,保障吹哨人及其亲属人身和财产安全,避免损害和报复;第三,科学的激励机制,需要足够大的物质激励,确保吹哨人无后顾无忧;第四,严格的约束机制,保留维持足够大的惩罚力度,打击恶意举报、诬告陷害等。
参考文献从略,请参阅期刊纸质版原文
郭朝先.加强人工智能监管[J/OL].北京工业大学学报(社会科学版),1-6[2025-01-07].http://kns.cnki.net/kcms/detail/11.4558.G.20250102.1758.002.html.