社科网首页|客户端|官方微博|报刊投稿|邮箱 中国社会科学网
中国社会科学院工业经济研究所

算法责任:理论证成、全景画像与治理范式

2022年04月29日来源:《管理世界》2022年04期    作者:肖红军

摘要:随着算法时代的来临,算法责任缺失与异化现象频繁出现,引发普遍的算法焦虑甚至算法危机,但目前对算法责任和算法责任治理的研究尚处于起步阶段,研究系统性和深度都存在不足。本文从理论证成算法责任命题的正当性与合理性出发,认为算法承载“代理者”角色是算法责任产生的认知基础,算法存在的社会嵌入、算法主体的价值迁移和算法结果的社会影响等算法的多元价值载荷是算法责任生成的根本缘起,算法权力崛起孪生出匹配性的算法责任、算法滥用催生出约束性的算法责任是算法责任出场的现实逻辑,而算法责任的综合性、代理性和隐蔽性特点则是其作为一个新命题出现的合理性所在。基于不同时期对算法本质与算法责任本质认知的演变,算法责任观经历了技术中立视域下的责任否定观、技术伦理视域下的道德算法观、人技信任视域下的“可信赖的算法”观、社会责任视域下的“负责任的算法”观的流变与迭代。作为构建“负责任的算法”的基础,算法责任的完整画像由责任缘起、责任性质、责任基础、责任主体、责任对象、责任内容、责任程度和责任机制等8个构面构成,并在算法作为纯粹执行者、辅助决策者和独立决策者情形下呈现出差异化的画像“拼图”。本文结合治理要素即对“人”的治理、对算法的治理、对社会的治理和责任机制即社会责任融入、负责任研究与创新、敏捷治理,构建了算法责任综合治理范式的九宫格模型,构造出算法责任治理的9种方式。在此基础上,构建了算法责任治理方式与不同算法场景的适配性矩阵,提出在算法责任治理中政府应当加快算法责任制度供给与创新算法监管方式,企业需要全面落实算法责任议题与构建可持续性算法商业模式。

关键词:算法算法责任社会责任数智经济

基金:国家社会科学基金重大项目20&ZD073);中国社会科学院登峰战略企业管理优势学科建设项目的资助

 

一、引言

算法、数据和算力是数智经济的3个基本要素,而算法更是数智化决策的基础,是数智经济的生命力所在,成为数智经济时代的“基础语言”(张欣,2019a),由此数智经济在某种程度上被称作“算法经济”,与之相伴随的则是所谓“算法时代”的来临(Danaher et al.2017)、“算法社会”的出现(Balkin2018)和“算法生活”的涌现(Del Casino et al.2020)。无论是数智化技术对经济社会发展的积极增进功能,还是数智经济演化过程中引致的众多社会问题,其在底层逻辑上基本都依赖于算法予以实现。特别是,算法具有“颠覆性潜力”(凯伦·杨、马丁·洛奇,2020),一方面无处不在的智能算法深刻改变了人们的生产生活方式甚至社会形态,另一方面有意图的或非故意的算法不当以及所谓的“算法污染”(Schultze et al.2018)往往是数智经济负外部性的深层来源,负责任的算法对于构建可持续性数智经济和更加美好的社会至为重要。

然而,现实中大量的算法失当现象经常在多个场景出现,算法歧视或算法偏见、算法共谋、算法垄断、算法黑箱、算法遮蔽、算法伦理缺失、算法短视、算法霸权、算法操纵、算法劫持、算法剥削等算法问题不断涌现。典型的如:算法歧视中的“大数据杀熟”,国内多个外卖平台、出行平台、购物平台、差旅平台、视频网站都被曝基于大数据对用户进行画像,依托算法实施“熟客卖高价”“千人千面”“千人千价”的“杀熟”行为。算法偏见中的“种族歧视”或“少数群体歧视”,前者的著名例子是Google开发的自动图像标记软件曾经将黑人照片识别并标记成“大猩猩”,一些美国法院引入的犯罪风险智能评估系统COMPAS在评估罪犯的再犯罪风险时存在明显的歧视黑人罪犯情况(刘友华,2019);后者的代表性事例是亚马逊曾经开发“算法筛选系统”用于招聘中的简历筛选,但算法明显偏好于男性应聘者而歧视女性,另一个教科书式的示例是比利亚雷亚尔(Villarreal)诉雷诺烟草公司(Reynolds Tobacco Co.)案(汪怀君、汝绪华,2020),反映出算法依据年龄筛选应聘申请人的年龄歧视。算法推荐引致的“信息茧房”困境与“回音室效应”,以今日头条、抖音为代表的APP通过智能算法重复地向用户推送所谓“感兴趣”的内容,这种单纯基于兴趣导向的算法推荐限制了用户获取多样化的信息,使其被束缚在智能算法所构建的“信息茧房”和“回音室”里。算法操控导致的人被技术所“异化”,2020年9月《人物》杂志微信公众号推出的《外卖骑手,困在系统里》一文,揭示了外卖平台算法对骑手的斯德哥尔摩效应式规训和“冰冷”控制,将外卖骑手变成马尔库塞言下的“单向度的人”。这些多样化的算法失当现象引发社会普遍的算法焦虑甚至一系列算法危机,由此算法甚至被认为是“怪物”(Schultze et al.2018)。

算法失当及其引发的算法焦虑问题越来越多地受到学术界的关注,狭义与广义的算法责任逐渐进入法学、伦理学、经济学、管理学、社会学、技术哲学、新闻学的研究视域,直接聚焦或间接探析算法责任治理的研究开始成为热点,并集中于两个方面:一是综合性算法责任及其治理研究,重点是算法责任机制、算法伦理。对于前者,算法在社会领域决策中的应用不断增加,催生对负责任算法的需求日益强烈(Binns2018),因此应提高算法决策的公平度、问责性和透明度(Lepri et al.2018)。算法被认为承载着价值观而非中性,企业不仅对算法负有责任,而且对设计算法中的“谁做什么”负有责任(Martin2019)。浮婷(2020)综合透明度视角、利益相关方视角、负责任研究与创新视角,构建了算法责任机制的概念模型,阐释了算法责任不同要件的逻辑关系。张凌寒(2021a)从问责制的视角研究了平台算法责任如何生成,以及针对“责任鸿沟”问题如何构建算法问责制。对于后者,算法所引发的伦理问题变得越来越突出,包括算法的自主性所引发的伦理问题、算法在应用性场景下的伦理问题和算法的归责性困境问题(孙保学,2019),因此算法决策需要考虑伦理因素(Gerlick and Liozu2020)。算法伦理研究主要涉及算法伦理的困境生成、理论前提、价值基础、基本准则和实现进路(Hauer2018;刘培、池忠军,2019;郭林生、李小燕,2020;匡文波,2021)。二是特定性责任失当问题及其治理研究,包括算法黑箱(Zerilli et al.2019;浮婷,2020;吴椒军、郭婉儿,2021)、算法歧视(Žliobaitė,2017;崔靖梓,2019;张恩典,2020;李丹,2021)、算法共谋(Ezrachi and Stucke2017Gal2019;时建中,2020Beneke and Mackenrodt2021)和算法操纵(大卫·萨普特,2020)等各种算法责任的缺失与异化现象。一方面,大量研究关注于各种特定性算法责任失当现象的概念、分类、危害和成因,另一方面,许多学者针对各种算法责任缺失与异化问题提出治理方式与治理策略。比如,在算法治理与算法规制研究中,许多都是针对特定性算法责任失当现象的治理(Saurwein et al.2015Yeung2017D’Agostino and Durante2018Ulbricht2018Cristianini and Scantamburlo2020;阳镇、陈劲,2021)。

通过深入分析可以发现,目前国内外关于算法责任的研究尚处于起步阶段,已有的探索性研究成果对治理算法失当和算法责任缺失或异化问题具有重要的价值贡献,但它们至少存在3个方面的不足:一是缺乏真正意义与完整意义的社会责任视角研究。目前关于算法责任问题的研究主要聚焦于法律与伦理两种视角,法律视角关注于算法失当发生后的责任认定和责任分配问题,伦理视角强调算法和算法结果与普适的社会道德伦理符合性(Martin2019)。显然,法律视角的“责任”不是真实意义的社会责任,而伦理符合性只是社会责任的部分构成。即便个别学者关注到社会责任视角对算法责任治理的研究,但其要么几乎聚焦于算法透明问题(浮婷,2020),要么仅仅将算法治理作为企业社会责任治理的对象和内容(阳镇、陈劲,2021),没有从真正意义和完整意义社会责任视角对算法责任和算法责任治理进行系统研究。二是缺乏对算法责任的完整画像进行清晰刻画。科学界定算法责任的内涵、范畴边界、内容构成既是判断算法是否失当的基本依据,更是有效开展算法责任治理的重要前提。然而,现有的绝大多数研究聚焦于算法责任的特定议题,部分涉及综合性算法责任领域的研究也仅仅关注于算法的消极社会影响等单一维度,即便个别学者提出了负责任的算法概念(Binns2018Lepri et al.2018;丁晓东,2020),也未做出明确的、完整的界定。现有研究对算法责任的内涵、范畴边界和内容构成并未做出有意义的全景刻画,算法责任的完整画像及其形成的逻辑链条尚不清晰。三是缺乏对算法责任治理范式的系统建构。现有研究绝大多数聚焦于对特定算法失当现象的治理,对整体性的算法责任治理研究相对较少。无论是前者还是后者,已有研究主要关注于相对抽象或概念化的治理原则和相对具体或针对性的治理策略,从更加系统的范式层面研究算法责任治理较为缺乏。鉴于此,本文尝试对这些不足进行突破,从真正意义与完整意义社会责任视角对算法责任开展研究,试图对算法责任的理论逻辑、完整画像和治理范式进行探索性建构。

本文余下部分的结构安排如下:第二部分基于逻辑起点检验和证成算法责任命题的正当性与合理性,第三部分系统梳理和分析算法责任观的纵向流变与动态迭代,第四部分刻画算法责任的完整构面和建构算法责任的全景画像,第五部分分析算法责任治理的逻辑理路和构建算法责任综合治理范式,最后归纳总结本文研究结论、理论贡献,提出政策启示和实践建议。

二、算法责任命题的逻辑起点与理论证成

作为一个新概念或新领域,“算法责任”是真命题还是伪命题一直存在争议,但这关乎算法责任治理存在的价值与必要性。考究算法责任命题的逻辑起点是对算法、算法与人、算法与社会关系的认知,物性或工具化的算法角色认知、原子式或割裂式的算法中立观必然导致“算法责任”伪命题的结论,反之则可推演出“算法责任”为真命题。在现实中,随着弱人工智能不断获得重大突破,加上大数据的深度应用、机器学习尤其是深度学习的迅猛发展,算法的社会嵌入日益深入,高度自动化的算法决策推动算法的社会功能显著增强,“算法责任”越来越呈现为一个具有正当性与合理性的真命题,并俨然成为公共议程重点关注的对象。

(一)算法的代理者角色:算法责任产生的认知基础

理解算法责任命题的基础是对算法的角色属性进行科学定位,而这相当程度上依赖于对算法概念的界定。算法概念最早出现于数学领域,指的是解决数学问题的运算法则,以算术或算式形式呈现。计算机诞生后,算法概念被引入计算机领域并成为计算机科学的基础与核心,其涵义也区别于数学领域的算法概念,指的是将输入转化为输出的序列计算指令(Cormen et al.2009),或者说是依托特定计算模式将输入数据转换成预期输出的编码程式(Gillespie2014),是一种有限的、确定性的、有效的、适合计算机程序执行的问题解决方法(Sedgewick and Wayne2011)。随着数智经济时代算法的广泛渗透和悄然介入人类事务,算法概念逐步超越计算机领域的专业术语,延拓到更广泛的社会领域,被宽泛地认为是问题解决方案的完整描述(孙萍,2019),涵盖所有的决策程序和步骤,是理性建构社会秩序的一种特殊方式(Beer2009)。从算法概念的流变来看,算法可以从技术、系统、社会3个层面予以理解。技术层面的算法是一种技术性解决方案(Gillespie2014),多指在计算机领域结合逻辑条件与控制结构来表达计算解决方案,属于基础层次的算法概念。系统层面的算法是从人与机器互动系统的角度,将算法看作“人类和机器交互的决策,即人类通过代码设置、数据运算与机器自动化判断进行决策的一套机制”(丁晓东,2020),属于中间层次的算法概念。社会层面的算法泛指为解决某一问题或达成某一目的而采取的一系列步骤(Diakopoulos2015Kroll et al.2017),其集合将形成对社会秩序的理性建构,属于高阶层次的算法概念。基于目前的技术发展水平和着眼于更重要的现实意义,本文聚焦于人机互动系统视角的算法,即中间层次的算法概念。需要指出的是,人工智能算法是数智经济时代最具代表性的算法,但鉴于当前的数智化技术仍处于弱人工智能阶段,强人工智能尚未真正产生,且由弱人工智能向强人工智能演化的“奇点”是否出现并不明确,因此本文的人工智能算法主要是弱人工智能语境下的算法。

按照系统层面的算法概念,算法在人与机器的交互中可以发挥不同程度的辅助决策功能,进而增强人在某些领域开展决策的能力。而且,在某些方面人也可以依靠机器的自动化判断进行自动化决策,由此算法就会代替人做出决策。然而,算法的本质可以看作一种“技术人造物”,算法模型往往嵌入了设计者和使用者的目的与意图,算法功能映射出设计者和使用者的价值认知与期望用途(Kalpokas2019)。这意味着无论是前置行动(Prior-to Actions)还是目的行动(In-order-to Actions)(Introna2016),算法运行所控制的行动实质上是执行性的(Performative)。即便是人工智能算法展现出隐喻意义上的不同程度学习能力,可能能够通过所谓的图灵测试,但这种学习能力归根结底仍然属于工具能力,人类对算法始终处于控制支配地位。在OECD2017)提出的人工智能算法“四分法”中,监控算法(Monitoring Algorithms)只是指令的执行者,决策权和控制权完全掌握在人的手中;并行算法(Parallel Algorithms)拥有人“让渡”出来的部分决策权,享有某些“自由裁量权”,但人依然拥有主导性的决策权和控制权;信号算法(Signalling Algorithms)虽然通过自发的信号处理而表现出更多的自动化决策,但信号披露背后的意图仍然是人赋予的;自我学习算法(Self-learning Algorithms)更进一步,它基于大数据支撑和反复学习训练而拥有自我学习能力,表现为超越人脑算力和思维能力的超级决策工具(谢栩楠,2021)。由此可见,监控算法、并行算法、信号算法和自我学习算法无论表现出多么复杂,也不管如何运用,它们都是人的意图不同程度的执行。类似地,监督学习、无监督学习、半监督学习和强化学习等机器学习算法,在本质上都体现为操作性的工具能力。正因如此,作为新工具主义的代表性人物,Bryson2010)甚至认为以算法为核心的机器人应当是人类的“奴隶”而非“同伴”。对于自主进化之前的算法,在人、算法、社会三者之间的关系中,算法无论是辅助决策还是自动化判断,起到的都是人的“代理角色”(Willson2017Martin2019Kim2020),成为人的“代理者”。算法的代理者角色定位表明算法具有间接的主体性,可以和应当对社会负责任,但这并不意味着委托人责任的消除(Martin2019),而是说明算法责任是人类主体社会责任的延展,算法责任概念具有现实意义和正当性。

(二)算法的多元价值载荷:算法责任生成的根本缘起

由于社会责任涉及价值判断与伦理规范,因此算法责任的生成取决于对算法价值属性的认知。从技术哲学和伦理学派出发,技术本身被认为内嵌价值(Flanagan et al.2008),据此算法本身也被认为包含基本价值判断(Kraemer et al.2011),是载荷价值的决策行动者(Martin2019)。算法价值载荷(Value-laden)引申出算法对社会负责任的必然要求,成为算法责任生成的根本缘起,反映出算法责任概念具有正当性和合理性。进一步来看,算法的价值载荷主要源于3个方面,即算法存在的社会嵌入、算法主体的价值迁移和算法结果的社会影响。

1.算法存在的社会嵌入

从算法概念的历史演化过程来看,算法是社会技术的产物,算法特征经历了由强调技术性到强调社会性,再到同时强调技术性与社会性的过程。算法的双重属性特征表明算法不是纯粹的技术性解决方案,也不仅仅是作为“技术之间的中介”的三阶技术(卢西亚诺·弗洛里迪,2016),更不是与人类社会实践相割裂、游离于社会系统之外的“物化”存在。现代社会中的算法并非处于真空中,也非实验室里的算法,而是存在于和交融于社会系统中(Beer2017),嵌入于特定社会结构,是社会技术的集合,甚至被认为是由社会和组织环境深刻构成的社会技术实体(Gal et al.2020)。按照技术的社会建构范式,包括算法在内的技术生产、创新、演化与其产生的社会影响在某种程度上都是社会塑造的,技术设计是技术规则与社会现实互相作用的结果,由此算法开发与应用也是在与社会互动中予以完成,必然受到一系列社会规范、制度安排、人类实践和社会态度的影响(Zerilli et al.2019)。从这种意义上来说,算法是经过社会建构的社会性存在,如此就可以从元层次破解算法身份的特修斯之船(The Ship of Theseus)问题。如果试图脱离社会来对算法进行分析,就很可能出现错误(Beer2017)。算法的社会嵌入与社会建构意味着社会价值已经渗透于算法系统,算法在相当程度上直接或间接地载荷社会价值。

2.算法主体的价值迁移

算法由个体或组织的实践形塑、想象和建构(Beer2017),与个体或组织的思维观念和价值偏好密切相关,因此拥有不同价值判断的个体或组织将会设计出差异化的算法,或者采用不同的算法予以解决问题(Kraemer et al.2011)。从算法的意识形态认知视角来看,算法技术发挥着传递、复制和强化信念与价值观的功能(Just and Latzer2017),算法被认为是将一些价值或一套价值观作为输入,并形成一些价值或一套价值观作为输出的设计良好的计算程序(Cormen et al.2009)。作为人的“代理者”,算法承载着人的目的倾向性,算法设计者、开发者的基本价值判断会映射于算法的优先序排列、标准归类、关联标记和过滤,算法模型往往体现出设计者、开发者的设计意图和价值取向。即便是具有自我学习能力的自我学习算法,设计者、开发者的价值观和道德信仰对算法的初始创建与后续学习也都具有重要影响。伦理的美德主义范式也认为,设计者、开发者个体主观的、异质的和非理性的冲动会影响算法模型,算法形成受到设计者、开发者“更自发的”和“本能驱动或精神动机驱动”的作用(Ananny2016)。由此可见,设计者、开发者的价值迁移使得算法内在地载荷算法主体的“人设”价值,蕴含了许多价值判断、道德抉择和约束条件,成为个体或组织的价值载体。

3.算法结果的社会影响

如果某项技术带来了改变,只要这一改变不是中立的,那么该项技术也必然不是中立的(Strate2012)。算法是否中立和是否载荷价值还应当考察算法输出结果的性质,如果输出结果对利益相关方和社会产生的影响不是中性的,那么算法就必然是价值载荷而非中立的。一方面,无论是对于算法设计者、开发者还是算法部署者、使用者,算法输出结果绝不是只停留于功利主义的纯工具理性,不会只局限于对算法主体自身的功用,而是会对利益相关方和社会产生积极或消极影响。算法设计者通过选择性地将其价值观置于算法系统,算法决策将会输出多种预期的或意想不到的具有伦理意涵的结果(Gritsenko and Wood2020),增强或削弱利益相关方的权利(Martin2019)。比如,外卖平台将“效率为先”的价值理念嵌入算法,相应地平台算法就会严格控制和考核骑手的“送餐时间”,但真实场景的复杂性和不确定性可能导致算法预估时间偏短,对骑手造成巨大压力和罚款的利益侵害。正因如此,2021年7月国家市场监管总局等七部门要求外卖平台对送餐时间采用“算法取中”而非“最严算法”。另一方面,算法结果具有不可预测性,尤其是机器学习算法本身的高度复杂性,叠加人的局限性和环境的动态变化,推动算法结果的不可预测性成为算法的内在属性。不可预测性使得算法在被部署和应用于社会领域的多个场景时,其结果具有不确定性,而一旦出现算法识别或算法错误,将会引发重大社会风险,产生社会伦理问题与价值争议。

(三)算法权力崛起与滥用:算法责任出场的现实逻辑

无论是组织社会责任,还是个体社会责任,抑或是算法责任,其产生绝不只是复杂的理论推演结果,也不是纯粹的理想主义构念,而是根植于现实与来源于实践,是多重现实因素和多元实践现象演化的必然结果。算法责任的出现一方面可以一般化地归因于社会责任正成为当今重要的时代精神和社会思潮,另一方面更重要的是要情境化地认识到,数智化技术正在对生产力和生产关系形成实质性的重塑,革命性的算法广泛渗透和深度应用于经济社会各个领域,“算法经济”“算法社会”和“算法生活”已经日益盛行。在悄然而至的“算法时代”,无处不在的算法正在成为深刻影响经济社会发展和人类发展的显性或隐性力量,算法权力的与日俱增(Beer2017)和算法权力滥用引发的算法外部性不断膨胀(吴梓源、游钟豪,2018),使人们意识到算法应当被关进社会责任的“笼子”里,算法责任不是选择题而是必答题,算法责任有其深刻的现实逻辑和时代烙印。

1.算法权力崛起孪生出匹配性的算法责任

无论是按照管理学的权责匹配原则,还是依据社会责任领域的“责任铁律”(Iron Law of Responsibility),社会权力与社会责任无可争辩地被认为是孪生体。在算法社会中,随着算法越来越多地被部署和应用于司法、教育、医疗、交通、城市治理、社区管理、生活服务等社会领域,权力越来越多地出现和存在于算法之中(Lash2007),算法甚至被表达为“算法权威”(Beer2009)和“作为权力的算法”(Gillespie2014)。算法由于在权力行使中扮演着日益重要的角色而成为社会中新的权力掮客(Kitchin2017),是构建与实现权力的机制(Kushner2013),算法权力作为一种新型权力形态正在迅速崛起。一方面,算法日益强大的分类、搜索、过滤、排序、优化等功能和自动化决策能力是算法权力的基础(Beer2009),这些功能和能力使得算法能够作为“代理者”承载决策权,形成“功能和能力—决策权—算法权力”的转化路径。另一方面,按照技术乌托邦(Techno-utopian)视角或者技术精英(Technocratic)治理理论,无论是在个体的私人问题领域,还是在公共的社会问题领域,算法的支配力和控制力在不同程度上予以展现(Diakopoulos2015),算法成为一种弥散性权力。对于前者,算法通过直接演变成为新的行为规范而对个体行为进行影响和控制,形成私人场域新的制约关系;对于后者,基于算法的治理已经被广泛而深度应用,算法与公权力的结合使得算法权力逐渐成为公共场域的“准公权力”。私人场域和公共场域的算法权力蕴含着算法的社会影响力和社会地位,相应地算法权力就由技术性权力演变成为社会权力。算法的社会权力不断增长(Beer2017),意味着算法作为“代理者”需要承担与社会权力相匹配的社会责任,算法责任成为算法权力崛起的必然要求。

2.算法权力滥用催生出约束性的算法责任

社会责任内生于主体行为对利益相关方和社会的影响(李伟阳、肖红军,2011),有效管理这些影响是主体应当履行的义务和责任。算法权力是一把“双刃剑”,恰当运用将会对经济社会发展带来积极影响,为利益相关方创造正向的多元价值增量,特别是,算法对人类认知“波兰尼悖论”的突破将极大地革新人们的生产生活,表现出推动社会进步的显著正外部性。反之,算法权力的不当使用将会对利益相关方和社会发展产生消极影响,严重时更是会带来巨大破坏,形成超越传统方式的强烈负外部性。现实中,算法权力崛起的确也引发了算法权力异化的出现(张凌寒,2019),算法权力滥用造成利益相关方权利被侵蚀和社会利益受损的现象频频发生,其中既包括已有社会问题在算法中的移植甚至放大,如算法歧视、算法共谋,更为突出的是算法部署和应用衍生出越来越多的新的社会问题,如算法操纵、算法剥削、人工智能主体伦理挑战。最为典型的例子是电商平台滥用算法权力实施“大数据杀熟”,以及社交平台滥用算法权力进行“民意操纵”。比如,2018年曝光的Cambridge Analytica公司事件中,该公司在2016年利用Facebook泄露的5000万条用户信息,借助算法对用户的多维个人信息进行分析并预测其政治倾向,然后通过Facebook精准投放政治广告,最终对他们在当年美国总统大选中的投票产生影响。进一步来看,算法权力滥用的背后是算法主体即算法开发者、设计者、部署者和应用者的不良动机与不当行为,算法不当使用造成的突出社会问题和严重负外部性必然要求对其进行有效管理与防范。最小化算法的负外部性和对社会负责任成为利益相关方和社会的普遍期望与强烈要求,算法责任作为约束与消解算法负外部性的基本规则就应运而生。

(四)算法责任的特殊性:作为新命题存在具有合理性

算法的代理者角色、算法的多元价值载荷、算法权力崛起与滥用等多视角透视表明,算法责任具有理论逻辑、历史逻辑和现实逻辑的统一性,这为认识与理解算法责任的深刻内涵和特殊性提供了基本导向。从算法作为代理者和价值载荷者出发,算法责任即意味着算法对社会责任的承担或承载,是组织社会责任或个体社会责任在算法活动层面的集中反映和深化拓展。按照社会责任的元定义,社会责任是主体“通过透明和道德的行为,有效管理自身决策和活动对社会、利益相关方、自然环境的影响,追求在预期存续期内最大限度地增进社会福利的意愿、行为和绩效”(李伟阳、肖红军,2011)。如果将这一元定义应用于算法活动层面,那么算法责任就可以界定为主体通过透明和道德的算法,有效管理算法决策和活动对社会、利益相关方、自然环境的影响,追求算法最大限度地增进社会福利的意愿、行为和绩效。由此可见,算法责任要求算法是透明的和合乎道德的,算法决策和活动对利益相关方和社会的消极影响最小化、积极价值创造和社会福利增进最大化。进一步来看,算法活动通常包括算法开发设计与部署应用、算法本体构造、算法决策3项内容,它们分别从过程、本体、结果3个维度刻画算法活动,相应地,算法责任也可以从本体、过程和结果3个维度予以综合理解。算法责任的本体维度要求算法构造本身饱含社会责任元素,过程维度意味着算法主体追求负责任的算法开发设计与部署应用,结果维度表现为算法决策结果是对社会负责任的。

尽管算法责任是组织社会责任在算法领域的深入和投射,甚至被认为是归属于组织社会责任的子集,但算法责任与组织社会责任之间仍然存在显著差异,尤其是相对组织社会责任的其他子集或者组织承担的其他责任,算法责任更是表现出多个方面的特殊性,具体包括:一是责任向度的综合性。从对象来看,组织社会责任就是组织对不同利益相关方承担的责任,通常包括股东责任、消费者责任、员工责任、合作伙伴责任、社区责任、环境责任等;从内容来看,组织社会责任往往被认为涵盖经济、社会、环境三重底线责任(Elkington1998)。无论是构成组织社会责任的每一特定利益相关方责任还是每一特定内容的议题责任,它们各自均为单一向度,具有单一责任属性。但算法责任属于活动层面的社会责任,算法活动应当全面考虑股东、消费者、员工、合作伙伴、社区、环境等多个利益相关方的期望和诉求,涉及经济、社会、环境等多个方面影响,因此算法责任跨越对不同利益相关方承担的责任,涵盖算法活动中需要履行的经济、社会、环境三重底线责任。由此可见,算法责任是一种综合性责任,具有多向度和复杂性。二是责任定位的代理性。算法作为一种“技术人造物”,是人的“代理者”,在人或组织作用于社会过程中起到中介或代理的作用,因此算法责任是算法代表(代理)人或组织与利益相关方和社会互动过程中产生的责任,本质上是人或组织是否履行社会责任的意志反映。这意味着算法责任与传统组织社会责任产生于组织直接作用于利益相关方和社会不同,属于一种代理性责任。代理性责任一方面表明算法承载着委托人对利益相关方和社会应尽的责任,另一方面还要求算法不能藉由自我学习而出现代理偏差或机器错误。目前现实中出现的种种“算法乱像”本质上是算法作为企业的“代理者”,执行企业的“不道德”理念和行为的结果。三是责任形态的隐蔽性。算法是由一系列数据代码构成,算法主体将主观决策和价值判断嵌入于代码之中,通过“看不见、摸不着”的代码作用于利益相关方和社会,由此披上一层“算法面纱”。算法模型的复杂性和算法决策过程的“黑箱性”,使得算法作用于利益相关方和社会的过程具有高度的隐蔽性,随之而来的是各种算法失当现象相较传统情境更为隐性,如算法歧视比传统意义的歧视更为隐蔽,算法操控也比人的直接操控更为隐蔽,其结果是算法责任成为一种高隐蔽性的责任形态。算法责任的特殊性意味着其作为一个新命题得以提出具有合理性,算法责任是一个有实质意义的现实概念。

三、算法责任观的纵向流变与动态迭代

算法责任观是对算法本质与算法责任本质的认知,反映出社会主体对算法责任精神实质的理解。算法责任观相当程度上是社会主体对算法相关活动心智模式的映射,对社会主体开展算法相关活动的行为方式起到方向引领功能,不同的算法责任观将会诱发差异化的算法行为。算法责任观往往与社会主体所秉持的认知视角相关联,甚至受到当时社会思潮的较大影响,因此从不同时期对算法本质与算法责任本质认知的演变来看,算法责任观大致经历了技术中立视域下的责任否定观、技术伦理视域下的道德算法观、人技信任视域下的“可信赖的算法”观、社会责任视域下的“负责任的算法”观等4种认知的流变与迭代(如表1所示)。

 

1 不同算法责任观的比较

 

(一)技术中立视域下的责任否定观

技术中立通常有4种理解:竞争中立、功能中立、责任中立和价值中立(郑玉双,2018)。竞争中立是指政府“非歧视”地对待各种技术,使其拥有公平竞争的机会。功能中立是指技术使命的实现只在于其遵循功能机制和原理发挥了作用,典型的是网络中立。责任中立是技术功能与使用后果的分离,其由著名的“环球电影制片公司诉索尼公司案”确立的“具有实质意义的非侵权用途”规则发展而来,典型的是“菜刀理论”。技术的功能中立和责任中立在底层上都隐含了价值中立的立场,从更深层次来看技术中立实质上是价值中立(郑玉双,2018),因此这里的技术中立指的是技术价值中立。技术价值中立思想源远流长,早在古希腊时期,亚里士多德就将技艺活动视为工具型活动,认为其目的存在于自身之外。技术价值中立观点更为直接的基础来源于韦伯的“价值中立”学说,技术在韦伯来看本质上是一种形式合理性,而形式合理性不同于实质合理性的价值判断,它更多的是一种具有工具理性特征的事实判断,由此技术被认为具有天然性的价值中立立场(吴梓源、游钟豪,2018)。技术价值中立观点的经典表述来自德国存在主义哲学家雅斯贝尔斯(Karl Theodor Jaspers),他提出“技术本身没有善恶之分,善用和恶用均有可能。技术本身并没有包含完美观念或邪恶观念等任何观念,这些观念的源头都在技术之外,即在人类自身之中”(Jaspers1963)。技术价值中立观点长期盛行并深入人心,对科学研究和技术创新影响深远,早期对算法和算法责任的认知亦受到技术价值中立观点的深刻影响。

在技术价值中立论来看,算法就像任何一项其他技术,其本身只有“工具性”而没有“目的性”,只是亚里士多德界定的工具型活动,具有韦伯区分出来的形式合理性和纯粹工具理性特征。也就是说,算法在本质上只不过是一把“技术菜刀”,是一种中性的工具,是无关好坏选择的价值中立(Hauer2018),其如何被部署和应用,最终取决于人的目的,因此算法功能与实践后果是分离的,算法具有责任中立的性质。技术价值中立衍生的必然结果是对算法责任的否定,认为算法在伦理学上的中性使得算法没有社会责任可言。按照技术价值中立观点,如果一定要说算法责任,那么其唯一的内容就是在算法功能发挥过程中遵循了算法的技术原理和功能机制,无关任何价值内容。现实中,Facebook创始人扎克伯格曾在美国国会面前坚守技术中立观点,以此为Facebook不进行内容审查的算法行为进行辩解;被称作“卷积神经网络之父”的杨立昆(Yann Le Cun)也曾经隐含地从技术中立观点出发,将机器学习结果出现的偏见归咎于数据集偏见而不是算法偏见;在著名的“快播案”审理中,被告就援引技术中立观点并以“技术无罪”进行抗辩。这些都意味着,以技术价值中立论为基础的算法责任否定观曾经不乏支持者。

然而,一方面,技术价值中立论一直以来就饱受诟病,不仅早期的法兰克福学派对韦伯的“价值中立”学说进行了批判,而且在后现代主义和建构主义理论背景下,最新的技术批判理论基于技术哲学语境对价值中立开展了更为细致的批判和反思。技术被认为在本质上不是中性的,具有目的性与社会性双重维度,是在特定社会情境下由设计者结合主观性价值判断而建构的(吴梓源、游钟豪,2018),是社会因素和技术因素相互混合的结果。技术价值中立论带来的是技术与伦理、技术与社会的割裂,技术批判理论对价值中立的致命批判,导致技术价值中立论逐步被技术价值论所替代。另一方面,即使技术原理可以是中立的,但技术的应用必然包含应用主体的价值观和主观意图(张凌寒,2021a)。算法亦是如此,它作为人的“代理者”,其开发、设计、部署和应用都承载着算法主体的意图性和目的性,算法开发者和设计者的价值认知、价值偏好会显性或隐性地对算法建构产生影响。也就是说,算法实际上隐藏着开发者和设计者的立场,在许多情境下甚至已经变成社会价值判断的一部分(丁晓东,2020)。比如,人民网曾在2017年9月三评算法推荐,批判以今日头条、一点资讯为代表的新闻推送平台,其算法推荐依据的唯一标准是“能不能抓眼球、能不能吸引用户”,反映出这些新闻推送平台将商业利益最大化作为新闻媒体追求目标的价值立场。正因如此,2021年12月国家互联网信息办公室等四部门发布《互联网信息服务算法推荐管理规定》,要求算法推荐服务提供者坚持主流价值导向,积极传播正能量,促进算法应用向上向善。技术价值中立论的式微和对算法价值载荷认知的强化,推动算法责任否定论不断遭到否定,取而代之的是基于技术伦理学的道德算法观。

(二)技术伦理视域下的道德算法观

技术伦理学的兴起源于伦理学对技术问题的关注和技术哲学的伦理学转向,尤其是20世纪60年代发生于德国的两大争论即围绕“技术统治论”的争论和围绕实证主义的争论,极大地推动了技术伦理学的发展。尽管技术伦理学出现了多个流派,如尤纳斯(Hans Jonas)以义务论为基础的责任伦理、罗波尔(G.Ropohl)以社会—技术系统论为基础的消极功利主义、胡比希(Christoph Hubig)以价值论为基础的权宜伦理、哈斯泰特(Heiner Hastedt)以商谈伦理学为基础的商谈伦理,但它们都普遍地蕴含了对技术与伦理之间关系的思考,反对技术价值中立观点,认为技术是价值载荷的,技术本身蕴含着价值。技术伦理学既关注于人与技术之间的伦理关系,也涉及技术伦理主体的道德性(贾璐萌、陈凡,2021)。随着传统技术伦理学向现代技术伦理学的转变,技术伦理学研究范式由“外在进路”转向“内在进路”,技术伦理学更加强调“物转向”(Thingly Turn)。拉图尔(Bruno Latour)提出的行动者网络(Actor-Network)理论、哈拉维(Donna Haraway)提出的赛博格(Cyborg)理论和皮克林(Andrew Pickering)提出的冲撞(Mangle)理论都试图超越传统的人与物二元对立关系。以此为基础,现代技术伦理学将技术物纳入道德行动体,认为技术物能够满足道德行动体界定的因果效应标准、代理标准和道德自主性标准(陈凡、贾璐萌,2015),从而赋予技术物一定的“能动性”和伦理价值,形成人与技术的“混合行动体”。从道德行动体层面来看,技术物的伦理价值可以通过“道德物化”(Verbeek2006)予以实现。现代技术伦理学的核心思想引发人们对科学研究和技术创新的重新认知,也催生对算法和算法责任的新思考。

按照现代技术伦理学的观点,算法作为技术物不再只是技术工具论下的纯粹手段或工具,而是具有伦理意向性,载荷伦理价值,是人工道德行动体。在Verbeek2008)界定的人—技术—世界的赛博格关系(Cyborg Relation)中,人与算法的关系是交互而非相互作用,算法作为拥有自我推理能力的技术人工物,被认为是伊德(Don Ihde)所言的“它者”,因此可以作为道德行动体而存在。实际上,Moor2006)通过层次模式将人工道德行动体区分为伦理影响型道德行动体、隐性道德行动体、显性道德行动体和完全道德行动体4种类别,而具有不同“能动性”的算法相应地归属于不同类别道德行动体。基于算法本质上是人工道德行动体的定位,技术伦理学认为算法责任的核心是合乎伦理要求,算法伦理成为算法责任的基本构成。比如,在国际电气电子工程师学会(IEEE2017年发布的《人工智能设计的伦理准则》(第2版)中,人权、福祉等一般性伦理原则被认为是人工智能合乎伦理的设计、开发和应用需要遵循的原则。不仅如此,算法作为人工道德行动体应当符合Wallach和Allen2009)提出的操作性道德、功能性道德和完全道德能动性(Full Moral Agency)要求,成为“在道德上可接受的算法或合乎伦理的算法”(李伦、孙保学,2018),即道德算法。如果从技术伦理学的“内在进路”研究范式来看,道德算法可以认为是算法伦理的核心,算法责任就转化为道德算法。道德算法通常有“自上而下”的伦理规范和道德标准嵌入算法、“自下而上”的算法道德学习和道德行为探索、“自上而下”与“自下而上”相结合的“混合型”方式等(Wallach and Allen2009)。

基于技术伦理学的道德算法观在理论上和现实中都受到广泛关注,产生了较大影响,但这一算法责任观完全聚焦于算法责任的单一伦理维度,不仅容易造成对算法责任理解的“狭隘化”,难以使算法责任真正对社会负责任,而且道德算法本身也存有争议,能否破解现实中的伦理悖论仍被质疑,算法依然无法被真正信任。比如,无人驾驶汽车碰撞算法仍然无法解决“电车难题”(Trolley Problem)的伦理悖论:麻省理工学院曾于2018年公布一项来自233个国家和地区数百万用户关于自动驾驶汽车发生虚拟车祸时的道德决策测验,发现较为一致的全球偏好是更倾向于拯救人类而不是动物、拯救多数人牺牲少数人、优先拯救儿童,但作为全球首个实施自动驾驶伦理道德标准的国家,德国在其准则中明确规定“当自动驾驶汽车发生不可避免的事故时,任何基于年龄、性别、种族、身体属性或任何其他区别因素的歧视判断都是不允许的”。实际上,不仅存在如上的认知分歧,而且无论优先选择拯救谁的生命,都会引发强烈的道德争议,并使某些人感到不安,无人驾驶汽车碰撞算法依然无法走出道德困境。鉴于此,超越纯粹的技术伦理视角,算法责任观迈向以人类—技术(“人技”)信任为基础的更加全面的“可信赖的算法”观。

(三)人技信任视域下的“可信赖的算法”观

人技信任来源于信任理论,是信任理论在人类与技术互动中的应用与拓展。按照信任的制度主义研究范式,信任被认为是复杂社会的一种简化机制(Luhmann1979),是个体“对一个人或一个系统之可依赖性所持有的信心,在一系列给定的后果或事件中,这种信心表达了对诚实或他人的爱的信念,或者,对抽象原则(技术知识)之正确性的信念”(安东尼·吉登斯,2000)。这意味着信任既包括人对人的信任,也包括人对(社会)系统的信任,前者是以对他人的诚实或爱这些道德品质的信赖为基础,后者是以对系统的原则即抽象原则(技术知识)的正确性的信赖为基础。一方面,由于技术物在现代技术伦理学已被认为是道德行动体,因此人对人的信任可以延伸到技术物,形成人对技术物的信任;另一方面,技术系统的社会嵌入使得技术系统转化为社会技术系统,由此人对社会系统的信任可以延伸到技术系统,形成人对技术系统的信任。人对技术物的信任和人对技术系统的信任共同构成人对技术的信任,即人技信任。更进一步,信任因为人们建立预期的差异性而存在不同层次,Barber1983)将其归结为3类:第一层次是普遍信任,是对自然准则和道德的社会秩序形成预期而构建的信任;第二层次是能力信任,是对他人能够胜任所扮演的社会角色形成预期而构建的信任;第三层次是责任信任,是对另一方能够承担所托付的责任和义务形成预期而构建的信任。延伸至人技信任领域,普遍信任是人对技术遵守自然准则和社会秩序的信任,也可以称为合规信任;能力信任是人对技术本身功能性和可靠性的信任,也可以称为功能信任;责任信任是人对技术能够合乎伦理地发挥作用的信任,也可以称为伦理信任。也就是说,人技信任包括合规信任、功能信任和伦理信任3个层次。人技信任理论大大拓展了人们对科学研究和技术创新的认知,尤其是对算法和算法责任认知的再次迭代。

依循人技信任理论,人对技术物的信任意味着算法被看作人工道德行动体,而人对技术系统的信任则蕴含着算法系统被看作一种抽象系统,因此算法是道德行动体和抽象系统的混合体。相应地,人技信任理论认为算法责任在本质上是要构建人对算法的信任,算法信任(张欣,2019b)是算法责任的核心,即“可信赖的(Trustworthy)算法”观。可信赖的算法在早期主要是从算法本身的质量角度予以界定(李应潭,1999),但在人技信任理论来看,可信赖的算法应涵盖合规信任、功能信任和伦理信任3个层次。在现实中,欧盟2019年发布的《可信赖的人工智能伦理准则》在底层逻辑上与这3个层次信任相吻合,它将可信赖的人工智能(算法)分为法律、伦理和技术3个组成部分,即合乎法律、合乎伦理和技术稳健,每一部分为必要但非充分条件(闫宏秀,2019)。中国信息通信研究院与京东探索研究院2021年联合发布的《可信人工智能白皮书》认为,可信赖的人工智能(算法)应当可控可靠、透明可释、隐私保护、明确责任和多元包容,这实际上也可归入合规信任、功能信任和伦理信任的框架。相较于技术伦理视域下的道德算法观,可信赖的算法在算法伦理之外增加了算法合规和技术可信,技术可信既包括算法的稳健性,也意涵着算法透明和可解释性。算法透明强调将算法运算数据、源代码和架构对外公开,算法可解释性则在此基础上提出更高要求,强调算法能够被数据主体或用户所理解。算法透明和可解释性对于可信赖的算法至关重要,不仅是破解越来越普遍的算法“黑箱”问题的根本要求(Criado et al.2020),而且是确保算法合乎伦理和算法合规的重要机制(Martin2019)。尽管“可信赖的算法”观对道德算法观进行了超越,对算法责任认知的广度与深度都有明显延拓,但可信赖的算法主要聚焦于人对算法的信任,一方面缺乏从整个社会视角洞察算法对社会的影响和贡献,人对算法的信任并不一定就意味着算法对社会负责任,另一方面人对算法的信任是一个整体层面的笼统性概念,缺乏从具象化的利益相关方视角界定算法对利益相关方的价值和责任,在操作层面未必能够形成所有利益相关方对算法的信任。由此,对算法责任的认知由“可信赖的算法”观进一步转向社会整体视角和利益相关方视角,即以社会责任理论为基础的“负责任的算法”观。

(四)社会责任视域下的“负责任的算法”观

虽然真正意义的社会责任概念产生尚不足百年,但社会责任理论却经历了从兴起到繁荣的过程,呈现出越来越被主流经济学与管理学所接受的趋势。目前对社会责任概念的界定基本上都是特指企业社会责任或组织社会责任,前者经历了“狭义企业社会责任→企业社会回应→企业社会表现→企业公民”的演化(Bakker et al.2005),后者的典型代表是ISO2010)做出的社会责任定义。尽管如此,目前对社会责任概念的界定在元层次仍可以拓展至和适用于一般性社会主体,社会责任在理念维度包括外部视野、底线思维、可持续性原则,在行为维度包括社会与环境风险防范、综合价值创造、透明沟通、利益相关方合作、社会资源整合与优化配置,在内容维度包括经济议题、社会议题、环境议题,在制度维度主要是社会责任融入(肖红军,2020a)。随着社会责任理念的流行和社会责任理论向纵深发展,负责任投资、负责任消费、负责任采购、负责任研究与创新等衍生性理论不断出现,推动社会责任理论在专业领域的深度应用和二次开发。其中,负责任研究与创新理论是社会责任理论与研发创新理论的结合,形成研发创新的新范式和新规范。负责任研究与创新指的是社会行动者与创新者相互担责的透明互动过程,且这一创新过程及其市场产品符合(伦理)可接受性、可持续性和社会发展进步的要求(Von Schomberg2013)。负责任研究与创新包括预期性、自反性、包容性、回应性(Owen et al.2012Stilgoe et al.2013)和可持续性、关怀(Burget et al.20176个维度。社会责任理论及其衍生的负责任研究与创新理论更加深刻地反映主体与社会的应然关系,更加透彻地揭示社会主体行为和研究与创新活动的高阶规律,形成对算法和算法责任认知的再深化。

从社会责任理论来看,算法被隐含地认为是一种社会性存在,是作为代理者的中介角色存在。这意味着算法应当对社会负责任,不仅需要符合透明和道德的行为要求,更要最大限度地增进社会福利,不仅要坚持外部视野、底线思维、可持续性原则,更要强调社会与环境风险防范、综合价值创造、透明沟通、利益相关方合作、社会资源整合与优化配置。从负责任研究与创新理论来看,算法被认为是一种研究与创新活动,具有潜在社会影响和利益相关方影响。这意味着算法应当成为负责任的研究与创新活动,符合预期性、自反性、包容性、回应性、可持续性、关怀要求,确保伦理上的可接受性和满足社会需要与期望(梅亮、陈劲,2015)。综合这两个方面,算法责任的目标和核心就是要构建负责任的算法(Kroll et al.2017Binns2018Lepri et al.2018),既要推动算法最小化其消极影响,也要增进算法最大化其积极价值,同时还要满足负责任研究与创新要求。实际上,中国2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》从“推动经济、社会及生态可持续发展”的定位出发,将负责任的人工智能(算法)界定为8个方面,包括和谐友好、公平公正、包容共享、尊重隐私、安全可控、共担责任、开放协作和敏捷治理,这一界定基本上反映出社会责任理论、负责任研究与创新框架的结合。与可信赖的算法相比,负责任的算法更加突出算法责任的社会视角和利益相关方视角,更加强调算法对可持续发展的贡献,更加注重全过程的负责任管理,在算法合规、技术可信和算法伦理基础上,增加了社会与环境风险防范、综合价值创造、利益相关方价值创造、社会资源整合与优化配置、负责任研究与创新要求。进一步来看,随着社会责任日益成为当今重要社会思潮,社会对日益严重的算法失当现象和算法责任缺失问题提出越来越迫切的矫正期望,负责任的算法成为更加合意的算法新形态和更可持续的算法责任观。

四、算法责任画像的多维构面与全景透视

无论是构建负责任的算法,还是开展有效的算法责任治理,其基础都是要对算法责任的构造有一个全面系统的解构。而且,算法责任作为一个新生事物,绝不能仅仅停留于概念层面或理念层次,而是需要对其构面和要件具象化,识别其内容构成与范畴边界,绘制算法责任的全景画像。实际上,现实中对算法衍生出诸多现象的争论,相当程度上是因为对“算法责任到底包括哪些内容”缺乏清晰界定,更别说对算法责任范畴边界和完整构成形成基本共识,因此亟需对算法责任的构成要素与范畴边界进行深入探究。

(一)算法责任构面的建构方法与框架

现有对算法责任构面的研究几乎都聚焦于算法责任内容,且绝大多数停留于特定责任议题,直接性与真正意义上的算法责任内容界定研究非常稀少。尽管如此,近年来与算法高度关联的人工智能和机器人领域出现了较多伦理倡议与准则,这类倡议与准则从2015年至今全球已经超过50个(宋冰,2020),形成了所谓的算法伦理的“中层原则”(孟令宇,2019),它们一定程度上可以看作算法责任内容界定的相关成果。从这种意义上来说,目前关于算法责任内容界定的方法主要有两类:第一类是经验主义方法,即依据现实中的良好实践或基于问题导向的解决方案予以确定算法责任的内容构面。典型的是多项已经公布的人工智能(算法)伦理准则,如欧盟发布的《可信赖的人工智能伦理准则》提出,可信赖的人工智能应当具有7个伦理构面,包括人的管理和监督、稳健性和安全性、隐私和数据管理、透明度、多样性和非歧视性以及公平性、社会和环境福祉、问责制;G20在“G20人工智能原则”中提出了可信人工智能的负责任管理原则,包括包容性增长与可持续发展及人类福祉、以人为本的价值观和公平、透明度和可解释性、健壮性及信息安全性和物理安全性、问责制。第二类是规范主义方法,即从理论出发进行正向的逻辑推演而确定算法责任的内容构面。袁曾(2019)以无人驾驶汽车的算法应用为例,依据责任链理论将算法责任构成区分为遵循伦理规则的研发者责任、承担基础性义务的生产者责任、履行恰当义务的使用者责任和维持行业良性发展的监管者责任等构面;浮婷(2020)综合企业社会责任“三重底线”理论、利益相关方理论、负责任研究与创新理论,提出算法责任内容包括底线合规、满足期望、价值共创、有意义的透明、利益相关方参与和“预见性—反思性—包容性—回应性”的负责任研究与创新。

从已有研究来看,在方法论层面,经验主义方法和规范主义方法都是算法责任研究的重要方法,尤其是经验主义方法为算法责任内容构面的确定提供了多个伦理维度与议题的借鉴,规范主义方法提供的不同理论视角为算法责任内容的界定具有启发意义。然而,无论是经验主义方法还是规范主义方法,也都存在较为明显的缺陷和不足。经验主义方法虽然罗列出人工智能(算法)伦理的原则性构面,但它们的底层逻辑不明确,学理支撑不足,不同构面之间缺乏逻辑性,构面的完整性难以自证,基本停留于道义论的普适价值观层面,缺乏对算法责任的系统化与具体化。规范主义方法虽然依据不同理论推演出算法责任内容的不同构成,但一方面它们停留于对选定的既有理论进行移植性应用,没有对算法责任的内在逻辑进行剖解,结果是算法责任内容构面不系统、不全面、不严谨,且与算法责任的本质内涵与应有之义存在不同程度的偏颇,另一方面它们局限于将算法作为一个整体,没能区分算法的不同角色及其责任的差异性,没有深入算法运行的内在机理与实现过程,结果是算法责任内容构面不准确、不具体、不深入,算法责任的“算法特点”体现不充分。进一步来看,经验主义方法和规范主义方法都没有考究算法责任画像的完整构成元素,对除了责任内容之外的其他构面缺乏研究,结果必然是没能建立算法责任的完整画像。

鉴于现有研究的缺陷和不足,需要从界定方法与逻辑思路上对算法责任的构面进行重新审视与再建构,基本方向是回归算法责任的本质内涵,经由规范主义方法推演建立算法责任的内在逻辑链条,衍生形成算法责任的构面框架,结合规范主义方法和经验主义方法将各构面元素具体化,最终建立算法责任的完整画像。首先,由于算法责任是算法对社会责任的承担或承载,因此算法责任在元层面是社会责任。社会责任的缘起在于主体与社会的关系,对于算法责任本质内涵的理解也需要追溯于算法与社会的关系。按照系统层面的算法概念,算法涉及人与机器交互的决策机制(丁晓东,2020),这意味着算法与社会的关系必然涉及到人的“卷入”,进而演变成为人、算法、社会三者之间的关系,即算法责任的认知起点在于人、算法、社会三者之间的关系。其次,人、算法、社会三者关系中,最基础、最核心的是人与算法在决策中的自主权关系,可以用“自主度”来衡量两种自主权之间的比例关系(李升,2020)。依据“自主度”水平,算法的代理者角色可以进一步细化。在当前弱人工智能情境下,当算法在决策中完全没有自主权时,“自主度”将处于最高等级水平,算法在人与算法关系中成为纯粹执行者;当人在决策中占有主导性自主权,算法决策处于辅助地位时,“自主度”将处于较高等级水平,算法在人与算法关系中属于辅助决策者;当算法在决策中拥有主导性的自主权,成为人类决策的接管者(Beer2017),“自主度”将处于较低等级水平,算法在人与算法关系中成为独立决策者。再次,由算法责任认知起点引申出来的两个基本问题是责任性质和责任基础,前者依据人、算法、社会三者关系,可以将算法责任区分为载体责任、延体责任和联体责任,后者由社会责任形成的本质根源,可以将算法责任界定为以功能为基础的责任、以期望为基础的责任和以影响为基础的责任。最后,社会责任的核心问题包括由谁负责、对谁负责、负责什么、负责到什么程度(周祖城,2017)和如何负责(肖红军,2020a),相应地,算法责任也应涵盖这五个维度,即责任主体、责任对象、责任内容、责任程度和责任机制。

综上分析,算法责任的完整构面包括责任缘起、责任性质、责任基础、责任主体、责任对象、责任内容、责任程度和责任机制,它们之间的关系如图1所示。

 

1 算法责任的构面框架

 

(二)基于构面具体化的算法责任全景画像

算法责任画像的轮廓由8个构面以某种逻辑关系勾勒而成,但画像的详细元素与完整画面仍然需要对每一个构面具体化。算法作为纯粹执行者、辅助决策者和独立决策者时,它们的责任缘起、责任性质、责任基础、责任主体、责任对象、责任内容、责任程度和责任机制存在差异,由此它们的画像也不尽相同。进一步来看,由于算法责任是组织社会责任或个体社会责任在算法活动层面的集中反映和深化拓展,且社会责任视域下的“负责任的算法”观实现了对技术中立视域下的责任否定观、技术伦理视域下的道德算法观、人技信任视域下的“可信赖的算法”观的超越,因此算法责任画像的勾勒应以社会责任视域下的“负责任的算法”观为理论指引,以便刻画出来的算法责任能够支持构建负责任的算法。

1.算法作为纯粹执行者的算法责任画像

纯粹执行者意味着算法并不自主做出任何决策,而是以代码的形式完全按照人的指令予以执行,将人的决策意图转化为输出结果,并作用于利益相关方和社会。在纯粹执行者的算法定位下,从责任缘起来看,人(算法主体)、算法、社会的关系呈现为“人→算法→社会”的依序作用关系,算法责任缘起于这一关系模式。从责任性质来看,“人→算法→社会”表明算法成为人与社会互动的介质,算法对于人的决策和活动作用于社会发挥载体功能,算法责任属于载体责任,即承载着人(算法主体)对社会应当承担的责任,由此算法责任在本质上是组织或个体社会责任的延续。从责任基础来看,组织或个体社会责任由组织或个体在经济社会中的功能定位决定,包括核心社会功能和衍生社会功能(肖红军、李平,2019)。算法完全是算法主体发挥核心社会功能和衍生社会功能的载体,算法责任成为以功能为基础的责任。从责任主体来看,算法责任的承担主体是算法主体,算法开发与设计者、部署与应用者需要对利用算法开展相关事项的行为和结果负责。从责任对象来看,以功能为基础的责任意味着算法责任关注于算法参与的核心社会功能和衍生社会功能相关的利益相关方,这些利益相关方并不是算法主体的泛泛一般化利益相关方,而是与这些功能活动或事项相关联的特定利益相关方,即算法责任的负责对象是特定利益相关方。

从责任内容来看,算法责任是组织或个体社会责任内容在算法参与的相关活动或事项上的具体化,按照李伟阳(2010)界定的企业社会责任内容边界,算法责任既包括最大限度实现与活动或事项相关的经济、社会、环境综合价值(核心社会功能),又要求承担对各具体特定利益相关方的责任(衍生社会功能)。比如,搜索引擎可以看作是纯粹执行者,其算法责任是搜索引擎提供商的使命功能在信息搜索服务活动上的具体化,既包括通过提供智能搜索提高信息获取可能性与效率,改变信息不对称和降低交易成本,促进经济发展与带来生活便捷,也要求对智能搜索用户承担权益保护、伦理道德方面的责任。曾经发生的“魏则西事件”就是竞价排名搜索算法对百度公司商业利益至上理念的具体执行,是百度公司对用户缺乏承担商业道德责任在搜索算法上的反映。从责任程度来看,肖红军和李平(2019)将社会责任的担责程度区分为“底线要求”“合理期望”和“贡献优势”3个等级,在算法责任中可以进一步区分为对算法主体和对算法本身的3个层级担责程度。算法作为纯粹执行者时,算法责任的重点是算法主体在相关活动与事项中遵循“底线要求”“合理期望”和“贡献优势”的担责。从责任机制来看,算法责任的实现基本上可以采用组织或个体社会责任的实现方式,即社会责任融入(肖红军,2020a),将社会责任理念和要求融入算法参与的相关活动或事项。

2.算法作为辅助决策者的算法责任画像

辅助决策者意味着算法在决策中具有一定的自主权,参与或代替人做出部分决策,由此算法不仅是人的指令执行者,而且在一定范围和边界内代理人成为自主决策者。尽管如此,占据主导地位的依然是人的自主性,即便算法做出辅助决策,其决策也是人的决策意图的反映,算法决策的输入、过程和结果都处于人的控制之下。在辅助决策者的算法定位下,从责任缘起来看,人(算法主体)、算法、社会的关系同时呈现两种模式,即“人→算法→社会”和“算法→社会”,并以第一种模式为主、第二种模式为辅。从责任性质来看,算法除了发挥“人→算法→社会”的载体功能之外,“算法→社会”表明算法决策也将直接作用于利益相关方和社会,算法责任属于延体责任,即算法作为人(算法主体)的延展体对社会应当承担的责任,算法责任实质上是对组织或个体社会责任的延拓。从责任基础来看,算法作为人(算法主体)的延展体,利益相关方和社会期望算法辅助决策考虑利益相关方诉求并对社会负责任,也对算法主体依托算法负责任地开展相关活动或事项持有期望,算法责任符合Carroll1979)从期望视角定义的社会责任,由此成为以期望为基础的责任。从责任主体来看,算法的代理者角色和延展体定位使得算法决策是人的决策的延续,受控于人,因此算法主体仍然是算法责任的承担主体,算法开发与设计者、部署与应用者应当对算法决策的过程和结果承担责任。从责任对象来看,算法责任不仅关注算法主体开展相关活动或事项的关联特定利益相关方,而且需要考虑与算法本身相关联的特定利益相关方,算法责任的行使对象涵盖这两个方面的特定利益相关方。

从责任内容来看,以期望为基础的责任要求对算法责任内容的界定需要考虑利益相关方和社会对算法主体与算法决策的期望内容,相应的算法责任既包括算法主体开展相关活动或事项的一般性组织或个体社会责任内容,又囊括算法开发设计、部署应用和决策结果全过程对关联特定利益相关方承担的责任内容。比如,智能辅助办案系统是人工智能算法在司法领域的典型应用,其承担的角色即是辅助决策者,此时的算法责任除了司法机构在智能辅助办案系统所参与的案件审理和裁判中承担相应的司法责任之外,还包括司法机构在开发设计和部署应用智能辅助办案系统中对原告、被告、辩护律师、法官等利益相关方承担算法透明度和可解释性、算法正义等方面的责任。美国著名的威斯康辛州诉卢米斯案(State v.Loomis)中,初审法院在量刑中参考和使用了犯罪风险智能评估系统COMPAS对被告累犯风险的评估结果,但被告对初审法院借由COMPAS专业性和商业机密而未予公开算法,以及对COMPAS将性别、种族等个人因素纳入评估范畴而可能出现算法偏见提出质疑,反映出人们对算法开发设计和部署应用中相关责任内容的关注。从责任程度来看,算法责任中的一般性组织或个体社会责任履行涵盖“底线要求”“合理期望”和“贡献优势”3个层级,但与算法本身相关联的特定利益相关方责任,其履行的重点是“底线要求”和“合理期望”两个层次。从责任机制来看,算法责任的实现既要求将社会责任理念和要求融入算法主体开展的相关活动或事项中,更应当在算法开发设计、部署应用和决策结果全过程中融合社会责任理念和要求。

3.算法作为独立决策者的算法责任画像

独立决策者意味着算法在决策中的自主权达到较高水平,机器学习特别是深度学习推动算法决策的高度自动化,算法决策的领域范畴显著扩大并日益代替人的决策(Krafft et al.2020),算法决策居于主导性地位,其决策结果直接作用于利益相关方和社会。然而,算法成为主要决策者并不意味着算法对人的完全替代,也不是人对算法的完全失控,算法开发设计和部署应用仍然是人的目的意图的反映,嵌入人的价值判断,算法决策结果也代表人的决策。在独立决策者的算法定位下,从责任缘起来看,人(算法主体)、算法、社会的关系同时表现出“人→算法→社会”和“算法→社会”两种模式,但以第二种模式为主、第一种模式为辅。从责任性质来看,虽然算法无法作为社会主体而存在,但它作为代替人的重要决策者和“算法→社会”为主的关系模式,说明算法是利益相关方和社会的直接作用者,由此算法和人联合对利益相关方和社会产生影响,算法责任属于联体责任,即算法作为人(算法主体)的联合体共同对社会承担的责任。从责任基础来看,联体责任和算法作为独立决策者意味着算法责任的核心是负责任的算法决策,其根本要求是考虑和管理算法决策对利益相关方和社会的影响,包括消极影响和积极影响,算法责任就是要最小化算法决策的消极影响和最大化算法决策的积极影响,这与ISO2010)定义的社会责任相吻合,由此算法责任可以被认为是以影响为基础的责任。从责任主体来看,理论上算法责任的直接承担主体应当是由人(算法主体)和算法组成的联合体,但由于算法依然是人的目的意图的反映,且联合体中算法主体对算法具有较大影响,因此最终的责任主体可以归结于算法主体。从责任对象来看,除了算法主体开展相关活动或事项的关联特定利益相关方和与算法本身相关联的特定利益相关方外,算法决策的广泛性和独立性使得算法对整个社会产生影响,更广泛的社会主体也将成为算法责任的担责对象。

从责任内容来看,以影响为基础的责任要求对算法责任内容的界定需要分析算法主体行为与算法决策对利益相关方和社会产生的消极影响和积极影响,算法责任的内容即是最小化每一项具体的消极影响和最大化每一项具体的积极影响。它们既反映于算法作为辅助决策者的两个层面算法责任内容,更强调算法影响的可控性,后者要求将预期性、自反性、包容性、回应性、可持续性、关怀的负责任研究与创新纳入算法责任的内容范畴。比如,无人驾驶系统可以认为是独立决策者,其算法责任除了更加便捷舒适的交通出行,以及算法开发设计、部署应用过程中承担算法透明度、可解释性、数据隐私等责任内容外,还需要考虑无人驾驶系统可能引发的安全风险、社会风险、伦理风险等,强调其研究与创新行为对社会负责任,即符合预期性、自反性、包容性、回应性、可持续性、关怀要求。从责任程度来看,算法责任的3个层面内容都应重点涵盖“底线要求”和“合理期望”两个层次,而其中的一般性组织或个体社会责任可考虑“贡献优势”。从责任机制来看,算法责任的实现除了需要社会责任融入之外,更强调构建与应用负责任研究与创新机制,推动算法符合预期性、自反性、包容性、回应性、可持续性、关怀要求。此外,鉴于算法更加高阶和算法决策的独立性,算法责任的实现应当重视敏捷治理,推动算法能够自我修正、自我迭代、自我优化,确保算法发展始终有利于人类。

综合算法作为纯粹执行者、辅助决策者和独立决策者的责任构面具体化,算法责任的完整画像如表2所示。

 

2 算法责任的完整画像

 

五、算法责任治理的逻辑理路与范式建构

算法日益广泛和深刻的社会影响,交织现实中越来越严重的算法责任缺失现象,推动算法责任治理成为算法时代和算法社会需要迫切破解的难题。一方面,类似于一般性的社会责任治理,算法责任治理既是对算法责任缺失和异化问题的矫正,更是推进相关主体对算法责任的落实与践行,二者共同催生负责任的算法。与此同时,算法责任治理属于更宽泛的算法治理的子集,许多算法治理研究直接或间接地涉及算法责任相关内容(Cristianini and Scantamburlo2020),能够为算法责任治理提供重要基础和有益借鉴。另一方面,算法责任治理既与算法治理有所差别,也与一般性的社会责任治理存在差异,因此有必要从深层的治理逻辑剖析出发,构建更加匹配的、更加合意的算法责任治理范式。

(一)算法责任治理的前因与逻辑理路

算法责任治理的对象是算法责任,核心是矫正算法责任缺失或异化,推动算法责任得以践行,这意味着对算法责任缺失或异化进行归因、探寻践行算法责任的影响因素是算法责任治理的首要任务。从操作层面来看,对算法责任缺失或异化进行归因和探寻践行算法责任的影响因素分别从反向和正向考究算法责任落实的出路,本质上具有一致性,践行算法责任的影响因素可以作为开展算法责任缺失或异化归因的分析框架,因此算法责任治理的基础可以归结为开展算法责任缺失或异化归因。进一步来看,算法责任生成的起点是人、算法、社会三者之间的关系,这使得对算法责任缺失或异化进行归因需要聚焦于人、算法、社会三要素及其相互关系。由此,算法责任治理的逻辑理路是“算法责任缺失或异化归因→人、算法、社会三要素归因→三要素缺陷与诱因矫正→形成与算法责任践行相适配的三要素→算法责任得以协同践行→负责任的算法”。按照三要素归因,算法责任缺失或异化通常由“人”的行为偏差、算法的技术缺陷和社会的生态失调互动引致,相应地,算法责任治理的重点分别为对“人”、算法和社会的治理,由此形成“‘人’的行为偏差→人为型算法失当→对‘人’的治理”“算法的技术缺陷→功能型算法失当→对算法的治理”“社会的生态失调→触发型算法失当→对社会的治理”3个治理逻辑链条。

1.“人”的行为偏差→人为型算法失当→对“人”的治理

这里的“人”指的是算法的人类主体,包括算法的开发者、设计者、部署者和应用者,可以是组织和个体人,但通常更多的是指组织。算法责任缺失或异化问题相当大一部分是由于“人”的不负责任行为造成的,特别是在算法作为纯粹执行者和辅助决策者的情形下尤为如此,这种算法责任缺失或异化可以称作人为型算法失当。结合福格的“动机、能力、触发条件”三因素个体行为模型(Fogg’s Behavior Model)和组织社会责任实现的“意愿—能力—制度—行为—结果”逻辑链条,“人”在算法开发、设计、部署和应用中的行为主要受到动机或意愿、能力和制度等本体因素影响,而动机或意愿又深受自身的价值认知影响,因此其不负责任的行为可以归因为价值偏差、能力偏差和制度偏差。首先,从价值偏差来看,许多组织缺乏社会责任意识,秉持纯粹自利导向的利益最大化使命追求,算法开发、设计、部署和应用成为其实现自我利益最大化的工具性活动,完全忽视算法对利益相关方诉求和社会价值的关切,甚至违背道德伦理底线,结果是组织的不良意图被嵌入算法,对利益相关方和社会产生不良后果。其次,从能力偏差来看,对于接受差异化价值判断的人,他们可能会有正当理由设计出不同的算法(Kraemer et al.2011),这意味着算法开发设计组织或个人应当拥有双重能力,不仅具有算法设计的专业能力,而且应当具备合乎社会责任的价值判断能力。但在现实中,算法开发设计组织或个人往往缺乏诸如价值敏感性设计(Friedman et al.2002)、劝导式设计等伦理设计能力,而且对于深度学习等复杂算法的驾驭能力较弱,无法对算法可能出现的不负责任的“突现”(Emergent)行为进行监督管理,结果是开发设计出来的算法存在偏离社会责任的“漏洞”。最后,从制度偏差来看,许多算法开发、设计、部署和应用组织采用的制度逻辑是纯粹的市场逻辑或商业逻辑,制度激励与约束均为市场导向或商业导向,缺乏社会责任制度供给,没有建立负责任研究与创新的制度体系,算法开发、设计、部署和应用中的社会责任规范完全缺失,对负责任的算法开发、设计、部署和应用缺乏制度激励与约束,结果是引发组织或个人开展不负责任的算法活动。

2.算法的技术缺陷→功能型算法失当→对算法的治理

除了“故意为之”或“能力缺陷”的人为型算法失当外,算法本身存在的技术缺陷也可能引发算法责任缺失或异化现象,形成“无意为之”的功能型算法失当,这在算法作为独立决策者的情形下更为突出。按照技术哲学荷兰学派Houkes和Vermaas2004)的观点,功能偶发性失常是技术人工物的一种普遍现象,算法作为技术人工物也会出现功能偶发性失常现象,尤其是对社会责任的偏离。从算法系统的运行过程来看,算法技术缺陷引致功能型算法失当可以具体归因于四个方面:一是输入数据的缺陷。“GIGO定律”(Garbage InGarbage Out)是计算机科学领域的一个著名定律,意思是如果输入的是垃圾数据,那么输出也会是垃圾数据,典型的是算法经常发生的“偏见进,偏见出”(Bias InBias Out)的算法歧视问题。算法模型的形成往往需要大量数据进行训练、学习和数据挖掘,输入数据或训练数据有限、不相关或不正确,以及数据未脱敏、大小样本差别悬殊,都可能因过拟合和“冗余编码”而导致算法判断错误或算法输出偏差。二是算法方法的缺陷。一方面,算法领域如人工智能越来越多地呈现出概率关联困境,即只关注相关性而不关心因果,只进行归纳而不做演绎(汪怀君、汝绪华,2020),这使得算法决策在社会领域可能出现偏误;另一方面,无论是机器学习、深度学习或是强化学习,其算法技术本身仍然具有较大的不成熟性,它们采用的正则化算法、集成算法、降维算法、贝叶斯算法、关联规则学习算法、图模型等诸多方法均存在局限性,容易导致算法决策结果出现偏差。此外,自动化的算法决策系统可能会将某些对于决策程序非常重要的道德价值或“软性”价值予以剔除(Roth2016),结果是引发算法决策对社会伦理的背离。三是人机互动的缺陷。算法的应用端是学习端的延伸,因为算法在应用过程中需要根据接收到的数据不断地进行自我修正。然而,这些接受到的数据可能来自价值观迥异的不同主体,接触的场景也多种多样,而算法自身无法做到对不良价值观的“有意识的抵制”,因此算法自我修正的方向难以预料,很有可能被人类所“教坏”。四是不可解释性的缺陷。算法尤其是深度学习的自主算法极其复杂,很难甚至不可预测,自我解释性差,算法的技术黑箱难题始终没能有效解决,算法黑箱的不负责任决策很难控制。

3.社会的生态失调→触发型算法失当→对社会的治理

这里的“社会”在宏观上指的是经济、社会、环境总称,在微观上则具体化为与“人”的行为和算法决策相关联的利益相关方,包括直接利益相关方(如算法决策的受体)和间接利益相关方(如社会公众)。在人、算法、社会三者关系中,社会具有双重角色,既是“人”的行为和算法决策的作用对象,受到这些行为和决策的影响,又为“人”的行为和算法决策提供发生场景,对这些行为和决策产生影响。实际上,无论是“影响”还是“被影响”,社会都为算法的开发者、设计者、部署者和应用者开展算法相关活动构建了“生态”,算法决策发生于这一“生态”中。如果“生态”出现失调,就容易触发算法开发、设计、部署和应用中的不负责任行为,引发算法决策的偏颇结果被不当使用,形成触发型算法失当现象。从社会“生态”构成来看,算法责任缺失或异化的具体触发因素主要包括3个方面:一是互动系统失调。算法权力的崛起对人的主体性形成严重削弱,在人、算法、社会的互动系统中,往往出现将算法置于绝对的中心,完全弱化甚至排除人的自主性。一方面,决策程序中将决策权力完全交由算法,即便是算法因技术缺陷引发功能型失当和不负责任的“突现”,程序中也缺乏人的识别、判断与纠偏,另一方面,算法决策的受体拥有的合法合理权利不足,数据权利未有保障,完全受自动化算法决策结果的制约,即便算法决策出现偏误亦如此。二是算法素养失调。无论是算法决策的受体还是社会公众,与数字经济蓬勃发展相匹配的数字素养尚未形成,算法认知与算法互动能力尚处于低位阶,互动过程中自我保护意识和维护权利意识较弱,对负责任的算法期望不足与错位并存。三是规制能力失调。随着由产品化算法到工具化算法再到本体化算法的演化,算法规制亟需进行迭代和革新(张凌寒,2019),但目前算法的法律地位并不明确,“责任鸿沟”问题(Matthias2004)或“行为人与责任人相分离”的困境(张凌寒,2021a)未能破解。政府对算法的规制相当程度上停留于传统规制思维,规制范式、规制方法、规制手段均无法适应算法快速演化的需要,与构建负责任的算法要求不适配,难以走出算法技术发展所产生的科林格里奇困境(Collingridge’s Dilemma)。

(二)算法责任综合治理范式的九宫格模型

对于算法责任治理范式,目前的直接或间接研究主要有两类:第一类是整体性的治理范式,如针对人工智能或算法的节点治理和协同治理(杜严勇,2018)、场景化治理(丁晓东,2020)、精准化治理(张欣,2021);第二类是具体化的治理方式,如算法透明度(Lepri et al.2018)、算法可解释性(Martin2019Criado et al.2020)、个体数据赋权(丁晓东,2020)、算法影响评估制度(张凌寒,2021b)、算法审计(张超,2021)、算法问责制(Neyland2019)、道德算法(Wallach and Allen2009;李伦、孙保学,2018)。深入分析来看,对算法责任治理范式的已有研究至少存在3个方面的不足:缺乏对算法责任的深度理解与系统刻画,没有从真正意义和完整意义的社会责任角度对算法责任治理范式进行建构;缺乏对算法责任治理逻辑的详细剖解,没有形成算法责任治理范式建构的完整逻辑链条;缺乏算法责任治理的综合性框架,多数范式或方式聚焦于算法责任治理的特定领域、特定方法和特定主体,无法实现对算法责任的全面系统治理。实际上,“负责任的算法”的构建应当是算法责任的全面落实,相应的算法责任治理也应当是综合性的、系统性的,即算法责任综合治理范式。

算法责任综合治理的基本思路是:一是治理要素的综合性。算法责任治理应当全面涵盖人、算法、社会三要素,包括对“人”的治理、对算法的治理和对社会的治理。二是责任机制的综合性。算法责任治理需要综合运用算法责任的多种实现机制,包括基础层次的社会责任融入、中间层次的负责任研究与创新、高阶层次的敏捷治理。三是归因矫正的综合性。算法责任治理应当囊括对人为型算法失当、功能型算法失当、触发型算法失当的治理,针对它们所产生的各类成因进行矫正。四是治理方式的综合性。算法责任治理需要将各类治理方式和治理手段进行整合,形成可以用于算法责任普遍性治理和特定性治理的方法集合。按照这一思路,结合算法责任治理的逻辑理路,可以将治理要素作为一个维度,区分为对“人”的治理、对算法的治理和对社会的治理,将责任机制作为另一维度,区分为社会责任融入、负责任研究与创新、敏捷治理,两个维度结合起来,并考虑算法责任缺失或异化的归因,可以构造出算法责任治理的9种方式,形成算法责任综合治理的九宫格模型,如图2所示。由此,算法责任综合治理包括对“人”的3种治理方式,即责任内生型组织、双重能力建构、算法监管与问责,对算法的3种治理方式,即责任融合型算法、算法影响评估、算法技术动态完善,对社会的3种治理方式,即责任联结型构造、个体赋权、协同治理能力提升。

 

2 算法责任综合治理范式的九宫格模型

 

1.对“人”的3种治理方式

“人”的治理是算法责任的基础治理,催生算法开发者、设计者、部署者和应用者落实算法责任的意愿、能力与行为对于算法责任治理最为根本。基于3种责任机制在“人”的层面的应用和落实,结合人为型算法失当的归因,对“人”的治理可以采用3种方式:一是责任内生型组织。算法开发者、设计者、部署者和应用者对算法责任的落实,首要的是它们成为对社会负责任的组织,基本的方式是通过社会责任融入整个组织(ISO2010),构建形成责任内生型组织。责任内生型组织意味着将社会责任融入组织使命和价值观,推动组织超越纯粹自利导向的利益最大化追求,取而代之的是社会价值驱动,进而内生出对社会负责任和贡献于可持续发展的动力或意愿。责任内生型组织还要求将社会责任融入组织运营与管理,超越单一制度逻辑的主导,推动价值链活动最大限度创造社会价值和共享价值。责任内生型组织实际上定义了算法开发者、设计者、部署者和应用者的本质属性,能够从组织的“内心深处”生发出落实算法责任的意愿,推动组织将社会责任融入于算法的开发、设计、部署和应用。二是双重能力建构。相较于一般性社会责任,算法责任的落实有其特殊性,算法开发者、设计者、部署者和应用者需要在内生履责意愿的基础上,将负责任研究与创新要求和方法植入于算法开发、设计、部署、应用全过程,这要求他们培育、拥有和提升算法相关的专业技术能力与价值判断能力。特别是,算法开发者、设计者需要着眼于规避算法开发设计的消极影响和增进其积极影响,不断增强负责任的算法设计能力,科学掌握和应用“设计者的道德想象”与“扩展的建设性技术评估”(Verbeek2006)、预期性技术伦理方法(Brey2012)、价值敏感性设计、劝导式设计等多种负责任的算法设计方法。三是算法监管与问责。除了自治外,算法责任的落实也离不开对“人”的他治或外部治理,需要将更加适配于前沿科技、新兴技术、新兴产业的敏捷治理要求和方法应用于对“人”的治理,形成更加灵活多元、动态敏捷的算法监管和算法问责。敏捷治理框架下的算法监管需要改变监管者与被监管者之间“猫和老鼠”的传统博弈关系(薛澜、赵静,2019),增强算法开发者、设计者、部署者、应用者与监管机构的互动,推动算法监管更具包容性、适应性、精准性和可持续性。算法监管的重要方式是推行算法问责制,即明确谁对算法决策承担责任和义务(Lepri et al.2018),要求其承担决策的消极性后果并予以责任追究的制度。算法问责制不仅要对算法的社会影响进行责任分配,通过责任明确、责任要求和责任追究的方式督促算法开发者、设计者、部署者和应用者落实算法责任,更要求减轻算法可能造成的负面社会影响和引致的潜在伤害(Neyland2019),对已经发生的伤害进行救治。

2.对算法的3种治理方式

对算法的治理是算法责任的焦点治理,构建饱含社会责任元素、能够进行负责任判断与决策、具有自我矫正修复功能的算法对于算法责任治理至为关键,能够有效破解人的“道德脆弱”(Moral Weakness)问题(Thero2006)。基于3种责任机制在算法本身层面的应用和落实,结合功能型算法失当的归因,对算法的治理可以采用3种方式:一是责任融合型算法。通过将社会责任融入算法本体,推动算法自身拥有负责任的判断和决策能力,形成责任融合型算法,是算法责任得以落实的“物化”和“智化”方式。类似于道德算法的实现进路,责任融合型算法也有3种实现方法:责任嵌入、责任学习和混合法。责任嵌入即“自上而下”的方法,是将社会责任的理念要求和具体元素嵌入算法,形成算法决策不同场景的社会责任抉择标准,构造出如康德式机器(Kantian Machine)的人工责任(道德)行动体。责任学习即“自下而上”的方法,“自下而上”式进路或数据驱动进路受到生物进化的启发,重点是创造一种环境,算法可以在这种环境中进行责任训练、学习和行为探索,不断自我发展进化,形成稳定的负责任推理模式和决策能力,从而能够对各种复杂场景做出负责任的反应。责任嵌入和责任学习两种方法具有互补性而非相互排斥,现实中往往将它们结合起来,形成责任融合型算法实现的混合式解决方法与综合进路。二是算法影响评估。负责任研究与创新要求算法本身应当符合预期性、自反性、包容性、回应性、可持续性、关怀要求,破解算法发展的科林格里奇困境,因此针对算法本身可以应用负责任研究与创新的多种方法,尤其是实时技术评估(Guston and Sarewitz2002)和技术社会评估(Stirling2008)等自反性方法,构建形成算法影响评估制度。算法影响评估是根据事前确立的衡量标准,对算法决策系统的性能风险和社会影响进行系统评判,确定相应的风险等级和影响水平(张欣,2021)。算法影响评估采用事前、事中、事后相结合的全过程动态评估方式,在技术层面强调对算法本身的安全性、稳健性、可解释性进行评估,在社会层面强调对算法决策可能产生的社会影响开展评估,并依据评估结果采取控制与治理举措,降低算法可能出现的算法失当风险及其负面影响。三是算法技术动态完善。敏捷治理在技术层面要求技术本身具有自适应性与自愈能力,能够敏捷地自我矫正和动态完善。算法责任的敏捷治理意味着算法本身能够对可能出现的功能型算法失当问题进行技术规避,对算法决策可能存在社会影响方面的缺陷进行算法自我矫正,这要求对算法技术进行动态完善和迭代升级。比如,可以采用代码审计、审计工具审计、爬取审计、非侵入用户审计、代理审计、众包审计等多种算法审计技术识别算法的盲点或偏差(张超,2021),运用无监督训练、“能觉察歧视的数据挖掘技术”“公正、负责任和透明的机器学习”等技术规避和矫正数据、算法、人机互动方面的缺陷;也可以针对操作算法另外设计一套监督算法(Etzioni and Etzioni2016),对算法运行时出现偏差及时纠正或终止。

3.对社会的3种治理方式

对社会的治理是算法责任的生态治理,增强算法决策的受体、社会公众、政府、更广泛社会主体等直接或间接利益相关方的算法素养和监督能力,形成更具包容性的可持续算法社会生态。基于3种责任机制在社会层面的应用和落实,结合触发型算法失当的归因,对社会的治理可以采用3种方式:一是责任联结型构造。算法责任在社会层面的落实首先要求将社会责任融入于人、算法、社会互动系统,构建以人为本、以人类为中心的系统结构,形成人、算法、社会三者之间的责任联结型构造。责任联结型构造的关键是在人、算法、社会三者互动系统中设置负责任的决策程序,通过增强人的自主性来规避或缓解算法的功能型失当和不负责任的“突现”,因为人类的裁量力、判断力和能动性被认为是克服规则内生缺陷的关键武器(Yeung2017)。这意味着对于算法作为纯粹执行者和辅助决策者的情形,算法决策闭环程序中可以植入一定的人为干预,以解决算法自动决策可能出现的偏差;对于算法作为独立决策者的情形,算法决策程序应着重建立事后机制,赋予算法决策的受体拥有质疑、反对或参与决策的机会,确保决策的可靠性。二是个体赋权。负责任研究与创新的包容性和反应性维度都要求算法开发、设计、部署、应用过程中与算法决策受体的互动,而鉴于受体在互动过程中往往处于“弱势地位”,因此可以通过个体赋权增强受体的互动能力和逆向影响算法能力。个体赋权是对个体在算法的输入、训练、决策和输出全过程中赋予相关权利,增强他们行使这些权利的能力与制度安排,典型的是个人数据赋权和算法解释权。个人数据赋权将对算法责任的治理镶嵌于数据治理框架之下,通过对个人赋予多种数据权利而使个体能够对算法决策施加干预,甚至直接赋予个人对仅仅基于算法自动化处理输出决定有权不受制约的权利(张欣,2019b)。算法解释权着眼于增强算法透明和可理解性,赋予个体寻求算法决策结果产生原因和理由的权利,要求算法主体采用“反设事实解释”的方法或以普通人可以充分理解的方式对算法做出解释(辛巧巧,2021)。从构造来看,算法解释权包括算法所需个人信息的解释权、算法逻辑的解释权和算法审计的解释权3个层次(许可、朱悦,2020)。比如,针对算法逻辑的解释权,美团外卖于2021年9月首次公开了骑手配送时间的计算规则和预估送达时间的算法逻辑,11月又公开了订单分配算法。三是协同治理能力提升。敏捷治理要求在社会层面对算法责任开展多元主体共治,推动用户、社会公众、社会组织等更多社会主体参与,形成算法责任协同治理的格局。这意味着要培养和提升全民的算法素养,增强政府数字监管和算法规制的敏捷能力,推动多元社会主体形成对算法责任治理的共识,增进不同社会主体参与算法责任治理的意愿,形成对算法责任协同治理的合力。

(三)算法责任治理方式的场景化适配

虽然算法责任治理的9种方式具有普适性,但其重要性和强度要求与算法场景密切相关,它们之间的适配性直接决定算法责任治理的效果。比如,“有意义的”(Meaningful)算法透明(Brauneis and Goodman2018)应当区分不同算法拥有者、不同主体、不同情形的场景,施加不同的算法公开责任和开展不同范围不同程度的算法公开,个人数据赋权也需要依据场景和对象不同决定赋权的类型与强度(丁晓东,2020)。进一步来看,一方面,人与算法在决策中的自主权关系即“自主度”差异引致不同的算法责任画像,由此使得不同算法责任治理方式在算法作为纯粹执行者、辅助决策者、独立决策者时的重要性和强度要求表现出差异性。另一方面,算法的应用领域是影响算法决策的重要治理因素(张欣,2019a),不同算法责任治理方式对应用于商业领域与公用事业领域的算法将呈现出不同的重要性和强度要求。结合这两个方面因素,就可以细分出6个算法场景:商业领域的纯粹执行者(场景1)、公用事业领域的纯粹执行者(场景2)、商业领域的辅助决策者(场景3)、公用事业领域的辅助决策者(场景4)、商业领域的独立决策者(场景5)、公用事业领域的独立决策者(场景6)。如果将算法责任治理方式对于某一算法场景的重要性区分为高、中、低3个层次,将强度要求分为强、中、弱3个等级,那么算法责任治理的9种方式在6个算法场景中的重要性和强度要求就如表3的适配性矩阵所示。

 

3 算法责任治理方式与不同算法场景的适配性矩阵

 

六、结论与建议

(一)研究结论与边际贡献

针对普遍存在的算法失当现象和算法责任缺失问题,本文尝试从算法责任命题证成、算法责任观流变、算法责任画像和算法责任治理等方面对算法责任开展探索性的系统研究,并得到以下6个方面的主要结论:一是算法作为人的代理者角色定位是算法责任产生的认知基础,算法存在的社会嵌入、算法主体的价值迁移和算法结果的社会影响等算法的多元价值载荷是算法责任生成的根本缘起,算法权力崛起孪生出匹配性的算法责任、算法权力滥用催生出约束性的算法责任是算法责任出场的现实逻辑,责任向度的综合性、责任定位的代理性、责任形态的隐蔽性彰显出算法责任的特殊性,这些使得算法责任作为一个具有正当性与合理性的真命题得以证成。二是基于不同时期对算法本质与算法责任本质认知的演变,算法责任观大致经历了技术中立视域下的责任否定观、技术伦理视域下的道德算法观、人技信任视域下的“可信赖的算法”观、社会责任视域下的“负责任的算法”观的流变与迭代,负责任的算法成为算法发展的最新取向。三是依据人与算法在决策中的自主权关系,算法的代理者角色可以进一步细分为纯粹执行者、辅助决策者和独立决策者,它们结合责任缘起、责任性质、责任基础、责任主体、责任对象、责任内容、责任程度和责任机制等算法责任的8个构面,可以绘制算法责任的全景画像。四是算法责任治理的逻辑理路是“算法责任缺失或异化归因→人、算法、社会三要素归因→三要素缺陷与诱因矫正→形成与算法责任践行相适配的三要素→算法责任得以协同践行→负责任的算法”,即涵盖“‘人’的行为偏差→人为型算法失当→对‘人’的治理”“算法的技术缺陷→功能型算法失当→对算法的治理”“社会的生态失调→触发型算法失当→对社会的治理”3个治理逻辑链条。五是结合治理要素与责任机制,可以构建算法责任综合治理范式的九宫格模型,构造出算法责任治理的9种方式,包括对“人”的3种治理方式,即责任内生型组织、双重能力建构、算法监管与问责,对算法的3种治理方式,即责任融合型算法、算法影响评估、算法技术动态完善,对社会的3种治理方式,即责任联结型构造、个体赋权、协同治理能力提升。六是算法责任治理的9种方式在算法作为商业领域的纯粹执行者、公用事业领域的纯粹执行者、商业领域的辅助决策者、公用事业领域的辅助决策者、商业领域的独立决策者、公用事业领域的独立决策者等6个算法场景中的重要性和强度要求呈现出差异性,算法责任治理方式应与算法场景高度适配。

本文的边界贡献主要体现在5个方面:一是对算法责任命题的正当性与合理性进行了理论证成。基于社会责任视角对算法责任概念进行界定的基础上,从算法责任产生的认知基础即算法作为人的代理者角色、算法责任生成的根本缘起即算法的多元价值载荷、算法责任出场的现实逻辑即算法权力崛起与滥用、算法责任的特殊性等4个层次,论证认为算法责任一个具有正当性与合理性的真命题。二是对算法责任观的纵向流变进行了系统剖析和深度解构。从理论基础、算法本质认知、算法责任本质认知、算法责任核心构成、认知局限性等多个维度,对技术中立视域下的责任否定观、技术伦理视域下的道德算法观、人技信任视域下的“可信赖的算法”观、社会责任视域下的“负责任的算法”观等四种算法责任观的演变进行了刻画和比较分析。三是对算法责任的全景画像进行了建构。从责任缘起、责任性质、责任基础、责任主体、责任对象、责任内容、责任程度和责任机制等8个构面,对算法作为纯粹执行者、辅助决策者和独立决策者的算法责任画像分别进行了绘制,并综合生成算法责任的完整画像。四是对算法责任综合治理范式进行了模型建构和逻辑解析。在分析算法责任治理的3条逻辑理路基础上,结合治理要素(对“人”的治理、对算法的治理、对社会的治理)和责任机制(社会责任融入、负责任研究与创新、敏捷治理)两个维度,构建形成算法责任综合治理范式的九宫格模型,对每一治理方式进行了解析。五是对算法责任治理方式与算法场景的适配性进行了系统分析。结合算法责任治理的9种方式和6个算法场景,考虑重要性和强度要求两个方面,构建了算法责任治理方式与算法场景的适配性矩阵。

(二)政策启示与实践建议

算法责任是一个强实践性概念,加之算法实践的新兴性、复杂性和动态性,因此有效的算法责任治理需要在综合治理范式建构的基础上,从政府和企业两类治理主体角度,进一步探寻合意的实践进路和因应对策,推动治理的精度、信度和效度不断提升,形成更高质量的“负责任的算法”。

1.政府层面:加快算法责任制度供给与创新算法监管方式

算法的广泛渗透性和社会影响性使得算法责任日益成为公共议程重点关注的对象,政府作为最后的“数字守门人”,在算法责任治理中扮演着越来越重要的制度供给和算法监管角色。从制度供给来看,政府需要根据算法责任的运行规律和动态演化,采取法律固化与框架指导并用的方式,加快建立健全算法责任制度体系。类似于一般性社会责任的“必尽之责任”或强制性内容不断增多,算法责任中“底线要求”也在日益扩展与强化,算法责任的“硬化”趋势开始显现。随着算法失当现象的大量涌现,社会对算法的法律规制呼声日渐高涨,算法责任的法制化越来越受到重视。算法责任治理中对算法开发者、设计者、部署者和应用者的行为约束,对算法本身的影响评估,对算法参与社会决策程序的要求和个体赋权,都应当通过法律固化和具体化的方式增强其强制性。在现实中,欧盟发布的《通用数据保护条例》(GDPR)、美国通过的多部算法问责法(及法案)、加拿大颁布的《自动化决策指令》、中国公布的《中华人民共和国个人信息保护法》(2021年11月1日施行)、国家互联网信息办公室等九部门联合印发的《关于加强互联网信息服务算法综合治理的指导意见》(国信办发文[2021]7号)都对算法责任和算法责任治理的相关内容进行了法律法规上的规定,但与算法经济和算法社会快速发展对算法责任治理的需求之间仍有差距,算法责任的法制化需要进一步完善。除了法律固化外,算法责任的许多议题和要求类似一般性社会责任的“应尽之责任”与“愿尽之责任”,特别是涉及算法伦理和道德抉择的责任议题,很多难以通过明确的法制化予以强制实施,而是应当建立明确的原则框架和操作准则给予行为指导。负责任的算法开发、设计、部署和应用,以及算法的责任嵌入、责任学习,其实现很大程度上依赖于遵循和应用适宜的原则框架和操作准则。

从算法监管来看,算法的代理者角色和隐蔽性特点决定政府需要改变用于传统市场主体的监管模式,针对算法主体和算法责任构建更加灵活高效、更加动态新颖、更加适宜可靠的监管方式。一方面,要推动头部治理与生态共建并进。数智经济的头部化趋势日益明显,头部企业在以机器学习算法为根基的人工智能、互联网平台等行业占据主导地位,不仅是市场份额、流量、数据、算法的支配者甚至垄断者,而且在以头部企业为核心型成员的商业生态系统中处于最高生态位,是具有实质选择权的生态领导(肖红军,2020b),对行业内其他企业具有行为示范功能与生态治理功能。现实中,人工智能、互联网平台等行业头部企业的算法失当现象频频发生,在社会上产生了严重的不良影响,对行业健康发展形成重大挑战。因此,算法责任治理应当将头部企业作为“少数关键”,对其落实算法责任进行多措并举的治理,推动头部企业构建负责任的算法,成为负责任的“少数关键”,确保头部企业发挥算法责任落实的正向影响和示范作用。除了头部企业治理,人工智能、互联网平台等行业的算法生态建设至关重要,因为生态健康能够形成对众多算法开发者、设计者、部署者和应用者的集体治理。算法生态建设要求推动个体、组织、系统、社会的共同参与、共同建设、共同治理,引导头部企业之间、头部企业与行业内其他企业之间开展落实算法责任的相互合作与监督。另一方面,要采取约束惩戒与激励诱导并重。算法责任治理应当综合运用多种治理手段和治理工具,在对“人”的治理、对算法的治理和对社会的治理中,将约束惩戒的强制性手段与激励诱导的引致性方法相结合,既将算法活动关进制度约束的笼子里,又鼓励负责任的算法得到更高质量和更高水平的发展。对于约束惩戒,政府需要完善算法问责制度,加大算法问责力度,对算法失当行为予以问责、处罚和惩戒,形成对算法开发者、设计者、部署者和应用者违背算法责任的“震慑”。对于激励诱导,算法责任治理需要充分考虑数智化技术的新兴性、算法责任发展的初期性、全社会算法素养尚不高的现实性,可以采用诱致性制度和激励性手段,激发算法开发者、设计者、部署者和应用者自觉落实算法责任的积极性,增强其自愿践行算法责任的能力,引导他们主动创新算法责任落实的方式和技术,持续提升算法责任落实效果。

2.企业层面:全面落实算法责任议题与构建可持续性算法商业模式

企业作为关键的算法主体,往往是算法的开发者、设计者、部署者和应用者,在算法责任治理中发挥着第一关“守门人”功能,因此在《关于加强互联网信息服务算法综合治理的指导意见》(国信办发文[2021]7号)中,明确提出要强化算法治理的企业主体责任。从企业视角来看,算法责任治理的核心是要将算法责任议题全面落到实处,既包括风险型议题,也涵盖价值型议题。前者要求企业树立社会风险防范意识,多维度梳理和挖掘算法的社会越轨行为影响因素和表现,预判、规避和应对算法开发、设计、部署、应用中可能出现的社会风险;后者要求企业超越技术伦理往往忽视如何最大化社会利益、最大限度造福社会问题(Brundage2016)的局限,将创造积极的社会价值融入算法开发、设计、部署和应用,运用共享价值、战略性社会责任、社会资源优化配置、社会问题管理的方法,对算法的积极影响予以扩展,推动算法决策和算法活动的价值增进。算法责任议题的落实一方面要求企业将普适性的算法责任理念和要求落地,推动算法开发、设计、部署和应用融合元层面的社会责任思想、过程层面的负责任研究与创新、敏捷治理要求,形成算法责任的普遍治理和系统治理;另一方面要求企业考虑特定算法责任议题的特点和规律,探索、深化和创新不同议题治理的特殊要求与方法。比如,对于算法透明议题,需要考虑算法“黑箱”的特殊性,通常认为包括真实黑箱(Real Secrecy)、法律黑箱(Legal Secrecy)、混淆性(Obfuscation)三类(Pasquale2015)或者技术黑箱、解释黑箱、组织黑箱三类(浮婷,2020),由此算法透明的实现方式与机制具有多维性和多样性,需要针对性地构建治理方式和策略。对于算法共谋议题,需要对算法共谋形成的不同原因进行分析,依据共谋治理的基本方法,针对信使型共谋(Messenger)、轴辐型共谋(Hub and Spoke)、预测型共谋(Predictable Agent)、自主型共谋(Autonomous Machine)(Ezrachi and Stucke2017)实施差异化的治理。

进一步来看,企业兼具商业性与社会性,依托算法开展商业模式创新是企业在算法时代赢得竞争的重要利器。落实算法责任要求企业在实施以算法为支撑甚至驱动的商业模式创新时,应当改变传统上以纯粹商业利益为导向、以短期增益为目标的商业逻辑,取而代之的是以综合创造经济价值与社会价值为导向、以长期主义和可持续发展为方向的可持续性商业模式创新,构建形成具有“高经济影响—高社会影响”的可持续性算法商业模式。可持续性算法商业模式意味着企业的算法商业实践应当做到:一是坚守底线,即算法商业活动必须严守相关法律法规和伦理道德底线,不能逾越;二是创造长期的而非短期的综合价值与共享价值,更不能只是单纯的企业价值增益;三是最小化算法商业活动可能产生的直接社会风险,防范算法商业模式创新引发的次生风险,确保算法商业实践的可持续性。比如,智能算法推荐平台传统上采用的即为以企业利益最大化为导向的商业模式创新,通过智能算法推荐向用户推送大量同质内容,一方面用户使用时间增加了,平台获得更大流量,另一方面也因提供用户感兴趣的同质内容而提升了用户体验和使用效率,这一商业模式似乎实现了平台与用户的“双赢”。然而,推送大量同质内容虽然解决了用户兴趣匹配和信息获取效率问题,但却引发用户陷入“信息茧房”困境的次生风险。从短期来看,用户似乎因为体验感和使用效率提升而获得短期价值增益,但长期来看却因陷入“信息茧房”困境而对用户造成更大消极影响。从个体来看,平台与用户似乎因为各自获得增益而达成“双赢”,但从全社会来看,“信息茧房”增加群体极化可能,容易割裂公共议题,造成社会黏性削弱,形成对社会的巨大危害。更有甚者,一些智能算法推荐平台为迎合用户的“不健康兴趣”,向用户推送大量有悖公序良俗的内容,不仅对用户身心健康造成负面影响,也对社会秩序形成扰乱。如此,智能算法推荐平台将受到社会质疑,外部“合法性”下降甚至丧失将使这一商业模式变得不可持续。落实算法责任必然要求智能算法推荐平台改变以最大化企业利益、短期利益、个体理性为核心的传统商业模式,转而迈向以创造长期综合价值与共享价值、实现个体理性与社会理性相协调为导向的可持续性算法商业模式。为此,智能算法推荐平台需要在坚守底线的基础上,改进甚至变革算法推荐机制,既发挥增进用户体验和使用效率的积极功能,更应防范和破解社会关注的“信息茧房”难题,推动社会价值、用户价值和企业价值的协同实现。

 

参考文献

(1)大卫·萨普特:《被算法操控的生活:重新定义精准广告、大数据和AI》,易文波译,湖南科学技术出版社,2020年。

(2)卢西亚诺·弗洛里迪:《第四次革命》,王文革译,浙江人民出版社,2016年。

(3)安东尼·吉登斯:《现代性的后果》,田禾译,译林出版社,2000年。

(4)凯伦·杨、马丁·洛奇:《驯服算法:数字歧视与算法规制》,林少伟、唐林垚译,上海人民出版社,2020年。

(5)陈凡、贾璐萌:《技术伦理学新思潮探析--维贝克“道德物化”思想述评》,《科学技术哲学研究》,2015年第6期。

(6)崔靖梓:《算法歧视挑战下平等权保护的危机与应对》,《法律科学(西北政法大学学报)》,2019年第3期。

(7)丁晓东:《论算法的法律规制》,《中国社会科学》,2020年第12期。

(8)杜严勇:《论人工智能的自反性伦理治理》,《新疆师范大学学报(哲学社会科学版)》,2018年第2期。

(9)浮婷:《算法“黑箱”与算法责任机制研究》,中国社会科学院大学(研究生院)博士学位论文,2020年。

(10)郭林生、李小燕:《“算法伦理”的价值基础及其建构进路》,《自然辩证法通讯》,2020年第4期。

(11)贾璐萌、陈凡:《当代技术伦理实现的范式转型》,《东北大学学报(社会科学版)》,2021年第2期。

(12)匡文波:《智能算法推荐技术的逻辑理路、伦理问题及规制方略》,《深圳大学学报(人文社会科学版)》,2021年第1期。

(13)李丹:《算法歧视消费者:行为机制、损益界定与协同规制》,《上海财经大学学报》,2021年第2期。

(14)李伦、孙保学:《给人工智能一颗“良芯(良心)”--人工智能伦理研究的四个维度》,《教学与研究》,2018年第8期。

(15)李升:《论人工智能伦理准则的细化与完善--基于50部人工智能伦理准则的梳理与解读》,浙江大学硕士学位论文,2020年。

(16)李伟阳、肖红军:《企业社会责任的逻辑》,《中国工业经济》,2011年第10期。

(17)李伟阳:《基于企业本质的企业社会责任边界研究》,《中国工业经济》,2010年第9期。

(18)李应潭:《人工智能可信赖性与可信赖算法研究》,《信息与控制》,1999年第2期。

(19)刘培、池忠军:《算法的伦理问题及其解决进路》,《东北大学学报(社会科学版)》,2019年第2期。

(20)刘友华:《算法偏见及其规制路径研究》,《法学杂志》,2019年第6期。

(21)梅亮、陈劲:《责任式创新:源起、归因解析与理论框架》,《管理世界》,2015年第8期。

(22)孟令宇:《算法伦理是何种伦理?--以“深度学习算法”为例》,载李伦,《数据伦理与算法伦理》,科学出版社,2019年。

(23)时建中:《共同市场支配地位制度拓展适用于算法默示共谋研究》,《中国法学》,2020年第2期。

(24)宋冰:《智能与智慧--人工智能遇见中国哲学家》,中信出版社,2020年。

(25)孙保学:《人工智能算法伦理及其风险》,《哲学动态》,2019年第10期。

(26)孙萍:《“算法逻辑”下的数字劳动:一项对平台经济下外卖送餐员的研究》,《思想战线》,2019年第6期。

(27)汪怀君、汝绪华:《人工智能算法歧视及其治理》,《科学技术哲学研究》,2020年第2期。

(28)吴椒军、郭婉儿:《人工智能时代算法黑箱的法治化治理》,《科技与法律(中英文)》,2021年第1期。

(29)吴梓源、游钟豪:《AI侵权的理论逻辑与解决路径--基于对“技术中立”的廓清》,《福建师范大学学报(哲学社会科学版)》,2018年第5期。

(30)肖红军、李平:《平台型企业社会责任的生态化治理》,《管理世界》,2019年第4期。

(31)肖红军:《共享价值式企业社会责任范式的反思与超越》,《管理世界》,2020年a第5期。

(32)肖红军:《责任型平台领导:平台价值共毁的结构性治理》,《中国工业经济》,2020年b第7期。

(33)谢栩楠:《算法合谋反垄断规制的原理、挑战与应对》,《深圳社会科学》,2021年第2期。

(34)辛巧巧:《算法解释权质疑》,《求是学刊》,2021年第3期。

(35)许可、朱悦:《算法解释权:科技与法律的双重视角》,《苏州大学学报(哲学社会科学版)》,2020年第2期。

(36)薛澜、赵静:《走向敏捷治理:新兴产业发展与监管模式探究》,《中国行政管理》,2019年第8期。

(37)闫宏秀:《可信任:人工智能伦理未来图景的一种有效描绘》,《理论探索》,2019年第4期。

(38)阳镇、陈劲:《数智化时代下的算法治理--基于企业社会责任治理的重新审视》,《经济社会体制比较》,2021年第2期。

(39)袁曾:《无人驾驶汽车侵权责任的链式分配机制--以算法应用为切入点》,《东方法学》,2019年第5期。

(40)张超:《资讯类推荐算法的算法审计路径、伦理与可审计机制》,《中国出版》,2021年第7期。

(41)张恩典:《反算法歧视:理论反思与制度建构》,《华中科技大学学报(社会科学版)》,2020年第5期。

(42)张凌寒:《算法评估制度如何在平台问责中发挥作用》,《上海政法学院学报(法治论丛)》,2021年b第3期。

(43)张凌寒:《算法权力的兴起、异化及法律规制》,《法商研究》,2019年第4期。

(44)张凌寒:《网络平台监管的算法问责制构建》,《东方法学》,2021年a第3期。

(45)张欣:《从算法危机到算法信任:算法治理的多元方案和本土化路径》,《华东政法大学学报》,2019年b第6期。

(46)张欣:《算法解释权与算法治理路径研究》,《中外法学》,2019年a第6期。

(47)张欣:《算法影响评估制度的构建机理与中国方案》,《法商研究》,2021年第2期。

(48)郑玉双:《破解技术中立难题--法律与科技之关系的法理学再思》,《华东政法大学学报》,2018年第1期。

(49)周祖城:《企业社会责任的关键问题辨析与研究建议》,《管理学报》,2017年第5期。

(50)Ananny, M., 2016, “Toward an Ethics of Algorithms:Convening, Observation, Probability, and Timeliness”, Science, Technology&Human Values, Vol.41(1), pp.93~117.

(51)Bakker, F.G.A., Groenewegen, P.and Hond, F., 2005, “A Bibliometric Analysis of 30 Years of Research and Theory on Corporate Social Responsibility and Corporate Social Performance”, Business and Society, Vol.44(3), pp.283~317.

(52)Balkin, J.M., 2018, “Free Speech in the Algorithmic Society:Big Data, Private Governance, and New School Speech Regulation”, UC Davis Law Review, Vol.51(3), pp.1149~1210.

(53)Barber, B., 1983, The Logic and Limits of Trust, New Brunswick, NJ:Rutgers University Press.

(54)Beer, D., 2009, “Power through the Algorithm?Participatory Web Cultures and the Technological Unconscious”, New Media&Society, Vol.11(6), pp.985~1002.

(55)Beer, D., 2017, “The Social Power of Algorithms”, Information, Communication&Society, Vol.20(1), pp.1~13.

(56)Beneke, F.and Mackenrodt, M.O., 2021, “Remedies for Algorithmic Tacit Collusion”, Journal of Antitrust Enforcement, Vol.9(1), pp.152~176.

(57)Binns, R., 2018, “Algorithmic Accountability and Public Reason”, Philosophy&Technology, Vol.31(4), pp.543~556.

(58)Brauneis, R.and Goodman, E.P., 2018, “Algorithmic Transparency for the Smart City”, Yale Journal of Law and Technology, Vol.20(1), pp.103~176.

(59)Brey, P.A.E., 2012, “Anticipating Ethical Issues in Emerging IT”, Ethics and Information Technology, Vol.14(4), pp.305~317.

(60)Brundage, M., 2016, “Artificial Intelligence and Responsible Innovation”, in Müller, V.C., Fundamental Issues of Artificial Intelligence, New York:Springer.

(61)Bryson, J.J., 2010, “Robots Should be Slaves”, in Wilks, Y.(eds), Close Engagements with Artificial Companions:Key Social, Psychological, Ethical and Design Issues, Amsterdam:John Benjamin Publishing Company.

(62)Burget, M., Bardone, E.and Pedaste, M., 2017, “Definitions and Conceptual Dimensions of Responsible Research and Innovation:A Literature Review”, Science and Engineering Ethics, Vol.23(1), pp.1~19.

(63)Carroll, A.B., 1979, “A Three-dimensional Conceptual Model of Corporate Performance”, Academy of Management Review, Vol.4(4), pp.497~505.

(64)Cormen, T.H., Leiserson, C.E.and Rivest, R.L., 2009, Introduction to Algorithms, Cambridge, MA:MIT Press.

(65)Criado, J.I., Valero, J.and Villodre, J., 2020, “Algorithmic Transparency and Bureaucratic Discretion:The Case of SALER Early Warning System”, Information Polity, Vol.25(4), pp.449~470.

(66)Cristianini, N.and Scantamburlo, T., 2020, “On Social Machines for Algorithmic Regulation”, AI&Society, Vol.35(3), pp.645~662.

(67)D’Agostino, M.and Durante, M., 2018, “Introduction:The Governance of Algorithms”, Philosophy&Technology, Vol.31(4), pp.499~505.

(68)Danaher, J., Hogan, M., Noone, C., et al., 2017, “Algorithmic Governance:Developing a Research Agenda Through the Power of Collective Intelligence”, Big Data&Society, Vol.4(2), pp.1~21.

(69)Del Casino, V.J., Jr., House-Peters, L., Crampton, J.W.and Gerhardt, H., 2020, “The Social Life of Robots:The Politics of Algorithms, Governance, and Sovereignty”, Antipode, Vol.52(3), pp.1~14.

(70)Diakopoulos, N., 2015, “Algorithmic Accountability Journalistic Investigation of Computational Power Structures”, Digital Journalism, Vol.3(3), pp.398~415.

(71)Elkington, J., 1998, Cannibals with Forks:The Triple Bottom Line of 21st Century Business, Gabriola Island, BC:New Society Publishers.

(72)Etzioni, A.and Etzioni, O., 2016, “Designing AI Systems that Obey Our Laws and Values”, Communications of the ACM, Vol.59(9), pp.29~31.

(73)Ezrachi, A.and Stucke, M.E., 2017, “Two Artificial Neural Networks Meet in an Online Hub and Change the Future of Competition, Market Dynamics and Society”, University of Tennessee College of Law, Vol.7(323), pp.1~15.

(74)Flanagan, M., Howe, D.C.and Nissenbaum, H., 2008, “Embodying Values in Technology:Theory and Practice”, in Hoven, J., V., D.and Weckert, J.(eds), Information Technology and Moral Philosophy, Cambridge:Cambridge University Press.

(75)Friedman, B., Kahn, P.H., Jr.and Borning, A., 2002, Value Sensitive Design:Theory and Methods, Washington, D.C.:University of Washington.

(76)Gal, M.S., 2019, “Algorithms as Illegal Agreements”, Berkeley Technology Law Journal, Vol.34(1), pp.67~118.

(77)Gal, U., Jensen, T.B.and Stein, M.K., 2020, “Breaking the Vicious Cycle of Algorithmic Management:A Virtue Ethics Approach to People Analytics”, Information and Organization, Vol.30(2), pp.1~15.

(78)Gerlick, J.A.and Liozu, S.M., 2020, “Ethical and Legal Considerations of Artificial Intelligence and Algorithmic Decision-making in Personalized Pricing”, Journal of Revenue and Pricing Management, Vol.19(2), pp.85~98.

(79)Gillespie, T., 2014, “The Relevance of Algorithms”, in Gillespie, T., Boczkowski, P., J.and Foot, K., A.(eds), Media Technologies:Essays on Communication, Materiality, and Society(Inside Technology), Cambridge:The MIT Press.

(80)Gritsenko, D.and Wood, M., 2020, “Algorithmic Governance:A Modes of Governance Approach”, Regulation&Governance, https://doi.org/10.1111/rego.12367.

(81)Guston, D.H.and Sarewitz, D., 2002, “Real-Time Technology Assessment”, Technology in Society, Vol.24(1), pp.93~109.

(82)Hauer, T., 2018, “Society and the Second Age of Machines:Algorithms Versus Ethics”, Society, Vol.55, pp.100~106.

(83)Houkes, W.and Vermaas, P., 2004, “Actions Versusfunctions:A Plea for an Alternative Metaphysics of Artifacts”, The Moist, Vol.87(1), pp.52~71.

(84)Introna, L., D., 2016, “Algorithms, Governance, and Governmentality:On Governing Academic Writing”, Science Technology and Human Values, Vol.41(1), pp.17~49.

(85)ISO, 2010, ISO26000:Guidance on Social Responsibility, Geneva:ISO.

(86)Jaspers, K., 1963, The Atom Bomb and the Future of Man, Chicago:University of Chicago Press.

(87)Just, N.and Latzer, M., 2017, “Governance by Algorithms:Reality Construction by Algorithmic Selection on the Internet”, Media, Culture&Society, Vol.39(2), pp.238~258.

(88)Kalpokas, I., 2019, Algorithmic Governance:Politics and Law in the Post-Human Era, Cham:Springer Nature Switzerland AG.

(89)Kim, E.S., 2020, “Deep Learning and Principal-Agent Problems of Algorithmic Governance:The New Materialism Perspective”, Technology in Society, Vol.63(C), pp.1~9.

(90)Kitchin, R., 2017, “Thinking Critically About and Researching Algorithms”, Information, Communication&Society, Vol.20(1), pp4~29.

(91)Kraemer, F., Overveld, K.V.and Martin, P., 2011, “Is There an Ethics of Algorithms?”, Philosophy&Technology, Vol.13(3), pp.251~260.

(92)Krafft, T.D., Zweig, K.A.and König, P.D., 2020, “How to Regulate Algorithmic Decision-Making:A Framework of Regulatory Requirements for Different Applications”, Regulation&Governance, doi:10.1111/rego.12369.

(93)Kroll, J.A., Huey, J., Barocas, S., et al., 2017, “Accountable Algorithms”, University of Pennsylvania Law Review, Vol.165(3), pp.633~705.

(94)Kushner, S., 2013, “The Freelance Translation Machine:Algorithmic Culture and the Invisible Industry”, New Media&Society, Vol.15(8), pp.1241~1258.

(95)Lash, S., 2007, “Power after Hegemony:Cultural Studies in Mutation?”, Theory, Culture&Society, Vol.24(3), pp.55~78.

(96)Lepri, B., Oliver, N., Letouz´e, E., Pentland, A.and Vinck, P., 2018, “Fair, Transparent, and Accountable Algorithmic Decisionmaking Processes”, Philosophy&Technology, Vol.31(4), pp.611~627.

(97)Luhmann, N., 1979, Trust and Power, New York:John Wiley.

(98)Martin, K., 2019, “Ethical Implications and Accountability of Algorithms”, Journal of Business Ethics, Vol.160(4), pp.835~850.

(99)Matthias, A., 2004, “The Responsibility Gap:Ascribing Responsibility for the Actions of Learning Automata”, Ethics and Information Technology, Vol.6(3), pp.175~183.

(100)Moor, J.H., 2006, “The Nature, Importance, and Difficulty of Machine Ethics”, IEEE Intelligent Systems, Vol.21(4), pp.18~21.

(101)Neyland, D., 2019, Accountability and the Algorithm.In The Everyday Life of an Algorithm, Cham:Palgrave Pivot.

(102)OECD, 2017, Algorithms and Collusion-Background Note by the Secretariat, DAF/COMP(2017)4, OECD-Directorate for Financial and Enterprise Affairs Competition Committee.

(103)Owen, R., Macnaghten, P.and Stilgoe, J., 2012, “Responsible Research and Innovation:From Science in Society to Science for Society, with Society”, Science and Public Policy, Vol.39(6), pp.751~760.

(104)Pasquale, F., 2015, The Black Box Society:The Secret Algorithms That Control Money and Information, Cambridge:Harvard University Press.

(105)Roth, A., 2016, “Trial by Machine”, Georgetown Law Journal, Vol.104(5), pp.1245~1306.

(106)Saurwein, F., Just, N.and Latzer, M., 2015, “Governance of Algorithms:Options and Limitations”, Info, Vol.17(6), pp.35~49.

(107)Schultze, U., Aanestad, M., Mähring, M., Østerlund, C.and Riemer, K., 2018, Living with Monsters?Social Implications of Algorithmic Phenomena, Hybrid Agency, and the Performativity of Technology, Cham:Springer Nature Switzerland AG.

(108)Sedgewick, R.and Wayne, K., 2011, Algorithms(Four Edition), Boston, MA:Pearson Education, Inc.

(109)Stilgoe, J., Owen, R.and Macnaghten, P., 2013, “Developing a Framework for Responsible Innovation”, Research Policy, Vol.42(9), pp.1568~1580.

(110)Stirling, A., 2008, “‘Opening Up’and‘Closing Down’Power, Participation, and Pluralism in the Social Appraisal of Technology”, Science, Technology&Human Values, Vol.33(2), pp.262~294.

(111)Strate, L., 2012, “If It’s Neutral, It’s Not Technology”, Educational Technology, Vol.52(1), pp.6~9.

(112)Thero, D.P., 2006, Understanding Moral Weakness, Amsterdam;New York:Rodopi.

(113)Ulbricht, L., 2018, “When Big Data Meet Securitization.Algorithmic Regulation with Passenger Name Records”, European Journal for Security Research, Vol.3(2), pp.139~161.

(114)Verbeek, P.P., 2006, “Materializing Morality:Design Ethics and Technological Mediation”, Science, Technology and Human Values, Vol.31(3), pp.361~380.

(115)Verbeek, P.P., 2008, “Cyborg Intentionality:Rethinking the Phenomenology of Human-Technology Relations”, Phenomenology&the Cognitive Sciences, Vol.7(3), pp.387~395.

(116)Von Schomberg, R., 2013, “A Vision of Responsible Innovation”, Responsible Innovation, Vol.82(4), pp.51~74.

(117)Wallach, W.and Allen, C., 2009, Moral Machines:Teaching Robots Right from Wrong, Oxford:Oxford University Press.

(118)Willson, M.M., 2017, “Algorithms(and the)Everyday”, Information, Communication&Society, Vol.20(1), pp.137~150.

(119)Yeung, K., 2017, “‘Hypernudge’:Big Data as a Mode of Regulation by Design”, Information, Communication&Society, Vol.20(1), pp.118~136.

(120)Zerilli, J., Knott, A., Maclaurin, J.and Gavaghan, C., 2019, “Transparency in Algorithmic and Human Decision-Making:Is There a Double Standard?”, Philosophy&Technology, Vol.32(4), pp.661~683.

(121)Žliobaitė, I., 2017, “Measuring Discrimination in Algorithmic Decision Making”, Data Mining and Knowledge Discovery, Vol.31(2), pp.1~30.

 

肖红军.算法责任:理论证成、全景画像与治理范式[J].管理世界,2022,38(04):200-226.

分享到: