【摘要】随着数字技术的发展和广泛使用,一个算法社会正在到来。算法在带动经济增长、提高经济效率、丰富和便利生活的同时,也产生了限制市场竞争、侵害用户隐私、造成算法歧视、形成信息茧房、损害弱势群体、带来伦理挑战等危害和风险。算法困境的成因包括认知局限、企业对经济利益的片面追求、平台的数据优势、算法黑箱以及数据素养差异等。要坚持发展与监管两手抓,一方面推动算法的技术进步和广泛应用,另一方面强化企业自律、实现算法向善,完善算法治理规则、加强算法规制,提升民众数字素养、构建数字友好型社会。
【关键词】数字经济;算法;大数据;治理
【基金项目】本文系中国社会科学院登峰战略优势学科(产业经济学)、中国社会科学院工业经济研究所课题“全球制造业数字化转型新趋势追踪研究”阶段性成果。
数字经济的核心是数据,大数据、人工智能等技术对经济社会中各种数据广泛和实时的采集和处理,使数据像工业时代的石油一样成为数字经济时代最重要的生产要素。目前主流的人工智能技术路线是“大数据+机器学习”。算法是强制给定的有限、抽象、有效、复合的控制结构,在一定的规则下实现特定的目的。随着人工智能技术的广泛使用,算法渗透进经济社会生活的方方面面,一个算法社会正在到来。算法在带动经济增长、提高经济效率、丰富和便利生活的同时,在市场竞争、信息传播、个人隐私、弱势群体利益等方面的负面影响和风险也暴露出来,需要高度重视并加强算法规制。
数字时代算法困境的表现
算法广泛应用于国民经济的各个领域,具有范围宽广、形态繁多的特点,由于其应用的领域和环节、影响的对象不同,算法造成的负面影响和风险主要包括以下几个方面:
第一,限制市场竞争。数字经济在组织形态上的显著特征是超级平台的兴起,形成数字经济与传统产业在产业组织结构上的巨大差异。一是平台成为典型的经营形态。数字经济平台属于双边平台,一边连接最终产品或服务的用户,另一边连接这些产品或服务的供应商,平台提供供应商与最终用户之间的交易中介服务以及实现交易所需的数字化工具、数字基础设施和交易规则。二是数字经济的市场集中度更高。由于网络效应的存在,数字经济的细分产业领域在进入成熟阶段后都呈现赢家通吃的格局,一两家头部企业占有大多数市场份额,相比之下,传统产业的市场集中度一般要低得多。三是超级平台具有强大的市场势力。由于占有大多数市场份额,更由于平台是数据集中与交换的枢纽,无论是入驻平台的供应商还是最终用户都处于非常弱势的地位。平台企业可以利用其市场优势地位和对数据的掌控对供应商和最终用户制定掠夺性价格;还可以利用数据优势、用户优势,对具有潜力的新技术和新商业模式进行模仿,将初创企业排挤出市场,或者直接将初创企业收购,将自己在原有市场的优势地位拓展到新兴市场。即使在市场上仍存在多家平台的情况下,平台企业可以将算法作为媒介建立共谋,通过向供应商、消费者收取高价而谋取不当利益。
第二,侵害用户隐私。在数字经济时代,数据是企业经济效益的重要来源,数据的价值取决于颗粒度、鲜活度、连接度、反馈度、响应度、加工度等多个方面,精细化程度越高的信息、越具有时效性的信息、越能够与其他信息建立关联的信息,其经济价值越高。用户的信息既可以直接用于数字经济企业自身的商品导流或促销,也可以出售给其他企业。为了占有尽可能多的信息,许多应用程序或APP未经用户同意就直接获取程序运行非必须的权限,如定位功能、通讯录访问权限等,甚至用户不开放权限就无法使用该程序。为了获得互联网带来的便利性,消费者不得不选择让渡个人信息。但是一方面,一些信息的获取没有得到消费者的许可,属于非法采集,另一方面,个人虽然是数据的生产者、所有者,但是这些数据一旦被互联网公司获取后就脱离其最初所有者的控制,个人不但无法知晓自己的信息被用于何处,而且在后续的使用中可能会威胁个人的隐私,甚至可能对个人的财产和人身安全造成损害。
第三,造成算法歧视。算法歧视是基于算法的自动化决策对个人所造成的不公平对待的现象。算法歧视包括直接歧视和间接歧视,前者是由于个体所处特定社会群体而遭受的不同等待遇,后者是指表面中立的行为对不同社会群体成员造成不同等的影响。算法歧视有多种成因,包括用于训练算法的历史数据受到污染或存有偏见,算法中使用性别、种族等具有明显歧视性的数据,利用能够显示身份的代理变量(如用户使用的手机品牌和价格)用于算法模型训练,个人偏见和歧视性观点被植入算法等。算法歧视的一个典型是“大数据杀熟”。大数据杀熟是互联网平台利用算法对用户的历史消费数据进行分析,相同的商品或服务对那些支付能力强、对价格不敏感的老顾客收取更高的价格。在传统的商品市场上,商品的功能、质量高度标准化,价格不同很容易被发现,而互联网服务通常是基于特定时间、特定场景的,时间、场景不同,市场上的供需关系就不同,并由此形成不同的市场价格,这就造成“大数据”杀熟更难被察觉、也更难被举证。
第四,形成信息茧房。通过对消费者注册、浏览、搜索、购买、评价等互联网使用历史数据的分析,媒体平台利用算法可以向消费者精准推送其感兴趣的信息,以此增加用户黏性和用户锁定。在信息呈指数型爆炸增长的自媒体时代,平台的推荐算法虽然可以为消费者节约大量的信息搜索时间,但也严重限制了消费者所能接收到的信息的多样性,推荐算法会严格按照用户自己的偏好设定和历史数据定制化地推送信息,而用户在这类信息上的驻留会进一步强化算法对此类信息推荐。人们被算法圈定在“信息茧房”里,被动地接受算法让人们看到的信息。同时,各类数字平台的社交化导向会推动具有相同爱好和观点的人在网络空间上聚集,进一步强化他们固有的爱好和观点。算法推荐会让用户只看到自己愿意看到的观点,造成信息封闭、在认知上成为“井底之蛙”。在社会层面,信息茧房还会形成用户观点的极化,造成不同群体之间的交流障碍,甚至由于思想的偏狭引致群体间的误会,催生极端行为,引发社会矛盾和冲突。
第五,损害弱势群体。数字经济的发展和算法的广泛使用不会自动地平等惠及每一个人,弱势群体反而会成为算法的受损者。在日常生活中,由于数字技术对传统生活方式的替代可能增加对数字技术不熟悉人群的不便。例如,网约车普及后,不会使用手机的老年人出现“打车难”。在工作中,合意的算法应该有益于劳动者工作条件的改善、降低工作中的潜在伤害。但这只是算法的美好的一面,算法也会让劳动者变成算法的“奴隶”。例如,在外卖行业,外卖骑手在算法的驱使下为了准时完成订单、获得准时奖励或避免不准时的罚款,不仅会增加劳动强度,而且可能会采取超速、逆行、闯红灯等高风险行为,被迫用事故概率来换取工作效率。
第六,带来伦理挑战。传统上,人类主体使用某种技术以及该技术形成的产品和服务,同时承担使用该项技术造成的法律后果或道德伦理责任,但是当人类把决策权交给算法,由算法自动地作出判断、决策并实施行动时就形成了对道德伦理的挑战。在大多数情况下,现有法律法规、政策和社会伦理对算法造成的不良后果会形成约束,但是算法的突飞猛进也会产生新的道德伦理问题,对人类文明长期形成的道德伦理准则形成新的挑战,给人类社会的发展带来新的风险。在著名的“电车难题”中,当无人驾驶汽车在事故在所难免时,它该如何作出决策:是优先保护车上的驾驶人员和乘客还是优先保护路上的行人?是选择撞向道路上的多个行人还是撞向路边的一个无辜看客?现有的法律甚至社会伦理并没有对算法规则如何设定提供明确的意见。由于智能化系统是按照预先编好的程序作出决策,因此在一些领域的应用可能会造成巨大的风险。
数字时代算法困境的成因
首先是人类的认知局限。算法是人类开发设计的,必然也反映着人类的主观认知。算法困境的很重要原因是人类主观认知的局限性造成的。一方面,开发算法的人员可能会存在认知上的偏差甚至偏见,而算法不仅会继承人类的偏见,而且还可能随着数据的积累和算法的迭代而被强化和放大。另一方面,大数据、人工智能以及作为其核心的算法仍然是一个新生事物,人类对于其可能造成的负面影响存在认识不足的情况。在机器学习的技术路线下,程序员只需要给出一个合适的算法而无需自己手动编写详细代码,通过提供充足的用于训练的数据,算法可以自己调整、修改决策规则。这种学习能力赋予算法一定程度的自主性,同样也造成算法执行任务的后果难以预测。
其次是企业的经济动因。算法虽然在客观构成上是一系列冰冷的代码,但它仍然是人类智力活动的结果,算法既受到人类认知发展水平的制约,也不可避免受到人类主观行为的影响。企业是追求经济利益最大化的市场主体,企业对算法功能的开发、设计必然服务于其经济目标的实现。为了让数据创造更大价值,企业会以各种方式获得用户数据;为了获得流量,企业会根据数据对用户精准画像并进行定制化的信息推送。带有偏见和歧视的数据经过算法运算之后产生的结果也会带有不公平性。即使企业在开发算法时没有主观恶意,如果将利润最大化设定为算法要实现的最终目标,算法在自我学习、不断迭代中形成的新版本也可能造成违反现有法律、社会伦理道德的后果。
再次是平台的数据优势。超级平台是供应商和商品/服务最终用户的交易中介,掌握着双方的搜索、评论、互动、收藏、交易等各种数据,而且在大数据、云计算等技术的支持下,所有的历史交易都能被保存、追溯和分析,再加上与其他来源数据的交叉比对,平台能够获得供应商和用户在互联网上的全本信息。相比之下,平台上的供应商和用户只拥有自己个人的数据,与平台掌握的数据完全不在同一个数量级。平台对数据的掌握也就意味着掌握了互联网上最重要的流量,它既可以向供应商出售流量,也可以引导最终用户的流量。面对平台的数据和流量优势以及高度集中的市场格局,供应商在与平台的谈判中毫无优势,因此就出现了“二选一”等现象。同样,平台还能够利用对消费者近乎完全的信息掌握,对消费者制定高度差异化的歧视性价格,而处于信息劣势的消费者只能被动地接受平台制定的价格。
第四是算法的技术黑箱。企业的算法对于它的供应商、用户以及监管机构存在着很高的不透明性。算法的不透明性有三种来源:一是由于商业秘密保护所导致的不透明性,这种以维护竞争优势为名的保护也可能是一种规避法规、操纵消费者和实施歧视的新形式的掩护;二是对于技术外行的不透明性,编写和阅读代码和算法设计是一项高度专业化的技能,需要长期的学习和经验积累,大多数人无法胜任;三是算法本身复杂性导致的不透明性,机器学习形成的算法不但规模巨大,而且算法的内部逻辑随着对训练数据的学习而不断改变会进一步增加代码的复杂性。不透明性使企业的算法成为很难为外界所知的技术黑箱,数据的海量化,场景的个性化,算法的专业化增加了外界监督的难度,助长了一些企业经营者和算法开发者为追求经济利益而采取有悖法律法规、社会道德伦理的行为。
最后是数据素养的差异。国家间由于经济发展、数字基础设施、数字产品购买力以及素质教育的不同,而出现的数字化程度的巨大差异被称为“数字鸿沟”。即使在同一个国家内部,数字鸿沟因为所处地区、收入水平、受教育水平、年龄等而同样存在。在我国由于大规模的信息基础设施建设,网络覆盖率的差异已经不成为数字鸿沟的主要原因,个人智能终端性价比的不断提高也促进能够联网的智能设备日益普及,数字鸿沟实际上主要存在于代际之间。年轻一代是数字经济原住民,从小就使用数字产品并接受素质教育,而老年人由于学习能力差、购买力低,许多人没有智能终端,即使有智能终端也无法掌握各种操作,使他们被排斥在数字经济带来的强大生活功能和便利性之外。
数字时代算法困境的治理路径
在数字时代,随着算法应用领域的不断扩大,任其无序发展会进一步放大可能带来的风险和危害。因此,要坚持促进发展和监管规范两手抓、两手都要硬,一方面推动算法相关技术的进步,完善算力基础设施,创造数据流通、交易的法律制度环境,另一方面也要加强对算法的规制和对算法困境的治理。
一是加强企业社会责任建设。督促互联网企业以及正在进行数字化转型的企业加强企业社会责任建设,规范规则设立、数据处理、算法制定等行为,在算法设计之初就要将法律、核心价值观、道德伦理等人类价值嵌入到算法之中,让数字科技企业、算法开发人员将服务于国家和社会利益、造福于人民群众作为基本遵循。算法开发者应提高算法的透明度和可解释性,增强对算法安全评估和管控能力;当算法开发者遇到算法可能造成危害和风险时,主动对算法进行修正和调整,推动形成负责任的算法,实现算法向善。
二是完善算法治理规则。进一步完善数据立法,对数据的权属、转让、交易等进行规定。积极参与数据跨境流动、算法应用、算法安全等领域国际规则合作,完善多边数字经济治理机制。根据数字经济发展出现的新模式、新业态、新现象、新问题,研究制定关于新型不正当竞争行为认定、处罚的法律规范。针对零工经济、灵活就业现象,研究完善平台从业人员权益保护规定和社保政策等。通过制定合理使用算法的法律规范,防止数字企业利用数据优势和算法技术排除、限制竞争,加强消费者权益的保护,维护公平竞争秩序。
三是加强对算法的规制。尽管算法具有很高的技术门槛,但政府对互联网公司的监管应扩大到算法层面。赋予监管机构监管数据和算法的权力,探索基于大数据、人工智能、区块链等新技术的监管模式,增强监管部门的监管能力,提高算法相关风险的识别、预警和防范。对算法开发者和使用者设置算法审查、算法风险评估与算法解释等义务。当算法使用过程中出现有损于社会利益的结果或暴露潜在风险时,监管机构有权打开算法黑箱,聘请第三方服务机构或组成专家委员会对企业的数据与算法合规性进行审查。
四是建设数字友好型社会。继续推动信息基础设施建设,提高通信网络的覆盖率和可获得性。加强对边远地区、老年人、少年儿童的数字应用教育,帮助他们掌握数字设备的使用。行业主管部门应发布规定,要求智能硬件开发和互联网服务提供企业,在产品和算法开发时,要考虑老年人、残疾人等社会弱势群体的需求,提高算法对弱势群体的友好性。例如,通过一键叫车、人工客服接入等设置提高算法的“适老化”程度。
【参考文献】
①苏宇:《论算法规制的价值目标与机制设计》,《自然辩证法通讯》,2019年第10期。
②张恩典:《反算法歧视:理论反思与制度建构》,《华中科技大学学报(社会科学版)》,2020年第5期。
③张旺:《伦理结构化:算法风险治理的逻辑与路径》,《湖湘论坛》,2021年第2期。
④孙保学:《人工智能算法伦理及其风险》,《哲学动态》,2019年第10期。
⑤乔榛、刘瑞峰:《大数据算法的价格歧视问题》,《社会科学研究》,2020年第5期。
⑥孙益武:《规制算法的困境与出路》,《中国社会科学报》,2019年4月24日。
⑦陈婉婷:《大数据时代的算法歧视及其法律规制》,《学习时报》,2020年8月12日。