微信版 移动版

网络社会学

算法实践的社会建构——以某信息分发平台为例

2022-08-02 作者: 赵璐

摘要:本文以某信息分发平台为案例,将AI时代影响信息视觉呈现结果的算法看作一种实践逻辑,尝试结合组织的制度属性与行动者主观能动性,剖析算法实践的社会建构过程。研究发现,核心社会行动者在权力—利益的影响机制下具有差异化的博弈地位,围绕内容(不)可见性展开复杂的策略互动与博弈。本文在案例剖析的基础上提炼出控制权强度与利益相关性两个关键影响维度,为AI技术与社会关系以及算法治理研究提供可能的分析思路。

关键词:算法实践;信息分发平台;AI技术;社会行动者;可见性博弈

作者简介:赵璐(北京市社会科学院社会学研究所助理研究员)


一、问题的提出

从社会学研究的学术传统来看,从默顿创立“科学—技术—社会”(STS)框架起,对技术和社会的关系探讨就陷入了多学科的审视与争论之中。相较于自然辩证法对技术哲学的探讨,社会学的主流研究更侧重关注社会结构、社会关系和社会行动有关的议题(邱泽奇,2017;夏保华,2015;李三虎,2015)。回溯社会学经典理论家们的思想脉络与理论传统,更多是将技术作为社会构成要素。比如马克思主义研究传统会探讨技术在推动工业生产力方面的作用,关切技术被政治渗透之后是否会加剧社会的不平等(马克思,1975);韦伯主义传统更多关注技术对社会理性化程度的影响(韦伯,2010);而涂尔干的理论思想传统可能会更关注技术作为社会事实对社会团结的作用程度(涂尔干,2000)。于是,很长一段时间内,技术往往成为社会学经验研究中主要议题(如社会分层流动、社会关系网络、劳资关系等)的“背景”或限定因素,经验研究者往往更重视技术的逻辑、新特征对社会秩序、社会关系转变所发挥的不可忽视的作用,但是对技术本身的理解与分析却十分有限。

已有的社会学经验研究已经在传统生产技术、信息化技术应用与社会变迁等议题探讨中付出了相当多的努力与尝试,将技术探讨从技术决定论逐渐纳入“应用”的社会情境论中,观测技术在引进组织、部门之间应用过程中的组织结构变迁(张燕,2009)、组织文化的变迁(任敏,2012)、传统技术协调整合(张茂元,2007)、技术应用对农村产业化的影响机制与社会秩序重塑(张樹沁,2018),等等。随着大数据、人工智能技术时代的到来,社会学需要面向数字化时代重新探讨技术议题,尤其需要对技术做展开性分析的经验积累,因为技术要素、技术过程、技术的层级结构都是不可缺少的关键分析变量(Arthur,2009)。因此,本文希望在人工智能技术设计、应用的过程中切入数字社会的技术核心——算法(algorithm)(邱泽奇,2021)。

数字社会的算法不仅仅是在技术意义上作为机器学习解决问题的方法与步骤(Kitchin,2016)用于调节、生产和管理数字设备(Steiner,2013),而且作为技术—社会实践过程,需要有人工规则、策略去设计、定义和评估,涉及生产与消费、使用的社会过程(Willson,2017)。所以,算法实践成为人与代码结合的运行规则,我们不能忽视人类在其中发挥的主观能动性。本文从社会学的角度探寻一个实证研究的路径,通过对某信息分发平台(以下简称K平台)算法实践过程的案例剖析,回答如下研究问题:算法实践是如何开展的?哪些社会行动主体会参与到算法实践和算法建构过程中来?参与到算法实践和算法建构的逻辑、策略及影响机制是什么?算法实践这一社会建构过程重组了怎样的信息传播秩序?

二、文献综述与分析框架

本文主要遵循社会学研究中的社会建构论范式,对大型平台企业K平台算法实践的过程及机制展开剖析。本节首先梳理当前社会科学领域中算法研究的路径与不足,再依托技术的社会建构论范式提出本文研究的分析框架与内容安排。

(一)当前社会科学领域中算法研究的路径与不足

计算机科学研究领域及工业界在技术理性逻辑下追求效率,将算法作为技术系统的中心,探索社会环境如何转化为可计算的过程,寻求有效稳健、相对公平和负责任的方式提高组织效益、推测用户行为(Schmidt & Wiegand,2017)。而人文社会科学领域的诸多学科通常将算法纳入更广泛的社会技术组合,这一研究取向已成为学界的共识(Goffey,2008;Bucher,2012)。总体来看,当前社会科学领域中的算法研究有以下两个视角。

1.技术控制论

该研究路径强调数字社会中的算法具有控制和影响社会现实(Lazer,2015)与社会秩序(Beer,2017)的能力。研究者多认为算法作为技术化的社会规则,自动调节社会运行(梁玉成、政光景,2021)。算法这一高度自适应性特征(自主学习与自动化决策功能)能够控制数据流动、人类行为,使得社会运转处于“黑箱”状态(帕斯奎尔,2015),全面控制着人类的生产生活。算法社会正在到来(彭兰,2021),人类会面临一系列不可控的社会风险后果。比如,人们的主体性被智能算法的技术理性反噬,生成“算法利维坦”(张爱军,2021;范如国,2021)、社会歧视(汪怀君、汝绪华,2020)、公私权力失衡(周辉,2019)、劳动过程控制与劳动者抗争(Rosenblat,2018;孙萍,2019;陈龙,2020),等等。在该路径的研究中,虽然没有哪一位作者声称算法决定社会结构或算法变革了社会互动方式,但却无不暗暗强调算法控制社会的强制性,这往往忽视了算法本身具有与社会行动者互动的实践属性,对于算法发挥影响力的结构性条件、实践情景、人工制度化安排等复杂互动过程亦未展开分析。

2.技术工具论

该路径研究认为算法不具有自主性,算法只是效率工具,不是自我决策系统(邱泽奇,2021)。它一方面强调算法能被应用于政府决策、综合监控和安全风险识别等公共服务层面,提高治理效率(Levy et al.,2021;陈云松,2021);另一方面强调强势经济利益主体对算法设计的主导作用。研究者多认为算法设计及应用容易被商业组织、技术精英操控,算法极易被政治、商业“赋权”,成为施权的代理人并带来新的社会分化与不平等(Burrell & Fourcade,2021)及权力异化风险(张凌寒,2021)。于是,算法权力成为需要被社会干预进行技术调节的政治议题,算法监管(Yeung,2018)、算法治理(Katzenbach & Ulbricht,2019)的研究从制度重构、法律规制(丁晓东,2020)、技术伦理责任(Cheng et al.,2021)、公共政策创新(贾开,2019)、企业社会责任治理(阳镇、陈劲,2021)、社会科学的源头参与(周旅军、吕鹏,2022)等角度集中讨论,使得如何引导算法向善、增强其可解释性、规范算法应用责任主体行为成为政策出台与业界探讨与践行的行动实践。该路径的研究没有将算法与政治、文化、社会背景相割裂(贾开等,2021),而是突出制度性因素对算法的影响作用,为我们提供了经验研究的思路。但总体而言,此路径对社会行动者的主观能动性关注不够,忽略了特定组织结构和制度安排背后社会行动者的互动策略与实践能力。

通过对上述研究路径的综合考察,我们可以获得以下几点认知。首先,在理论层面上,研究容易走向“技术决定论”的极端,造成公众话语的算法焦虑。已有文献更多关注的是算法及所在技术系统的不透明性、难解释性、自适应性等,暗含的意味是算法一旦实践就会影响个体行为、组织方式及社会结构,在一定程度上忽略人的主观能动性在算法设计和应用中扮演的角色。其次,从经验研究路径来看,基本没有呈现个体行动者或者集体行动者的心理过程,已有研究往往应然分析较多,实然分析较少,缺少实证性经验研究案例。再次,需要关注算法实践的时空连续性,以往生产技术、信息化技术在设计和使用过程中存在时空上不连续的特点(比如,技术的开发者和使用者在不同组织,有引进/应用买卖交易行为等),但是算法实践在设计、应用、迭代整个生命周期时刻联系着组织(设计者与管理者)、用户(数据生产与消费),甚至随着组织制度环境、使用者认知与行动特征变化进行相应的改变。所以,数字时代的算法研究已经不能局限于算法与社会线性影响关系的探讨,应该关注算法与社会复杂关系的动态过程分析。我们承认算法及其所在技术系统对人类社会发挥重要作用,但是不能等同于技术系统的配置被遮蔽在组织层面的权力控制及技术操作细节之中。

(二)本文研究路径与分析框架

本文在已有研究基础上,依托社会建构论范式,尝试从实践逻辑出发,将算法研究纳入“技术—组织—个人”的研究框架中,从探讨算法—社会关系的简单因果分析路径,转变为社会建构过程—机制分析路径,由此提出一个整合性分析框架。它具体包括组织制度属性—个体能动属性,权力—利益关系机制与行动者认知、策略,以及可见性博弈三组概念,三者在认识论上的逻辑呈现递进关系。其中组织的制度属性—个体能动属性意在寻找算法实践之社会建构的发生基础,回答哪些社会核心行动者参与算法实践过程;权力—利益关系机制与行动者认知、策略这一概念则试图阐释核心社会行动者参与算法实践的互动过程;而可见性博弈则用于分析核心行动者参与算法实践的互动结果。本框架可以具体展现多元社会行动者在算法设计、决策、应用上的时序循环建构过程。

1.组织制度属性—个体能动属性

技术在组织的开发和应用中可以同时体现组织的制度属性与个体能动属性。组织自身的结构形态、组织文化、商业战略,组织外部环境压力维度上的法律法规、市场竞争及国家正式制度安排、社会经济条件等制度性因素都可以建构技术系统并赋予其意义(斯科特,2011)。而组织的制度属性通过组织管理者、技术设计/研发者作为中介的技术互动来影响技术(Orlikowski,1992)。同时,相对无技术掌控权的行动者依然能够改变技术被解释和操作的方式,甚至改变技术对于组织的含义(Wynne,1988)。

本文将算法实践过程看作技术系统与社会系统持续互动的过程,人的能动性和组织的制度属性可以在算法实践中并存。因此,将算法实践过程中不同行动者的能动性特征(人工规则、策略、评估、干预行动等)以及作用于特定组织内外部的制度性情境特征纳入算法设计、应用、迭代的整个生命周期进行研究,能够对算法实践的社会建构过程中哪些行动者参与进来,又是如何参与算法实践的过程有更好的理解。

2.权力—利益关系机制与行动者认知、策略

在剖析算法实践的组织制度属性和个体能动性的过程中,将参与社会建构的核心行动主体纳入进来后,影响多元行动者参与算法实践的机制是什么呢?本文认为要从多元行动者参与算法实践过程中的博弈地位、算法认知与行动策略入手,剖析隐藏在背后的权力—利益关系机制,这也是影响算法实践结果的深层动因。

(1)社会行动者博弈地位。社会学对组织的研究往往从权力出发(福柯,1999)。在社会交换关系中,权力运作的方式取决于双方平等性交换资源的占有程度、对方可替代性程度、强力迫使程度、硬撑拒绝交换/服务的能力(布劳,1988)。这四方面的行为选择范围在两个互动博弈的行动者身上表现出来,直接影响各自的互动博弈地位。如果组织自身作为社会行动者需要与外部资源持续进行交换,博弈地位容易受到控制其所需资源的外部控制力影响,资源所有权、实际使用权以及制定法规或者监管资源所有权和使用权的能力都能成为组织面临的社会控制的来源(菲佛、萨兰基克,2006)。那么从社会行动者的博弈地位来考察技术(资源),对技术的占有和对技术的运用(王水雄,2000)就成为权力博弈的两个关键维度。可见,对能够建立起平等性交换的资源占有量越大、越是有许多可替代的服务摆在行为者面前、越是强有力、强力越稳定、硬撑着维持生存的资源量越大的行动者博弈地位越高(当然在互动博弈中,不同行动者会根据实际博弈的场景及行为取向而定)。在组织—技术—个人框架下,这对更好地观察和分析不同社会行动主体在参与算法实践过程中的内在影响机制具有重要意义,即不同社会行动者对算法实践过程中的控制权强度直接影响参与算法实践的博弈地位。

控制权强度具体涉及对算法实践过程的影响程度,具体包括数据行为体信息交换的自控能力、算法设计与运用的操控能力、算法实践结果的改变与干预能力等。首先,算法无法脱离数据实践(Balkin,2017),数据行为主体拥有个人信息自决权,具有主动干预自身“数字人格”的能力(王泽鉴,2008),在如何运用自身数据“连接”平台进行资源交换与接受/拒绝服务方面具有自主控制性。比如,用户自身的行为反馈可以自我控制,通过主动自我索引和对他人及内容的分类,改变内容可见性的范围和排序(Brubaker,2020)。其次,算法实践是技术编码过程,如何设计、运行、制定策略与规则存在于组织内部,不可否认组织者拥有技术实际操控权力,但是也不能忽视任何技术设计过程对社会环境、文化的依赖性(Feenberg,1999)。比如,算法实践的前提是需要围绕特定业务场景、产品目标而服务,公权力决策机构与商业公司的算法实践特性也会存在差异(丁晓东,2020),而对于目前大型平台企业兼具准公共权力属性与商业属性的特点(刘权,2020),算法实践也会兼顾公共决策权与企业自主决策权的性质。因此,算法实践过程为多元社会主体的权力传导提供了可能。最后,对算法实践结果,多元社会行动者拥有人工干预的能力。从组织内部来讲,管理者及技术精英拥有人工干预的权限。从组织外部讲,任何数据行为主体都拥有拒绝/关闭算法自动化决策权。欧盟的《通用数据保护条例》(GDPR)第22条规定,“当算法自动化决策对数据主体造成法律或重大影响时,数据主体有权不作为自动化决策的支配对象”;我国《互联网信息服务算法推荐管理规定》第17条明确提出,“用户选择关闭算法推荐服务,算法推荐服务提供者应当立即停止提供相关服务”。而且企业组织自身会面对外部政治强制力的约束,比如国家技术治理自主性的干预能力可以超越特定部门、群体和阶层的自主性(Castells & Cardoso,2006)对算法实践的负面结果进行监管。

利益是行动者行为的内在理性动因,组织内部的行动者都会基于自身的目标,在特定条件下分析各自的收益,进而确定相应的行动策略和行为(Becker,1976)。而技术应用不仅存在于组织内部,更存在于社会的互动关系之中,相关利益群体不仅拥有对技术的建构能力(Newman & Rosenberg,1985),而且能够通过提供或控制资源在技术设计中施加各自的影响,使得技术活动纳入适合他们各自利益的技术秩序(芬伯格,2005)。由于算法实践过程影响到平台组织方作为算法设计、运行者的经济利益及相关利益者的利益分配,比如消费者体验、广告主收益、劳动者获利(Cotter,2019;翟秀凤,2019),以及政府监管部门、媒体、公众舆论监督等社会公共利益的需求(Velkova & Kaun,2021;张志安、周嘉琳,2019),所以,隐藏在算法实践过程背后的是行为主体利益格局的变动和调整。参与算法实践过程中的利益相关程度是影响行动者策略选择的关键变量。

本文综合前述控制权强度和利益相关程度两个维度,试图对参与算法实践过程中的多元社会主体博弈地位进行初步划分(详见表1),A、B、C、D四个象限的具体内容和对应关系有待接下来的实证分析加以验证。

(2)算法认知与行动策略。算法的理解存在本体论上的争论(Gillespie,2016),组织内部不同的行动者往往根据自身在组织结构中的地位与角色对其进行转义(徐笛,2019)。组织外部的应用者会把算法等同于技术规则或系统(Seaver,2017),与其互动时存在知识层面上的差异和操控意义上的盲区(Cotter & Reisdorf,2020)。所以,不同社会行动者会凭借不同知识储备、技能以及所处在算法实践情境中的角色位置,形成不同的算法认知,赋予不同的意义和期望,这种认知和期望会在很大程度上影响行动者参与算法实践的互动逻辑与行动策略。

3.算法实践结果——可见性博弈

任何一种技术从创新到产生社会、经济、组织的实际效果,都会经历设计、决策、应用及反馈等诸多环节。以往的研究会将技术与相关行动者互动放到技术应用的环节切入(邱泽奇,2005),但是不同于信息技术的外源定制性,人工智能技术在某种程度上说是在设计、决策、应用中不断循环,在这一循环中技术逻辑、组织逻辑、应用者逻辑共同发生作用。即算法实践的结果是处于特定时间流和情境中的相互影响状态,而非一个静止、固定的结果。因此,应当分析不同实践情境下行动者之间的策略互动以及产生的状态。

本文将“可见性”博弈作为理解算法实践结果的概念,通过研究不同社会行动者参与建构算法实践的过程,分析算法实践如何呈现不同社会行动者的博弈状态。那么,在本文的研究案例中,算法实践下的内容识别、审核、分发、推荐是如何最终决定什么内容应该是(不)可见的,它们分别对谁可见就呈现为多元主体对信息流中内容可见性的博弈状态。

三、算法实践:平衡不同社会力量权力—利益博弈的过程

本文以大型平台企业K平台为案例进行讨论,所使用的材料来自笔者于2020年9月至2021年6月在该平台公司的田野调查以及对外部相关组织、群体及个人的问卷调查与访谈。在实地调研中,笔者收集到的资料包括公司内部管理者、内容运营者、算法工程师的深度访谈及笔者参与项目的会议纪要、用户问卷调查数据、政府监管者的规范措施及媒体报告等(在文中已匿名处理)。K平台在2012年转型为以AI技术为核心的智能信息分发平台后,迅速进入人们的日常生活(日活用户数超过3亿)。这不仅意味着消费领域(to C端)的大数据积累更为完善,AI技术更为成熟,而且信息分发平台的算法实践涉及内容分发的不同环节(辅助创作、审核、分发、个性化推荐),所以算法实践的场景更为多元,与社会行动主体互动的场域也更为复杂。这为揭示数字化时代的机器学习算法实践与平台组织交织融合,呈现复杂、动态且协同演化的过程提供了一个典型的案例。平台作为信息分发的核心节点,也作为技术文化建构的基础设施(Gillespie,2010),在持续进行算法实践的过程中将不同市场主体(所有权公司、广告商、电商等)联系起来,也将劳动者、消费者、政府监管部门纳入与技术系统的互动当中,共同参与了信息秩序的建构(如图1所示)。

当笔者田野期间对K平台算法工程师进行访谈,询问他如何看待AI算法(技术系统)的意义时,该工程师表示,“AI技术系统需要满足不同利益方的诉求,随着平台发展阶段动态调整,算法扮演的角色就是综合最大化各方的利益,不断取得平衡”(20210302推荐系统算法工程师C2访谈记录)。

可见,算法实践经历着持续不断的进化、迭代,动态调整着信息流的走向,使信息流更符合相关利益方的诉求。那么,为什么算法实践成了平衡社会多元主体权益的过程呢?

(一)算法实践的“普惠”逻辑:内容生产与消费的需求和平衡

对平台公司来说,其自身具有双重角色身份,作为社会文化意义上的平台组织,他们是协调多边权利主体的技术中介。不同平台公司开展的算法实践逻辑相似,都是在做人与信息(人)的效率匹配,不同之处在于它们在做效率匹配时在不同阶段的权利平衡上有所取舍。就信息分发平台而言,平台公司发展之初无论是出于“民主、平等”的社区愿景,还是出于商业利益考量追求数据和流量,自身的存活是第一要义,而存活的前提是持续的内容增长与用户增长。所以,每个平台都在解放内容的生产权限,赋予普通人生产内容的公平机会与技术支持,允许用户发明创造适应自己表达和交流需求的内容形式,鼓励用户持续生产内容。因此,我们能从K公司发展之初追求“公平、普惠”的产品价值观中感受到一个中立平台组织社会文化结构属性的角色建构:K公司之所以能成为平台,是因为能提供给不同社会行动者“被看见”的机会(交流、互动或销售等)。K平台的算法实践围绕“普惠”的产品价值观导向,为普通内容生产者的内容赋予可见性。比如“算法在进行内容分发时,会引入‘基尼系数调控’(热度阈值调节曝光量),将平台各类内容曝光量占比的‘贫富差距’控制在一定范围内”(20201016产品部门负责人P1访谈记录)。

但是,随着平台规模扩大、内容生态更加复杂,无论是专业内容生产者(PGC)还是普通内容生产者(UGC)都在持续涌入。为了获取消费者的青睐(内容曝光/流量/粉丝增长),内容生产者内部竞争加剧。平台公司不仅关注内容生产端的需求,更要关注消费端的权利需求。“推荐(算法)的重点变为以增长为目标、以生态为约束”(20201017经营分析部负责人B1访谈记录)。算法实践(推荐内容)的优化目标要更注重消费者用户的个性化推荐,比如精准匹配、提高优质流量占比、用户负反馈内容的流量控制等。平台也在App界面提供技术配置、举报等人工途径释放内容消费者对算法实践的话语权。

因此,在平台公司发展之初,算法实践要不断维系内容生产与消费两端的供需平衡与利益调和,既要促进内容生产者生产内容,也要顾及消费者体验,这样才能持续锁定用户注意力。这既是平台内容生态循环的开端,也是算法实践过程中用户无论作为内容生产者还是消费者,其利益始终能得到考量的原因所在。

(二)算法实践的商业逻辑:商业利益与用户体验的冲突和平衡

当平台公司发展初具规模,获取商业价值是平台公司维系生存的基础,也是组织内运营人员最重要的日常工作和行动目标之一,算法实践会为其商业模式提供一定的有效转化路径。K平台的主要收入来源有广告投放、直播业务、电商及知识付费业务等,这些与平台公司相关的利益者也会参与算法实践的建构过程,与平台公司共同完成商业利益的内容转化,在信息流里分配用户的注意力。比如,“热门IP资源有保量诉求(不然不和平台合作);新的内容创作者需要流量扶持;电商想要利润和收入,希望获得更大的曝光量;广告主也有oCPX等降成提效的诉求。任何模型上线,都要观测不同侧指标的收益,这也是各业务部门KPI考核的关键”(20210302推荐系统算法工程师C1访谈记录)。

但是,算法实践在平衡多元利益主体的诉求中一定会产生矛盾冲突。比如,平台公司既需要广告投放获得自身营收需求,也要兼顾内容生态的良性发展。如果信息流中广告占比增高,势必会影响内容消费者的观感体验。所以,算法实践(广告竞价系统推荐广告)不仅要精准预测用户对广告的点击率与转化率,同时要考虑广告主、平台经济收益与用户体验的权利平衡。如果广告主想凭借提高竞价增加广告内容在信息流中的占比,平台会通过调整量化用户体验的指标权重来制衡广告主的竞价。“如果(某)广告的用户体验比较差,会有量化体系算出广告占位的钱,当广告主的出价大于这个钱,这条广告可以投放。反之出价不能cover住平台及用户体验的成本,这个广告位就不能成立”(20200123推荐广告算法工程师O2访谈记录)。

所以,算法实践过程不仅要考虑内容生产者的收益,持续衡量消费者满意度,而且要不断增加内容商业化价值收益的诉求。这种多元利益诉求被量化为评估算法实践收益效果的指标体系,不仅成为平台公司各部门算法工程师的业绩考核目标,也给不同社会主体提供了权利博弈的机会。

(三)算法实践的合法性逻辑:技术监管与平台生态的重塑和张力

当K平台的用户与内容体量逐步增长,平台对其用户发布的潜在有害内容所承担的社会责任也不断扩大,这促进了机器学习算法对内容安全审核的部署。以政府监管部门、官媒为代表的技术实践监管人开始对平台公司的算法实践进行干预——算法要有规则、价值观指导,需要纳入制度化的规范进程。

研究发现,政府监管的规则与政策已开始嵌入K平台算法实践的设计与运行之中,算法分发内容在对用户“欲知而未知”的预测判断中,也在践行着“应知”的政治主张:K平台加强了算法实践(内容审核)的政治合法性,充分反映出算法实践对法律及政府监管部门非正式期望的回应。政治权力对商业化平台算法实践的渗入从内容安全审核系统(内容分发的上游)开始,将内容安全监管要求嵌入到AI算法自动审核的体系中。例如,为了训练系统清除涉政、涉恐、涉暴、涉黄等违法违规内容,训练数据必须要将标有这些违规内容标签的图像给机器学习。经过算法训练的模型会对用户上传涉及政治敏感性的内容进行自动化审核。“非常敏感内容识别要准确,算法识别的准确率要尽量高,触碰了红线,上线即可能会被网信办查杀”(20201118内容审核部C1访谈记录)。

这时候的算法实践规则体系既要最大化地实现平台公司及相关利益主体的商业利益,也要为政府监管部门实现内容审查、分发偏好的公共职能而转型并出力。但是在K平台算法实践过程中,政治权力与平台生态利益之间存在巨大的张力,算法系统要不断平衡平台的商业利益和它所履行的“准行政”职能。“应对政府监管,得做听话的野孩子。保证公司活着、别出事(监管部门满意),也要平衡内部利益——既要踩刹车(内容审核部门),也要踩油门(商业利益业务部门)”(20201109内容审核部门C2访谈记录)。由于政府监管部门制定的一系列政策制度过于宏观,且具有一定的宽泛性和模糊性,因此在技术化操作时,也给平台公司留下了规则运作的操作化空间。比如,算法审核系统可以通过调整模型预测的阈值对预测内容的“合规”分数进行调整,既能将其控制在内容监管的安全范围内,也给平台的用户需求与商业利益留有生存空间。“鉴别一些敏感性图片,算法给出60分时,就可以拦截。(技术上)这很容易,但是有时候98分才拦截。为了平台的发展不能管到极限”(20201109内容审核部门C2访谈记录)。

综上所述,K平台的算法实践提供了一个整体社会性力量动态博弈的场域,经历了不同参与主体的利益磋商、规范化的过程。算法实践不仅是工具理性逻辑下内容分发的引擎,也作为协调多边关系的技术中介,承接着平台上不同角色的利益分配与平衡。算法实践过程随之对平台自身产品价值观、广告主(为代表)的商业利益、用户体验、内容生产者的期待一一做出积极反馈和回应,甚至积极吸纳外部制度环境的监管要求,不断地接受公开的政治规训与价值观渗透。算法系统逐渐完成了多主体互动模式下的再建构,而平台公司也得以在维系多主体权利平衡的前提下,一步步地对内容可见性进行管理和规范。

四、核心社会行动者影响算法实践的机制

通过案例观察可以看出,K平台的算法实践围绕内容的“可见性”持续维系着多元社会主体的权利需求平衡,那么,在动态维系冲突与张力的背后,让社会主体参与到算法实践过程中来的是怎样的影响机制?本文认为,在K平台的算法实践过程中,核心社会行动主体在复杂的权力—利益关系互动中形成了不同的博弈地位,各自对算法认知存在差异,展开了不同的策略互动,直接构成了影响算法实践结果的深层机制。

(一)逻辑起点:核心社会行动者的博弈地位

1.控制权逻辑:平台多重制度属性及技术系统边界的开放性传导

平台作为与市场、科层制截然不同的组织形态,既可以作为企业公司,具有经济属性,又可以维系双边/多边市场,具有网络外部性,甚至许多大型平台逐步演变为具有公共性的社会文化基础设施,逐渐承担起属于政府的责任与义务(李广乾、陶涛,2018)。平台这种组织方式与其说是一个具体的社会实体,不如说是通过整合足够的支撑条件/资源来继续生存的过程。多重制度属性使得平台各个技术系统边界具有开放性,不断吸引新的行动主体进入,技术也具有了赋权功能(范如国,2021)。社会行动主体与平台内不同技术系统进行多层次互动,持续发挥各自的建构能力,但并不意味着他们自身都有相对平等的机会行使各自的力量。

在上述案例剖析中,不同社会行动者对算法实践的控制权强度之间存在差异。我们能看到平台公司对算法设计、运行规则保持着实际的操作权,这种在算法作为技术意义上的占有与运用,体现了平台公司的控制权强度。但是在算法实践过程中平台公司不得不时刻考量一系列核心行动者的权利诉求。比如,内容监管者凭借其政治强制力作用于平台组织的制度环境,决定着平台组织生存与发展的政治合法性,对算法实践规则及结果保持着一定的控制强度。对于作为内容消费者的用户而言,他们对自我数据资源的控制力(有拒绝交换/服务能力)、个性化行为偏好(“数字痕迹”)直接影响算法实践的整体内容分发逻辑,而且其话语权(比如利用负向反馈与公众舆论等)对算法实践结果也保持一定的控制强度。而对广告主和作为内容生产者角色的用户而言,虽然他们具有与平台公司之间保持相对平等性资源交换的能力,前者通过付费购买平台广告位,后者提供内容获得流量/粉丝/经济收益,但是其自身可替代性较强(自身行业/群体内部竞争较大),所以对算法实践控制权强度较弱,只能通过利益合作/协商以及对平台的依附性程度获取话语权。

2.利益相关性逻辑:核心行动者对平台经济的依赖性

在平台经济的发展背景下,平台公司通过数字化技术不仅降低了技术红利共享的门槛,而且提升了相关利益群体分享技术红利的能力(张茂元,2021)。技术红利不断吸纳各类利益主体进入平台技术系统持续互动,引导并激励其进行生产、服务、消费等活动进行利润获取或价值转化。对于信息分发平台上的社会行动者们,技术红利并不是自动获得的,能否持续地在平台获取利益及进行价值创造,需要自身增加与平台互动的时间或经济依赖性(Schor et al.,2020),才能保持自身/内容的可见性范围或优先排序(Fourcade & Johns,2020)。可以说,不同行动主体对平台经济的依赖程度也会影响其参与算法实践过程建构的能动性,即各自依赖平台获得利益需求的内在动因存在差异。

从案例剖析来看,首先,算法实践对于平台公司来讲是维系平台内容生态的重要手段,也是提高平台经济价值和社会价值的“利器”,对于平台公司自身利益相关性更高。其次,算法实践(维系广告可见性)成为平台公司获得利润的来源之一,同时也是广告主顺利投放广告的必然手段。所以广告主与平台公司之间存在利益耦合性,即算法实践结果影响着彼此利益获取的程度。即使广告主对于算法实践的控制权强度相对较低,也依然可以为了利益持续参与算法实践过程,进行广告可见性博弈。而政府监管者和内容消费者在平台上获利的需求较少(不能忽视政治、公共利益相关性和消费体验需求),对平台的获利依赖性相对较低,也容易造成其主体性“缺场”的错觉,但是由于两方的控制权强度较高,其可见性博弈的地位不容忽视。最后,内容生产者对于在平台获利的需求存在差异,利益相关性在内容生产者内部差异较大。比如K平台内部调查数据也表明专业的内容生产者与普通的内容生产者比例达到3∶7,前者对平台的获利依赖性更高,主动参与算法实践建构,增加自身内容变现的需求也更强。因此,内容生产者参与算法实践的利益相关程度整体较低,但是我们不能忽视他们参与算法实践的能力和平台利益的“耦合”程度(专业>普通),因为算法实践离不开任何一方的参与主体性以及它们持续参与算法实践过程建构的意愿。

综上所述,结合前述控制权强度和利益相关程度两个维度,本文对参与算法实践过程中多元社会主体博弈地位进行了初步划分(见表2)。

(二)参与建构过程:算法认知与行动策略

社会行动者博弈的地位差异是参与算法实践结果的基本前提,但是还需将其置于组织内外特定实践情境下,详细对比参与建构算法实践的过程,分析多元主体对算法的基本认知差异和行动策略。

1.算法认知差异

就K平台案例来看,核心的社会行动主体对于算法认知和关注点存在显著差异。在平台公司内部,管理层关注经济效益和社会效益,注重算法实践的工具理性(效率)和价值理性(产品价值观)平衡,更倾向于将算法实践看作协调平台参与主体利益平衡的机制。算法工程师认为算法是技术引擎,更关注技术指标提升。内容运营者将算法作为提高信息分发效率的工具,更关注各自部门业务指标是否达成。广告主对算法实践的理解等同于技术系统的运作,更关注如何提高广告可见性。政府监管部门对于算法的理解更多是一种技术手段,注重技术的价值理性,算法实践要符合“价值正确”,提高内容政治安全性及维护公共利益。对于内容生产者而言,算法认知存在知识积累的差异,但是作为技术的使用者,他们将算法视为流量变现的影响因素,注重自身及内容的可见性。最后,对于内容消费者而言,算法认知不重要,算法基本被视为内容分发的方式,他们注重的是算法实践能否给自己带来更好的消费体验。

算法是什么,你问管理层就是平衡社区不同用户利益的机制,对于我们来讲就是技术引擎,对于各部门(商业化/审核/政府公关/个性化推荐等)内容运营来讲就是提高效率的内容分发手段,指标提升就有业绩,对于外部用户来讲,就是技术系统、应用的工具。(20201109推荐算法工程师C4访谈记录)

总体而言,算法实践对平台公司内部是机遇,对广告主、内容生产者、内容消费者既是机遇又是约束,对于政府监管部门来说是约束(与技术系统实际互动频率比其他社会行动主体低,自身处于平台公司外部,对算法实践进行监管有一定难度)。

2.行动策略

通过调查可以发现,核心行动者的博弈地位以及对算法认知的基本差异影响了自身的行动逻辑和策略。平台公司始终在算法实践过程中起着引领作用,直接对平台及相关利益主体的利益需求进行平衡,开展算法设计、规则制定。广告主在算法实践过程中不断调整自己的行动策略,以适应算法分发广告的逻辑,尝试和平台公司协商与议价达成“利益共谋”,争取自身的可见性博弈的主动权。政府监管者的行动逻辑是规训与引导,在微观政治治理逻辑下,对算法实践的规则进行指导与矫正,实现意识形态隐性传递以及强制力的话语训诫与政策监管。虽然从整体来看,内容生产者不断适应算法实践逻辑,但是有高利益相关度的内容生产者一定会采取博弈、对抗策略争取自己及内容的可见性。最后,内容消费者在适应算法实践逻辑的过程中也不断对其进行驯化,有保持自己(不)可见性的策略与战术,如表3所示。

(三)可见性博弈的结果:权力—利益关系下的张力与平衡

如前所述,算法实践过程中交织了不同社会行动者的地位差异、算法认知分歧以及行动策略。那么,内容可见性博弈的结果是怎样的?

从K平台的案例能够发现,虽然平台公司在算法实践过程中博弈地位最高,但是平台公司的社会文化结构角色制约其市场主体的角色(公司的营收、控制权来源于平台内容生态的平衡),与其他社会行动者之间是“唇齿相依”的权力—利益关系(不存在直接博弈冲突),所以作为平台组织角色让不同内容可见性的博弈结果整体呈现了动态的平衡(如前文所述)。当其他社会行动主体互相博弈时,内容可见性的权利需求出现冲突,算法实践的结果在不同阶段(局部)会呈现一定的张力,内容可见性也呈现高低之分。

比如,算法实践在平衡政府监管部门与内容生产者之间的权利冲突之时,由于政府监管部门的控制强度较高,对平台内容可见性具有强力的审查限制,政治安全内容可见性相对较高。如果内容生产者生产“打政治风险擦边球”的内容,一定会被内容安全系统审核屏蔽。而且,在信息流呈现上服务于政治宣传和舆论引导的内容也会优先推荐。“内容审核系统对触犯国家法律法规监管要求的内容基本都能cover掉,平台对正能量内容也有优先推荐的算法策略,对政务机构发布的内容(GR系统内)也进行流量扶持,通过平台端内优质资源位(信息流里排序位置1、2号位)助推”(20201017政府关系部门受访者G1访谈记录)。

广告可见性博弈的结果呈现则相对平衡,当广告主的利益与内容消费者的利益出现冲突时,平台算法实践一定会平衡双方及自身的利益需求。“用户信息流中的广告不会消失,始终给广告留坑位(信息流排序的第3、4位),用户如果(对这个广告)反馈体验差,下次刷的时候就换成其他广告”(20200123商业化部门O3访谈记录)。

同理,如果内容生产者角色的用户和消费者角色的用户产生博弈,内容消费者的内容可见性相对较高,因为算法实践(尤其是处于信息分发终端的推荐系统本身)整体上还是迎合消费者的个性化偏好。虽然K平台由于受产品价值观影响,相对更注重内容生产者的利益需求,但是,内容生产者的内容能否获得更大的流量(曝光),需要以不断锁定消费者注意力为前提,消费者用户的内容点击率、留存时长等仍然是平台公司衡量算法模型上线/收益的主要衡量指标。所以,消费者的内容可见性博弈能力更强。

推荐系统整体上会根据用户的个人画像、行为偏好来对内容进行索引、召回、排序,比如算法一次推10个视频,会替换掉某几个(其他业务部门的需求),比如换成广告、电商直播、平台某阶段需要重点运营的内容,或者在国家重大节庆期间需要宣传的内容,最后综合各方权利权衡决定用户看什么(10个视频)。但是不同用户的信息流是有个性化差异的,你看到的10个和我看到的10个是不一样的。(20210109推荐算法工程师C5访谈记录)

通过上述分析,可以发现平台组织开展的算法实践是具有很强社会情境性、凸显社会主体主观能动性的复杂互动过程。算法实践的社会建构过程表现如图2所示。

我们理解算法及算法实践结果时不能将其“黑箱”化,简单批判算法实践的好坏;也不能局限于将算法实践模糊化为技术系统,预设其仅仅是组织、操控者的管理控制手段。我们承认平台公司作为组织方的实操权限与能力,但是也必须明确其权力和利益获取会受到其余社会主体的利益需求与博弈能力的影响。同时,人工智能技术的自身属性需要算法设计、算法规则的人工规范(比如监督学习数据标注人工规则、人为策略干预等),更需要应用者持续性、能动性数据循环反馈。这意味着算法实践的过程取决于特定制度环境和组织结构下核心社会行动者的动机、算法认知和相互之间权力—利益关系机制。

总结来看,受组织制度属性与个体能动性的影响,核心社会行动者共同参与了算法实践的建构过程,算法实践成为内容可见性博弈的场域。在权力—利益关系机制影响下,不同社会行动者处于不同的博弈地位,也形成了差异化的算法认知与复杂的策略互动,最终塑造了算法实践的结果,即可见性博弈的动态平衡与张力。

五、结论与讨论

上述一系列算法实践有助于我们重新思考“算法”。我们可以将算法理解为一种发挥主观能动性的“技术想象”,一种情感认知,或者是人们“手头知识库”的积累。算法“无处不在”,成为社会文化场域中具有生产性的概念,它被公众争论,受到大众话语、新闻报道和学术论文的不断解构与重构。有关算法的公众话语的强大力量提醒我们,普通人也有理解算法意义的能力——算法实践可以是算法工程师和计算科学家在技术层面的产物,也是普通人在通过界面互动的感知、情感体验与行动策略中主动参与建构的结果。

算法实践面向我们,我们也越来越被“计算”的逻辑所影响。这种影响不是揭示算法如何控制人们的认知和行为方式,相反,算法塑造了人们的行为方式以及如何采取行动的情境。算法实践呈现出人与代码结合的规则,时刻提醒我们处于社会与技术互构的状态。而完整理解算法,也需要进入特定的社会历史情境,去关注算法被动员起来的具体实践过程。算法实践不是人类指导机器执行指令与步骤,而是一场社会性的试验过程。不能将算法实践视为纯粹的技术客体或纯粹的社会性规则。这一立场有助于我们理解,当算法实践出现技术偏差时,我们不能简单地追究“这是机器的错”还是“人的错”,或是追问“谁该为结果负责”?偏颇的算法认知肯定得不到理想的答案。

人类该如何应对“算法世界”?首先,算法不是洪水猛兽,人类需要认识到“算法世界”的不完整性。算法的逻辑可能令人产生错觉:它以一种未知的方式反映我们的习惯和存在方式。算法容易被“妖魔化”为拥有自主性的独立行为体,对人类社会产生“控制”力量。这种认知一方面因为算法有其自身的技术逻辑,其自主性源于计算能力速度超过人类(Smith,2018),应用人类的规范与规则也能自我适应、生成规范与规则(比如无监督学习/深度学习/强化学习)。但另一方面,算法不会有意识地思考和行动,它们通过“观察”来学习,其推理逻辑无法与人类的感觉形成的认知模式相比。它们以概率性、相似性来归纳人类的逻辑具有局限性,容易忽略人类生活的许多其他方面。其次,算法是人类智能的寄生,当人们使用各种应用(搜索引擎或社交媒体),或者与机器人进行社交互动、行驶自动驾驶汽车时,我们不能忘记人类是同谋。我们并不总是能意识到,至少在最初教算法并为它们提供足够数据学习的是人类本身。因此,我们必须认识到算法的局限性,理性地开展应用,并意识到留给人类的行动、反应、解释和决策的空间。理解和理性应用算法意味着时刻关注技术系统与社会系统互动的实践过程。毕竟,技术与社会的关系始终是一个有趣而有意义的主题,本文也是追随前人的脚步与时代的步伐而进行的一次经验研究的初步探索。

总结而言,本文的理论贡献在于:第一,在系统梳理自然学科以及社会科学领域对算法研究文献基础上,尝试从社会学视角进行研究,将“算法控制”的“技术决定论”静态推论转向“社会建构”的过程—机制分析。第二,本文注意到AI技术设计—应用的时空连续性,尝试将算法研究以实践逻辑展开,纳入组织—技术—个人分析框架,对不同主体如何受到组织制度属性影响、自身算法认知与行动策略以及影响算法实践结果循环互动过程进行了比较完整的观察与把握。第三,在案例剖析的基础上,提炼出影响算法实践社会建构过程的两个核心因素——权力控制强度和利益相关程度,更好地厘清了行动者参与算法实践建构的原因和条件,以把握权力—利益博弈场域背后的动力和逻辑。

当然,本文对支持这种互动过程的结构性因素的分析存在一定程度的不足。围绕算法实践展开的这一多主体社会建构过程应该放在怎样的外部结构性条件下来理解?形塑算法实践之社会建构的中国情境究竟如何?国内外不同平台公司的算法实践有何差异,奠定了其怎样的市场竞争优势,又与社会行动者们产生了怎样的差异性互动?今后的研究应该更多关注特定时空下的结构性力量作为外部条件带来的约束或促进,并对国内外不同平台公司的算法实践特性进行补充讨论和对比分析。

(注释与参考文献从略,全文详见《社会学研究》2022年第4期)

0
热门文章 HOT NEWS