分享

瓦林 麦肯丨数字经济中的权力和责任:数据、算法与劳动监控

 花间挹香 2021-11-19

图片

图片

数字经济中的权力和责任:

数据、算法与劳动监控

图片

节选自《国外社会科学前沿》2021年第09期【传播政治经济学前沿】栏目,全文可在“知网”或“超星”下载

译者按丨数字经济的蓬勃发展引发了不少令人不安的现象,其中之一就是它加剧了现有劳资之间的权力失衡状况,造成企业责任的缺失。学界对此问题进行了系统性的反思,在这其中,英国新经济基金会组织了该基金会的邓肯·麦肯、罗毕·瓦林和米兰达·霍尔三位研究员于2018年撰写和发表了题为“数字经济的权力和责任”的系列研究报告。该系列由四篇研究报告组成:由麦肯撰写的《数据独裁的崛起:数据收集》;由瓦林和麦肯撰写的《谁在监控工人?数据、算法与工作》;由麦肯、霍尔和瓦林撰写的《由计算控制?算法的兴起》;以及由麦肯撰写的《数字权力者:技术垄断的问题与权力》。本文在这一系列的第二篇研究报告基础上编译而成。

作者简介丨克罗毕·瓦林,英国新经济基金会研究员;邓肯·麦肯,英国新经济基金会高级研究员。

译者简介丨姚建华,复旦大学新闻学院副教授;路珏,上海体育学院传媒与艺术学院讲师;覃琳嫣,复旦大学新闻学院研究助理。

01

引言

随着数字经济的到来,全球的工作场所正在经历重大的变革。这些变化一方面为全球数字经济的发展注入了不竭的燃料与动力,另一方面却持续加剧现有劳动力市场中劳资双方权力失衡的状况:权力的天平日益偏离劳方,向资方倾斜,进而重构两者之间的责任边界。

不少学者反对从“技术决定论”的视角来考察当前数字技术和ICTs的变迁过程,而是主张将其放置在更为宏大的历史背景下进行分析。他们主张,相关研究不应仅得出“技术对资本和劳动力的影响是不可避免的”或“数字经济的崛起必然导致劳动者权力的丧失”这样简单的结论,而是需要进一步追问:这些技术为什么会被开发和应用?它们在何时、何地,又以何种方式被开发和应用?

不可否认,技术对权力的影响受制于其所在的社会环境,开发何种技术以及如何应用这些技术是由社会经济的发展趋势所决定的。从短期来看,这一发展趋势包括2008年后的全球金融环境;从中长期来看,它又涉及全球社会向后福特经济结构的转型。眼下,技术的开发和其在工作场所中的应用越来越受制于以下一系列复杂的变化,这些变化使劳动力唾手可得,进而反过来加速和强化了上述变化。

图片

数据的收集、存储、分析和利用正在深远地影响着工作场所,制约着就业的发生地点和发生方式,对劳资关系产生了决定性的作用。历史上,当资本家最大限度地剥削工人时,后者往往会组织起来,为争取自身权益的最大化与资本家进行协商或抗争,直到双方达成动态的平衡。但是,大数据分析技术打破了这种平衡,将更多的权力转移到了资方的手中。这一点在新型按需劳动力平台中表现得十分明显,并渗透到几乎所有的工作领域。基于此,本文从工作场所中数据和劳动力之间的关系出发,揭示出企业通过多种技术监控手段来收集、存储、分析和利用与劳动者相关的个人数据,以及由此产生的一系列问题,在此基础上,阐释工作场所中劳资双方权力和责任边界变迁的过程。

02

数字经济时代劳动监控的主要方式

所谓劳动监控,是指雇主对劳动者在工作场所中的表现、行为、性格特征的监视、记录和跟踪。尽管工作场所中的劳动监控在工业资本主义社会中就一直存在,但数字技术和ICTs在工作场所中的广泛应用扩大了监控范围和规模。在数字经济时代,工作场所中新的劳动监控方式主要包括员工活动监控、可穿戴设备监控和算法监控。

(一)员工活动监控

员工活动监控,即对员工在计算机或移动设备上的操作行为进行记录和监控。根据美国全国工作权利学会的统计数据,目前全美大约有63%的企业在员工的计算机或移动设备上安装了监控软件,使企业对这些信息设备的运行状态了如指掌。66%的美国企业监控员工的网页浏览,45%的企业记录员工的每次按键操作。当前,与员工活动监控相关的企业市场规模约为11亿美元,据预测,这一数字在2023年将突破33亿美元。

在各类员工活动监控中,电子邮件是工作场所中监控数据的主要来源。尽管部分专家认为,电子邮件将在不久后被社交媒体所取代,但目前它仍是企业员工工作中占主导地位的沟通工具。有数据表明,在全球范围内,43%的工作场所会跟踪员工的电子邮件往来。劳动监控在工作场所中正变得愈发自动化,企业员工的每一个电脑或网络活动,每一个细节都可以被监控软件第一时间捕获,其潜在行为甚至可以被精准预测。与此同时,监控软件价格的下降以及大量与之相关的技术研发公司的涌现加速了企业中劳动监控的自动化和普及化进程。

(二)可穿戴设备监控

可穿戴设备通常利用可穿戴技术来测量和量化个人的生活体验,为监控开辟了一个全新的领域。它主要包括两类:

一类可穿戴设备专门用来随时随地收集个体的生物特征和身体状况,并对这些信息进行快速且准确的测量和分析。这类设备中最知名的是由Fitbit和Jawbone公司开发的智能手环。它们不但颇受消费者的喜爱,而且正得到越来越多企业的青睐,将其作为企业福利计划的一部分分发给员工。此外,法国著名的电子游戏公司育碧研发了测量压力水平的传感器,以及能够测量人体疲劳度的可穿戴设备。

另一类可穿戴设备侧重通过测量和记录劳动者在劳动过程中的地理位置和行动轨迹来实现全方位的劳动监控,这种监控方式因不受劳动者职业的限制,而普遍存在于各类工作场景中。可穿戴设备监控在工作场所中的进一步发展还包括引入麦克风来“偷听”员工之间的交流,美国创业公司Humanyze已经成功研发出带有身份标识的麦克风。

(三)激活数据集:算法监控

算法标志着管理功能的自动化,同时也意味着算法将扮演全部或部分的管理者角色。算法涉及一系列以应用程序为基础,旨在为人类管理者提供信息并形成决策的工具,它与算法人力资源等其他术语同义。算法允许使用大数据分析技术对软件工具进行升级,以执行之前只能由人工完成的任务。

例如,在分配工作任务方面,不少送餐平台的订单分配、时间计算和路线预估等工作环节都由算法完成。不难发现,算法极大地减少了劳动过程中人为力量的干预与监控,作为一种理性化的控制力量,它被认为是实现泰勒制科学管理最为理想的手段。

如上所述,算法在平台经济中被大量使用,包括优步和户户送等按需劳动力平台通过算法进行工作的分配。这不但减少了管理人员的数量,而且使相关平台企业获得了前所未有的快速发展。有学者将算法在平台工作中的运用总结为6R机制,即限制、推荐、记录、评分、替换和奖励。简单来说,企业可以使用算法的限制和推荐机制来指导平台劳动者,记录和评级机制来评估他们,以及替换和奖励机制来规训他们。然而,算法并不局限于平台经济,而是渗透到许多其他形式和部门的工作中。

03

数据、算法与劳动监控的主要问题

数字时代劳动监控引发了一系列问题,包括监控范围和规模的扩大、劳动者工作压力的陡增、社会不平等的加剧,以及人员招聘中由算法偏差所带来的不公平,等等。这些问题打破了劳资双方的权力天平,重构了劳资之间的责任边界,一方面导致资方所承担的企业责任愈发模糊不清,另一方面加速劳方陷入被剥夺权利和不稳定的困境。

(一)数据与监控范围和规模的扩大

以可穿戴设备为例。可穿戴设备不仅使监控的范围和规模扩大,而且也意味着监控场所在时空维度得以延伸。具体而言,在时间维度上,可穿戴设备将劳动监控延伸至劳动者工作场所之外的个人日常生活中,从而形成一种“永远在场”的工作文化。在空间维度上,可穿戴设备的应用将监控范围扩展至劳动者的身体。有批评者认为,在工作场所中,可穿戴设备为基于劳动者身体健康状况的歧视提供了温床。此外,因为身体状况或残疾无法达到既定工作效率的员工也可能遭受歧视。更为极端的情况是,企业会滥用可穿戴设备收集和存储的数据去挑选特定年龄、社会性别、地域和种族的劳动者。劳动监控在时空维度上的延伸营造出“全景式监狱”的场景,全面侵袭人们的日常生活,这也标志着新型监控社会的形成。

当前,企业在多大程度上将劳动监控作为一种形塑和决定其管理实践的决定性力量,对此问题学界尚存争议。在诸如优步、户户送和Upwork这样提供按需劳动力的平台上,劳动监控几乎无处不在。

(二)劳动者工作压力的陡增

劳动监控对劳动者产生了诸多负面的影响,其中之一就包括工作压力的陡增。已有证据显示,紧张的工作压力会极大地提升劳动者罹患重大疾病的风险和酗酒的可能。相关研究表明,如果将企业员工的实际产出、同事的产出与管理层设定的理想水平放在一起比较,劳动者会变得愈发焦虑和缺乏安全感。这种焦虑感和不安全感还来自当他们感知到自身的隐私权受到侵犯时所产生的精神压力,以及企业限制其言论和行动自由所带来的紧张感和不信任感。

图片

在此,一个亟须考虑的问题是:在什么样的工作环境和动因下,人们会接受劳动监控?基于对7.8万名德国工人的在线采访发现,那些对于隐私不看重、个人观念不强的个体更容易接受在工作场所穿戴智能监控设备;此外,如果相关监控设备以提高效率为目的强制企业员工穿戴的话,他们接受的意愿也会更强烈。在讨论劳动监控技术的社会影响时,部分学者警醒地发现,其负面影响主要集中在本就脆弱的社会边缘群体或弱势群体上,如女性群体、移民群体,等等。更令人担忧的是,技术变迁和现行法律制度造成的劳动者的分散化和原子化,不但激发了劳动者之间激烈的竞争,而且削弱了劳动者的集体抗争能力。

(三)算法与社会不平等的加剧

算法被应用于对不同经济领域或部门劳动者的管理之中,且以多种不同的方式展开。在此前提下,简单判断不同经济领域或部门中算法对劳资之间权力和责任的影响是偏颇的。

一项针对优步的经验研究揭示出:其一,司机与乘客通过算法进行匹配,两者之间存在信息与权力的不对称。司机无法了解和掌握由算法生成的大量关于平台内部运营的信息和数据;其二,算法的最终目的是尽可能多地让司机提供标准化的服务,进而为平台创造更多的价值;其三,平台旨在与司机建立一种逃避法律规制的用工关系;其四,算法的基础是管理人员和软件工程师构建算法时所掌握的标准制定权;其五,算法的“黑匣子”性质使那些决定其如何运转的决策变得日益模糊,进而导致平台企业承担的责任越来越不清晰。

算法的使用已经渗透到社会的各个层面,涉及的领域也远远超出工作场所,甚至深远地影响政府的政治话语、司法系统、教育系统、医疗系统,等等。因此,尽管本文仅限于洞察和分析算法对工作场所的影响,但这并不意味着上述讨论能够与算法对整个社会的影响这一更为宏大的议题割裂开来。相反,两者是紧密交织在一起的。

(四)人员招聘中机器学习算法的偏见

越来越多的企业在人力资源管理的过程中,将机器学习算法用于员工招聘环节,其基础是对以往求职者获得成功的因素与当前求职者的个人特征进行比较,进而对当前求职者进行分类和选择。根据凯西·奥尼尔2016年的调查,招聘过程的自动化已经成为一个年产值5亿美元的产业。既有文献基于对具体案例的深入分析,指出:利用算法对求职者进行分类和选择重塑了不同群体的就业能力。有学者主张,机器学习算法可以消除在招聘时由于个人因素所产生的偏见,避免面试官招聘与自己相似的求职者。而在反对者看来,机器学习算法往往对包括阶级、社会性别、种族等影响职场成功的社会因素视而不见。除此之外,企业很少记录招聘中被错误剔除的求职者情况,即当一个本来合格的求职者被机器学习算法拒绝时,也就意味着他/她被排除在算法训练数据之外,这可能会进一步加剧招聘过程中的不公平。

由此我们发现,随着招聘流程的自动化,机器学习算法中有可能嵌入了对某些群体的系统性歧视。所幸,由个人因素造成的招聘偏见目前已受到反就业歧视法律的约束,但在各个行业普遍运行的机器学习算法目前尚未受到法律的规制,且可能以一种无法预知后果的方式悄然引发新的社会不平等。

04

结语

数字技术和ICTs正在改变世界各地劳动者的工作和生活体验。不过,新技术的实施方式和实际效果在很大程度上取决于当地特定的政治、经济、社会和文化条件。本研究报告的主要结论有:其一,劳动监控具有广阔的时空延伸能力,创造出一种“全景式监控”。在由数字监控设备构成的无边无际的监控牢笼中,劳动者惴惴不安。而根据美国彼得森国际经济研究所马丁·阔赞帕的研究结果,在工作场所中,劳动者因他们的心理反应及其所感受到的不确定性而变得愈发顺从;其二,算法加剧了劳动者的工作压力,使他们愈发焦虑和缺乏安全感,这在女性群体和移民群体中表现得尤为明显;其三,企业越来越多地将算法作为一种手段,来掩盖它们正在作出的具体决策。与此同时,算法天然的“黑匣子”性质使得劳动者对企业决策提出质疑变得越来越难,这极易导致企业加速“去责任化”的进程;其四,尽管人们希望数据和算法可以消除个人偏见,但在现实场景中,算法往往对数据中存在的“偏见”视而不见,如在企业的招聘过程中,机器学习算法很少会记录失败的求职者的相关信息。如何消除算法偏见,促进算法的“透明可释”,这既有助于企业消除招聘过程中的不公平现象,又是引导算法“科技向善”的重要途径。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多