分享

论数字不平等:理论框架与治理路径

 heshingshih 2024-03-26 发布于北京
图片
图片

推荐语

图片

从古至今,不平等是政治学讨论的重要议题。随着信息技术发展,数字不平等逐渐成为人类社会亟待面对的新现实。本文梳理了数字时代差异化种种理论历史发展。通过对“数字鸿沟” 概念的反思,作者进一步提出了“数字不平等”的理论框架,并对数字不平等实践形态和治理优化路径进行了分析,为理解和改善当前社会的数字不平等现象提供了启发。(政治学人编辑部)

专题文章推荐:

数字时代的政治

数字秩序的“阿喀琉斯之踵”:当代数据治理的迷思与困境

图片

作者简介

图片

周尚君,西南政法大学科学技术法学研究院教授;

谢林杉,西南政法大学网络空间治理研究院博士生。

“知识鸿沟”“信息鸿沟”假说仅为“数字鸿沟”提供了理解进路,却无法解释数字社会生活中数字化差异现象的基本属性与社会成因。“数字鸿沟”是数字化差异的初级状态,随着数字技术向纵深迈进,数字鸿沟概念的局限性逐渐凸显,“数字不平等”成为解释数字化差异的重要理论概念。以数据为核心、算法为驱动、算力为支撑的数字社会为数字不平等的产生提供了条件。数字不平等表现为以个人信息数据为主要内容的数据不平等,以算法决策为基本方式的算法不平等和以算力驱动为技术核心的“平台权力”支配。在我国数字化战略部署进程中,针对数字不平等的治理体系已初具雏形,数据治理、算法治理、平台治理成为我国推进数字治理体系和治理能力现代化的重要方式。要实现数字正义、优化治理路径,需适应治理数字化转型,改变治理逻辑,审慎配置公民数字权利,阶段性划定和优化算法流程,实现技术关照下的平台治理。

引言

德国当代哲学家普雷希特仿照《共产党宣言》向世界宣布:“一个幽灵,一个数字化的幽灵在全球化的社会徘徊。全世界都在注视着这个幽灵,一方面满怀喜悦和希望,另一方面充满恐惧和担忧。还有哪些工业或服务行业没受到数字化影响,还有哪些人没有分享数字化带来的幸运和乐趣?”当前,数字技术加速推进社会变迁,人类文明即将迎来新的突破。然而,人们的担忧也已经成为现实,数字技术风险不断发生,算法黑箱、信息茧房、大数据杀熟等数字化差异现象发生的密度与频率显著攀升,数字社会的基本价值问题、基础理论问题已经成为当今时代不得不面对的现实问题。一方面,数字技术所蕴含的开放性和互动性,使人们看到一种更利于社会群体提出诉求、保障权利的渠道,数字技术在公共部门的运用,极大提升了公共服务的响应速度与服务质量。另一方面,数字化应用也带来和强化了数字化差异,造成了数字不平等。虽然技术是中立的,但对技术的控制和运行却并非中立。

不平等在人类文明的历史长河中如影随形。在工业社会向数字社会转型的过程中,数字不平等在经历了数字赋能、数字差异、数字鸿沟的阶段性特征后成为一种普遍社会现实。随着数字技术深层的不断革新,数字技术究竟是弥合了人类不平等,还是加深了这种境况?直接面对和深入认识数字不平等是实现数字社会良性运转的基本前提。基于此,本文拟对数字不平等的基本理论、实践演进、治理路径进行学理回溯和实践展开,以期实现对数字社会平等理想的初步建构和学理推演。

一、理论框架:从数字鸿沟到数字不平等 

(一)数字鸿沟的理论源起与内涵流变

数字鸿沟源自对社会数字化差异的深刻认识。数字鸿沟的产生并非一蹴而就,而是与“知识鸿沟”假说和“信息鸿沟”假说的发展密切相关。这两个概念在数字鸿沟的理论形成中起着重要作用,揭示了社会中知识和信息获取不平等的现象。

“知识鸿沟”假说揭示了在社会系统内部,信息与知识并不会被公平地传播给个体。社会中个体之间在接受信息和知识方面存在明显的差异,这是无可争辩的事实。这种矛盾引起了西方传播学界的广泛关注。新闻传播学者蒂奇纳对于“知识鸿沟”的探讨最为典型。他指出,“知识鸿沟”假说适用于印刷媒体语境,随着大众媒体信息更多地注入社会系统,拥有更高社会经济地位的群体相较其他群体会更快获得信息,这样的差异会加剧不同群体之间的沟壑。此外,信息传播的结果受到信息传播目的的影响,这往往对信息储备丰富的人有利,对信息贫乏的人不利,这与信息运动效果的一般预期背道而驰。尽管“知识鸿沟”假说提出了知识获取平等的视角,在实现社会公平正义的道路上迈进新一步,但是其对于知识和信息的概念把握,还处于朦胧阶段,并没有给予“知识”准确定义。

“知识鸿沟”揭示了媒介传播差异化影响,为“信息鸿沟”的产生奠定了基础。随着时代与技术的发展,传播媒介系统逐步丰富,相应的传播媒体也更加多样,传播效果的差异也变得更加复杂。卡茨曼在前人研究的基础上,提出了“信息鸿沟”假说。“信息鸿沟”假说界定了信息富有者和信息贫困者这一组概念。在这一时期,“信息”作为媒介传播的要素被抽离出来,成为研究重点。与“知识鸿沟”假说类似,这一阶段的“信息鸿沟”假说没有对何为“信息”进行准确的定义。随着20世纪90年代信息与通信技术的进一步发展,互联网以及电脑开始进入人们的日常生活,社会开始数字赋能,数字差异也随之产生,信息贫富差异在此时发生质变,社会群体间产生了数字鸿沟,数字鸿沟逐渐成为数字化不平等的代名词。

关于数字鸿沟的早期探讨可以溯源至阿尔文·托夫勒《权力的转移》一书。这本著作虽没有明确提出数字鸿沟,但提及了数字鸿沟的雏形——“信息鸿沟”与“电子鸿沟”等概念。随着ICT使用的持续深入,这种差异会造成发达国家与发展中国家的进一步分化。目前,虽然针对数字鸿沟概念的首次提出尚未形成通说,但是美国国家电信和信息管理局陆续出版的关于数字鸿沟的系列报告使人们意识到数字鸿沟的严重性。NTIA于1995—2000年间连续发布了主题为Falling Through the Net的4份有关数字鸿沟的报告,推动了这个语词的流行、普及和重新定义。1999年7月,美国发布《在网络中落伍:界定数字鸿沟》的官方文件,标志其对数字鸿沟研究的全面展开。随后,2000年在日本召开的八国首脑会议通过了《全球信息社会冲绳宪章》,正式提出发达国家与发展中国家在信息技术领域存在明显的数字鸿沟问题,这是数字鸿沟首次在国际组织正式文件中出现。次年11月,我国举办了主题为“跨越数字鸿沟”的高层研讨会,深入探讨了数字鸿沟的本质和应对策略。

由此可见,在20世纪90年代后期,数字鸿沟这一术语已经问世,并且进入公众的视野,成为国际社会关注的重点。随着ICT的进一步发展,数字鸿沟的内涵与形态不断改变,呈现不同核心的划分:一级数字鸿沟以“接入”差异为核心,二级数字鸿沟以“使用”差异为核心。

一级数字鸿沟是“接入鸿沟”。数字鸿沟与经济关系密切。一方面,能否负担ICT这一新媒介信息渠道的成本,决定着数字鸿沟的生成与否。另一方面,数字鸿沟打破了原有的市场格局,是市场失灵的集大成者。一级数字鸿沟是指在不同地区、不同群体之间存在的ICT接入的差异,在此基础上进一步导致社会群体在经济与信息上的割裂。从技术层面出发,数字鸿沟是接入计算机和网络的差异,是“使用互联网和不使用互联网的人之间存在的差异”。率先接入互联网技术的地区与群体享受了互联网技术所带来的红利,进一步巩固了其经济社会的优势地位,这势必导致原本处于弱势且未接入互联网技术的地区与群体的处境更加恶化。这种情况也出现在发达国家与发展中国家之间。从信息层面出发,数字鸿沟是信息富有者与贫乏者在获取ICT方面的差异,是互联网带来的信息不公平。

二级数字鸿沟是“使用鸿沟”。随着互联网与电脑的普及率逐步提升,社会进入数字赋能的新阶段。数字差异的主要矛盾不再是ICT是否接入,而是在接入ICT的基础上人们使用技术的差异。互联网的接入与使用是两个问题,不能等同。在接入互联网的基础上,是否具备使用互联网的技能,成为数字鸿沟新的考量。当一个国家或地区的互联网普及率饱和后,数字鸿沟由外部接入问题转化为内部技能和使用问题,并逐渐扩大。技术教育机会、技术培训机会等已经在社会群体之间形成差异,数字鸿沟的内涵从技术接入沟壑转变为数字技能以及培训沟壑,这是对数字差异的进一步揭示。数字鸿沟不再是一个简单的“接入”问题,而是一个综合复杂的技术问题。“接入”不应仅具物理意义,还应当包括精神接入、物理接入、技能接入和使用接入 。该阶段对数字鸿沟的治理不再局限于数字技术的基础设施建设,开始从社会物质资本、人力资本或社会资本的角度思考这个问题。在这一时期,数字鸿沟逐渐成为社会各个层面数字不平等的代名词。数字鸿沟在社会多层面同时出现,表明这已不再是单一的技术问题,而是多维度、多阶段的不均衡问题;不仅涉及技术层面的获取、动机与意识,还涉及信息层面的机会、利用和接受程度的差异。总体来说,二级数字鸿沟超越了一级数字鸿沟极度简化的“接入”视角,将数字技能以及使用过程纳入考量范围。

(二)对数字鸿沟的反思与数字不平等的提出

不可否认的是,数字鸿沟揭示了由数字信息技术应用而加剧的社会差距,引发了社会对数字化差异的广泛关注,对促进经济发展、解决社会群体间ICT差异问题、实现社会公平等作出了一定贡献。但随着数字技术向纵深迈进,数字技术与社会现实的融合进一步加深,数字鸿沟的理论局限性逐渐凸显,数字鸿沟无法解释数字社会下的数字不平等状况。

第一,数字鸿沟过分强调物理层面。早期对数字鸿沟的理解主要基于数字技术的“有无”,是数字技术拥有者与缺乏者之间不可消弭的鸿沟。尽管数字鸿沟的形式愈发多样,然而由于数字鸿沟这一概念内生的二元对立视角,对数字鸿沟的狭隘理解依然主导着人们的思维。第二,数字鸿沟受到极端技术决定论的影响。极端的技术决定论通常认为技术的进步是社会发展的唯一决定性因素,并使社会不可避免地趋向一个特定的结果,低估甚至否认其他因素对于社会的制约和影响。社会经济被技术问题所决定,对技术的直接改进与投资会改善社会和经济状况。这往往导致人们忽视比硬件和数字化问题更严重的社会、经济、政治等问题。技术决定论统摄下的数字鸿沟预设了应当接入数字技术的前提,对数字鸿沟的治理也聚焦基础设施完善。ICT被无意识地赋予价值判断。数字鸿沟由一种“启发性”理论转变为“规范性”理论,加深了不同身份群体之间的对立,进一步强化现实冲突,让本就处于不利地位的群体更具贬义。虽然技术的确影响着经济与社会的发展,马克思作出的著名论断——“手推磨产生的是封建主的社会,蒸汽磨产生的是工业资本家的社会”——就是这一观点的典型例证。但是技术绝非经济社会问题的根源,将经济社会问题归于技术是对社会问题的极端简化,并不能实质性解决社会问题。第三,数字鸿沟过分强调ICT对于社会生活的作用。“缺少电脑和网络就意味着失去了生活机会”成为数字鸿沟的内涵。但是,社会中本就缺少生活机会的群体根本无法接触到电脑与网络,更不可能通过数字技术提高社会地位。数字鸿沟还进一步发展成为不同利益团体的话语工具。保守者用它淡化社会矛盾,激进者用它昭示社会不公。受到政治利益的影响,以数字鸿沟为核心形成的话语体系在很大程度上具有欺骗性。发达国家不断强调数字技术的重要性,导致发展中国家忽视本国的文化潜力,进一步加剧对发达国家的技术依赖。

鉴于数字鸿沟存在的上述问题,诸多学者将其称为缺陷概念。此外,数字鸿沟这一语词在实践中经常被扩大化使用,被广泛用于讨论与数字技术相关的所有差异,甚至有点“随便”。而数字不平等将行为差异的产生机制与影响,以及对社会结构的分析纳入考量,不局限于技术接入与使用的判断标准,超越了技术决定论,超越了数字鸿沟的二元对立视角,将数字差异放置在更广阔的社会、经济、文化等语境下进行讨论。学界对于数字不平等的定义进行了广泛的探讨,至今仍未有统一的定论,但是大体上都认为数字不平等是数字鸿沟演化的结果。数字鸿沟侧重于描述社会中数字技术使用的差距,关注数字技术的分布是否均匀。数字不平等则以社会数字赋能所引起的社会差异为落脚点。

数字不平等是传统支配关系在数字时代的重现,是以数字技术的接入与利用为表现形式,在不同阶层之间所形成的支配与被支配关系。例如卡斯特提出,数字鸿沟就是人们接入和使用ICT之间的差异。只是他并未使用“数字不平等”这一语词。随着数字经济、数字社会的发展,ICT接入是克服当今互联网社会不平等的先决条件,因为这种社会的支配型功能和社会群体都是围绕网络组织起来的,而不平等将给世界带来多层次的危机感。科技变革必须被理解为一个社会的嵌入过程,而不是作为影响社会的外部因素。数字化浪潮已经袭来,个体根本没有办法通过拒绝使用数字技术来反对数字化。互联网技术的普及正在引发一场悄无声息的社会革命。在革命进程中,互联网作为数字信息技术的代表,正在巧妙地重构社会的各个方面、重塑社会结构,网络构成了我们新的社会形态。数字不平等的本质是数字主体的多样化与分层化,并由此形成了不同的数字群体,进一步影响了社会不平等。社会分层理论被用来分析数字不平等问题。因此,数字不平等关注的是已经接入ICT的数字主体之间所体现出的不平等。以数字化作为节点,数字不平等是数字化后的问题,是在线不平等。

数字不平等是技术掩盖之下各种不平等的集合,是以ICT接入与使用差异为表现形式的动机不平等、能力不平等以及结果不平等,是差异序列。数字不平等虽然通过数字技术的接入与使用表现出来,但它实际上是经济与社会不平等的映射,甚至网络中已经形成了权力地位的差异,影响着公民的参与机会。数字不平等是一个复杂多面的问题,治理数字不平等需要提升对其的认知,充分调动社会资源。数字不平等的提出代表着研究重点由数字化的接入与使用转移到技能、能力、偏好等方面。这些差异并非基于自然而生,而是人群之间的“范畴差异”所导致的,也就是人们之间的契约、关系、交互和交易所形成的不平等。

相较于数字鸿沟理论,数字不平等更全面地考察了数字社会中存在的多层次、多维度的不平等。从上述分析可知,数字不平等更注重对社会结构与权力关系的考量,这使得数字不平等的理论更加贴近实际的数字社会现象,有助于揭示数字社会新型不平等的本质。其次,数字社会的到来使数字不平等开始在新的领域出现,社会面临危机。数字化的深入渗透几乎涵盖了社会生活的方方面面,从公共事务到经济交往,从教育到医疗,数字不平等在这个过程中不再表现为单纯技术的不平等,更是社会结构、资源分配差异的显性表达。

值得注意的是,伴随着数字不平等的提出与流行,数字鸿沟的内涵也得到进一步延展,出现三级数字鸿沟。三级数字鸿沟所指代的数字差异可以扩展到人们对数字技术的意识、访问、使用及结果,呈现为“知识鸿沟”,结果鸿沟,也是智能时代以数据为核心的智能鸿沟。三级数字鸿沟虽然以“鸿沟”为表述方式,实际上已经深入到了数字不平等问题,可以将其纳入数字不平等的理论框架。

一言以蔽之,数字鸿沟无法概括数字时代的新问题,数字不平等的提出是对数字鸿沟的扬弃,是对数字差异的重新总结,是社会不平等的新形态。

二、 数字不平等的实践形态

对数字不平等理论叙事的日渐深入,一方面反映了数字社会需面对的诸多难题以及与日俱增的风险,另一方面也为数字不平等的治理实践贡献了理论支撑。面对数字社会的扩张与治理实践,为优化数字不平等治理路径,需要明晰数字不平等在数字社会的具体形态,提炼现存的实践困境。

(一)数字社会下数字不平等的具体形态

数字技术革命加速了数字社会的进程,形成了以数据、算法和算力为基础的特殊结构。数据、算法以及算力的通力合作,正在巧妙改变着社会生活的方方面面。算力的提升促进了平台经济的发展,平台不仅垄断数据,还创设规则、实施治理。算法成为平台用以决策的工具,在市场中发挥了巨大的力量,冲击着传统的市场—政府二元模式,演变为第二只“无形的手”。算法的商业价值进一步被发掘,工具理性外衣下隐藏着潜在的算法危机。以个人信息数据为核心的数据是算法决策的基础。但是,作为生产数据的用户,却失去了对其数据的控制权。数字权利配置的失衡导致了个体在数字社会的生存困境。数字社会独特的运行模式,影响着数字不平等的生成。数字社会与现实社会的虚实交互,使不平等问题得以复制并获得新的表现形式。在数字社会中,数字不平等表现为数据不平等、算法不平等和“平台权力”支配。

1.以个人信息数据为主要内容的数据不平等

党的十九届四中全会指出,要“健全劳动、资本、土地、知识、技术、管理、数据等生产要素”。2020年发布的《中共中央国务院关于构建更加完善的要素市场化配置体制机制的意见》同样也肯定了数据作为生产要素的地位。可见,随着生产力的不断提升,数据的内在经济价值开始被重视。与传统生产要素不同的是,数据的核心功能在于信息承载能力。数据要素种类繁多,最特殊的便是个人数据。个人数据不仅具有极大的信息价值,更有显著的经济价值。首先,个人数据生成渠道众多,信息数据总量巨大。个人数据不仅包含识别用户身份的信息,例如照片、面部信息、指纹、证件号码等,还包含用户的数字足迹——以数据形式储存的、用户使用互联网或电子设备的活动痕迹。其次,通过数据挖掘,个人数据的价值不断得到展现。通过对个人数据的分析应用,可以实现个性化服务、精准广告推送等商业利益。因此,个人数据成为平台企业捕获的对象。平台大公司往往对个人数据占有绝对的支配权,作为生产个人数据的数字个体处于实际上的不平等地位,主要体现在以下两个方面:

一是数字个体主动同意“平等”的平台协议。当我们使用某一软件时,平台会基于传统契约关系,提前询问用户是否同意其对个人数据的收集。然而只要用户想要使用该软件,就必须要同意相关的隐私条款,否则便无法注册或者登录。换言之,这种数据收集看似是平等的契约关系,实际上却是不平等的强制。个人数据的持续被剥夺,使数字个体愈发脆弱,最终落入数据权利贫困的牢笼。

二是数字个体无意识地成为“数字劳工”。个体的数字生活为数据的产生与积累贡献了主要动力。然而,当互联网成为数字化资本积累的主要方式时,以头部互联网企业为主的数据部门掌握了数据支配权。在这一过程中,“数字劳工”的劳动成果——数据,却在无形之间被平台获取,公民成为“被动的数据生产者”。数字个体产生的数据大部分会储存在大型公司的服务器内,仅有少量数据会储存在用户的终端内。用户无法阻止平台企业对数据的收集与再加工,个人实际上从未控制过自己产生的数据。个体数据意识的缺乏耦合着企业数据逐利,加剧了个人数据的被剥夺状况。对于企业来说,研发一款用户黏性高的产品一方面可以带来可观的经济收益,另一方面也可以获取更多的用户数据。例如,短视频娱乐拥有大量的用户群体,已成为我国移动互联网的流量高地和时间黑洞。数字个体浏览视频所产生的数据以及偏好成为各大社交媒体的隐形资产,用户的“劳动”换来的是平台对自身愈发精准的把握。数字个体沉浸在社交平台所带来的转瞬即逝的愉悦中,却不了解其内在风险。

2.以算法决策为基本方式的算法不平等

大数据时代算法架构应用的日益普及,使我们大步流星地迈入一个充满颠覆性和变革性的算法社会。算法像一只无形的手安排调度着我们的日常生活。算法架构在数字社会的不断渗透,引发了许多算法危机,例如“算法黑箱”“算法霸权”“算法合谋”等。算法归根到底由人所编写,通常会复制和固化现存的社会分化。算法的程序理性裹挟偏见植入,会给数字社会中的个体带来风险。

首先,算法不断侵蚀人的主体性。算法作为应用程序的底层逻辑,主要发挥配置、分类、关联还有过滤几项作用。依据不同的利益取舍,自动化决策可能依据复合逻辑运行。在全面获取数据的基础上,能够达到对特定主体偏好的精确预判,并以计算结果为依据,对其进行特定分类,实现个性化的推送。在这一过程之中,处于被决策地位的数字主体不断丧失其主体性,原因有二:第一,算法运行需要海量的数据为基础,数字主体缺乏对数据的支配权。在获取数字主体原始数据的基础上,算法具有衍化数据的能力,数字个体的数字足迹、软件获取的地理位置信息等都可以作为自动化决策的根据。第二,随着算法架构的不断渗透,算法应用已经在公私领域不断扩展。数字主体面对算法决策显示出无力性,个体很难获取关于算法自动化决策所涉及的底层逻辑与相关依据。假如个体不满意算法决策结果,对其提出异议,挑战算法决策的过程会十分困难。传统的知情权、异议权与权利救济在面对算法时不断消解。

其次,算法歧视会导致个体不公的系统性锁定,导致数字社会的自动不平等。随着自动化决策在公私领域的广泛运用,算法歧视已引起了社会关注。在刑事司法、医疗保健、社会福利和公共教育相关的公共事业领域,应当限制自动化决策的运用。原因在于,算法会移植原有的社会偏见。数字社会中的算法歧视与现实世界中的歧视有结构性的区别。算法自动化决策的效率高,涉及面广,一旦算法架构被设定,所有的数据都会按照算法的预定逻辑进行运算。算法歧视具有全面性和复算性,只要算法编写的过程中纳入了编写者或操纵编写者的个人或群体的价值偏好,那么数字社会就会出现全面性的歧视,导致系统性社会割裂。例如,通过算法对个人数据进行分类分析,可以将某一个体或群体的身份标识锁定在某一特定类别之下,这不仅沿袭了原本的社会歧视,还会进一步恶化现实的社会不正义,导致全面性决策风险,个体落入自动不平等的陷阱。尽管传统社会的决策不免也受到价值差异的影响,但算法决策的特殊性耦合着人类的偏见与歧视,会带来系统性的数字社会风险。

最后,算法的可靠性与准确性难以保证,算法侵害发生后归责困难。算法决策及其应用虽已在各个领域强势展开,但是算法侵害的归因与归责难题加剧了算法的应用风险。算法毕竟是人造物,受到有限理性的限制,并不是完美无缺的。算法侵害发生后,尚无合理明确的归责机制,无法实现有效责任认定。一方面,随着算法自动化决策在公共治理领域中的广泛展开,公权力机关对私主体的技术依赖与日俱增。公共部门不得不与相关的技术平台企业与个人建立合作关系,甚至“外包”部分公共职能。另一方面,技术提供方在算法中嵌入的价值标准是其决策的核心,这一算法价值标准可能会与公共价值有偏差。当算法侵害发生时,由于所应用算法的复杂性与归责主体的分散性,算法侵害归责十分困难。

3.以算力驱动为技术核心的“平台权力”支配

在移动互联网和大数据的推动下,平台模式迅速发展,平台的基础设施化成为数字社会的重要表现,平台成为构建数字社会的决定性力量。平台模式改变了整个社会的经济形态,平台经济日益成为社会经济运行的重要模式,并广泛渗透到社会各个领域。

平台成为公民数字生活的主要场域,汇集数字个体所生产的诸多数据。依托数据支撑,平台实现了自我赋权,“平台权力”由此产生。“平台权力”是指伴随平台经济的快速发展和超级平台企业在国民经济和社会发展中影响力和控制力不断增强而出现的,由少数超级平台企业所掌握的影响和支配平台内经营者、消费者等平台主体行为的能力。

平台企业实际掌握着核心数字资源的控制权。对用户数据的深挖,扩大了平台企业的经济收益。平台数据的资本化已经成为平台扩张的主要手段。随着科技革命的逐步深化,技术发展如火如荼,突破了传统数据使用的藩篱,云计算、大数据分析、生成式人工智能等应运而生,然而这些核心技术大部分都被大企业所把持。以这种超强的算力为核心,互联网行业出现了“量化数字部门”,具体是指那些参与获取用户日常社会行为数据并将其转化为量化数据的企业,例如阿里巴巴、京东、腾讯、美团等,对这些数据的分析处理,可以产出利润。对个人数据的深挖需要庞大的算力物质基础。量化数字部门拥有庞大的计算资产,能够激活数据的深层价值,并形成“计算中心性”。而这些算力驱动的物质基础,都是量化数字部门的私有资料,并不会对个人或者公众开放。平台开始以一种微妙的方式支配个体,个人与量化数字部门之间形成了明显的不平等。

进而,在平台所主导的数字空间中,平台的运行实现了自我赋权,“平台权力”改变了社会原有的权力结构。福柯曾经提出微观权力理论,即权力不一定是自上而下的纵向支配,而是“以网络的形式运作,在这个网上,个人不仅在流动,而且他们总是既处于服从的地位又同时运用权力”。在数字社会,这种权力的微观作用机制使社会中权力泛化,权力在数字社会弥散开来,数字主体之间的权力作用机制无处不在,且存在多维度的相互影响。权力以无数个点为圆心向外扩散,权力边缘的界限早已模糊。个体通过授权与同意行使着自身的数字权利,量化数字部门通过提供服务与收集数据行使着自身的权力。量化数字部门凭借着强大的算力,显然取得了对于数据的支配权力,并进一步将其转化可量化的利益。平台掌控者利用算法汇集进行资源分配,在很大程度上决定着虚拟空间的活动规则,甚至还将权力触角扩张至其他领域,造成数字社会“权力—权利”失衡。

(二)数字不平等治理的实践困境

从个人数据治理层面来看,目前存在数据权属不清晰、数据观念缺乏等问题。我国的立法更加注重保护数据安全,缺乏对个人数据产权的关注。例如,《民法典》采取法益保护的模式,专门对个人信息保护进行了规定,但是并未明确定义个人数据产权;《数据安全法》规定了数据安全保护义务,却未解决个人数据利益分配问题。司法判例主要集中于个人信息数据保护,一些部门如中央网信办、工信部、公安部等重点关注的则是个人信息数据安全。可见,对于个人数据的保护,我国将重点放置在安全,关于个人数据经济利益的保护相对缺失。而且,关于个人数据获益问题在法理层面尚未形成共识。实际上,数据主要由大型数字企业所支配,这增强了它们的盈利和竞争能力,甚至会进一步带来数据垄断问题。个人信息数据治理需要更好地平衡数据安全和个人数据产权与利益的问题,以引导数据利益合理分配,避免数据垄断问题的出现。

从算法治理层面来看,我国的算法治理框架目前形成了“概述层—规范层—流程层”的算法治理三维框架。概述层主要包括对算法治理过程中的主体、客体、目标、范围的规定。规范层以算法生态规范、伦理规范、服务规范为主要内容。流程层主要涉及算法事前评估、事中监管、事后问责三个方面。然而,算法流程层的具体实施也存在问题,如算法事前评估的规定、流程不明确,算法事中监管需要进一步细化,算法事后问责尚未形成统一标准。在事前算法评估阶段,需要明确算法分级分类和算法备案的相关规定,这是评估的前提。算法分级分类最初是在《关于加强互联网信息服务算法综合治理的指导意见》中提出的,该文件对算法应用场景与潜在风险提出了分级分类的要求。此后,《互联网信息算法推荐服务管理规定》(以下简称《规定》)要求网信部门要针对算法推荐服务者进行分级分类管理,但未提供具体指导。在算法备案方面,虽然2022年国家网信办公布了首批算法备案者名单,开启了算法备案制度的新时代,但是国家法律法规尚未提供如何进行算法安全评估的流程指南,只能在行业规范中找到有关机器学习和深度学习算法安全评估的相关流程。此外,算法事中监管阶段需要更多明确的规定,主要涉及算法监测与算法审计。虽然《规定》要求多部门联合监管,进行算法监测,但是各部门的权责不明晰导致了合作壁垒。当前仅有《人工智能数据安全风险与治理》提到了安全审计工具,尚未将算法审计纳入算法问责体系,其重要性有待提升。最后,在事后算法问责方面,尽管事前措施至关重要,但是我国算法治理框架尚未形成一致的标准和细则,工作人员的专业性有待提高,事前预防措施的有效性有待提升。总体而言,目前算法治理框架需要更多细化和明确,具体包括制定总领性法律以引导、平衡不同规范的关注点,细化行业标准等。这有助于健全完善算法治理体系,以适应不断演进的算法应用环境,减少算法不正义的发生。

从平台治理层面来看,目前存在法律规制体系不健全、法律关系界定不明晰、规制机制不完善等问题。目前我国除了《电子商务法》之外,并未出台其他的专门立法对互联网领域的平台进行规制,平台治理呈现分散化、个案化的特征。此外,除了《电子商务法》《网络安全法》属于国家法律外,大部分关于平台治理的规范都分散在行政法规与部门规章之中。网络平台权力与个体权利关系失衡问题也十分突出。网络平台权力的私有化,使得平台运行过程中出现对私权利的侵害。现行的法律制度对平台经济背景下的权利缺乏扩充性规定,互联网时代的个体数字权利并未在立法中得到应有的重视和保障。

三、数字不平等的治理路径优化

当前,数字不平等的核心议题已经由互联网接入与使用转向以数据、算法和平台为核心的数字社会结构性要素。数字技术的发展日新月异,数字技术未来的社会化影响具有不确定性,为了提升数字不平等的治理效果,不仅要对现行的治理框架进行优化,还要转变治理逻辑,对数字不平等治理进行系统性调适。

(一)数字转型改变治理逻辑

数字社会的到来不仅改变了社会的价值生产模式,还冲击着传统的社会权力结构,影响着“权力—权利”的平衡以及资源配置的变化。因此,需要提升数字不平等治理的主动性,转变治理逻辑。数字不平等的本质并非技术不平等,而是社会不平等,治理数字不平等的核心问题在于正视技术在社会中所塑造的新型“权力”,并保护社会权利,以实现数字社会的“权力—权利”关系再平衡,从而推动数字正义的实现。

第一,数字不平等治理的前提在于明确治理共识。数字社会的到来在社会群体间产生了差异化影响,对于本就处于社会边缘和弱势地位的群体而言,也造成了负面影响。对数字不平等的治理关乎数字正义的实现,影响着现实社会与数字社会的福利与分配,要以“数字包容”以及“数字共建共享共治”为指导,从群体包容的视角出发,关注数字技术的适应性这个关键问题。一方面,技术的提供方在数字技术创新的过程中,需要通过定制化设计以提高数字智能产品的易用性,开发符合数字包容要求的产品与服务,提升数字弱势群体在数字社会中的适应性,使其具有数字获得感,保障数字弱势群体的数字社会融入。另一方面,用户方也需要加强自身学习,提升自身对数字技术的适应性。“数字共建共享共治”是数字不平等治理的核心原则,为构建和谐健康的数字生态系统提供了有效的价值支撑。数字不平等的治理成果应该平等分配给数字社会的利益相关者,以促进数字平等的实现。

第二,数字不平等治理的有效性取决于多方合作。传统的数字鸿沟治理方案通常将技术发展作为解决问题的核心,主要依赖政府干预。但数字不平等的治理需要多方合作,形成多元化的治理框架,以应对数字进一步赋能所带来的系统性复杂性社会问题。传统社会治理框架是一种二元模式,所处理的是公权力机关与公民之间的关系。在数字社会,单一权力主体的模式被打破,平台企业成为其间重要的一环。数据与算法被大型平台企业所把持,这意味着资本逻辑对数字社会的运行起着重要作用,平台成为公民与数字社会链接的中转站,通过平台的运行,多方主体被纳入数字化转型的进程中。在赋能的同时也应当赋责,治理数字不平等,需要政府、平台、公民的通力协作,需要变革传统的治理模式,以数字正义逻辑为指导,形成多元治理框架。

第三,治理数字不平等需要有效衔接数字空间与物理空间。面对数字技术的日新月异,制度设计需要因时而变。传统的法律制度面临着一系列的挑战与风险,传统的法律价值观难以应对数字社会的价值判断,现行的法律规范在面对新兴权益时显示出无力性,司法制度也无法应对数字社会纷繁复杂的纠纷。法律有着自然的滞后性,应当探索数字时代的立法前瞻,建立适合互联网时代的网络法律体系。数字空间与物理空间的联系愈发紧密,不平等呈现出数字与物理的交叉转换,对于数字空间中所发生的隐性差异,需要以具体化的规范予以规制,完善治理体系,形成数字空间与物理空间的制度化连接。

(二)审慎配置公民数字权利

在数字社会,数据已经成为推动经济与技术进步的核心内容,个人数据是最为关键的基础要素。构建以数据产权和安全为核心的法律框架与治理体系,对于保护个人权利、维护国家安全、促进经济社会可持续发展具有重要的意义。

首先,保障数字人格,明晰个人数据所有权。在数字社会,个人的社交活动依赖各种数据,包括身份数据、行为数据、数字足迹等。这些数据共同构成了数字身份的多维面貌,成为定义人之资格的关键资源。然而个人数据不平等的现实状况构成了保障数字人格权的一大阻碍。一方面个人只能选择“同意”换取网络服务,另一方面数字劳动和娱乐的界限逐步模糊,用户往往成为为企业提供“免费”服务的劳动力,由此产生经济剥削关系。为矫正此种不平等现状,有必要将个人数据产权配置给作为数字劳动者的用户,促进人格权保护由实体空间向虚拟空间延展。

其次,增进知情同意原则,强化个人数据控制权。在《个人信息保护法》和《数据安全法》的框架下,落实公民对个人数据流动的知情同意机制,意味着用户能够清楚地了解他们的数据如何、何时以及为何被收集和使用,这涉及向用户提供清晰、易懂的数据政策和使用协议,确保他们对数据处理的方式有充分的认识。随着人工智能和大数据分析等技术的发展,数据处理主体的数据处理能力不断提升,带来了个人数据被滥用和歧视性使用的风险,个人应有权控制自身数据的使用方式,包括拒绝特定的数据处理和分享。

最后,平衡个人数据利益,构建个人数据合理利用规则。鉴于目前数据领域存在的不平等现状,在保护个体利益的同时,也要关注数据要素发展现实,避免“赋权”引发数据资源利用不足的问题,防止“反公地悲剧”的发生。《中共中央国务院关于构建数据基础制度更好发挥数据要素作用的意见》为数据要素的产权、交易、收益和治理等提供了全面指导,传递了包容与审慎的态度。因此,构建个人数据治理框架也要谨慎处理好数据与社会的交互关系,辩证地看待技术与社会的互动,以《个人信息保护法》的合理利用规则为基础构建个人数据合理利用规则。数据利用主体在不侵犯个人同意的前提下,可以根据法律规定合理使用包含个人信息的数据。这种恰当的“限权”措施可以提升数据资源利用效率,实现数据保护与流通之间的平衡,维护数据市场的健康发展和社会公共利益。

(三)划定和优化算法流程

首先,划分多阶段算法流程,优化“事前”“事中”“事后”算法治理。虽然目前的政策文件意味着国家已经形成了算法治理的大体思路,但是算法治理的具体实施细则还不完善。应当将重点放在算法事前评估、事中监管、事后问责等阶段,具体落实算法治理的操作细则。这包括制定有关算法分级分类、算法备案、算法问责等的细化规定,以构建符合中国国情的算法治理框架。

其次,防范多领域算法风险,引导算法治理多领域协同发展。应当推进算法治理向纵深迈进,完善顶层设计,实现算法治理从政策到专项立法的过渡,强化治理力度,完善算法治理体系。目前,我国已针对某些特定领域,如推荐算法、深度合成技术进行了相关规定,但随着技术的不断发展与新事物的涌现,需要可以灵活应对不同技术和领域需求的治理框架。2023年7月公布的《生成式人工智能服务管理暂行办法》表明生成式人工智能开始被纳入国家监管与治理的范围,包括像ChatGPT这样的技术代表。这一举措表明我国正在积极回应技术发展,引导新兴技术的合理使用,并保护公众免受潜在的风险侵害。

最后,赋以权责一致算法治理原则,推进算法代码功能与责任履行的和谐共生。算法设计者、开发者的价值偏好会导致技术的偏移,使得出自其手的算法设计无法处于绝对的中立,往往会受到个人价值判断、道德抉择等约束因素的影响。因此《个人信息保护法》对算法解释权与免受自动决策权进行了确认,尽管其中缺乏行使权利的具体规定,但提供了遭受算法侵害时救济的可能性。算法解释权不应当仅是权利,还应当是义务,算法解释权保障数字个体对自动化的了解以保护公众的合法权益。例如,算法在公共领域运用时,透明度是一个至关重要的价值维度,这就要求公共部门必须公布其采用的算法的运行逻辑,以便公众可以了解并评估其自动决策的合理性。当然,透明度的规定应当进行限制,特别是涉及个人隐私和商业机密时,可以选择不公布。

(四)技术关照完善平台治理

网络平台经济商业模式、架构模式在数字社会获得前所未有的创新性。平台在市场中的结构性地位裹挟着其技术创新能力,给平台治理带来挑战。仅以制度规范平台无法满足现阶段平台治理的需求,平台治理的技术关照内含两方面的逻辑:一方面需要用法律规范平台行为,另一方面法律规范也要正视技术影响法律的过程,连通“法律”与“技术”的合作渠道。不仅要通过法律手段对平台进行驯化,将平台的风险性转化为价值性、可控性,还要正确认知平台运行的内在规律。

平台治理框架的完善是认知平台运行的过程,需要明晰平台内在的运行规律及技术机理。立法者应当充分理解平台作为“机制与通道”的技术属性,积极理性地完善平台治理法律规制体系,明晰平台法律关系,优化平台规制机制。此外,数字社会已经改变了传统视角对于技术与法律关系的界定,随着网络信息技术的结构刚性、黏性不断增强,包括平台在内的数字社会治理体系在结构上受到技术的支配。平台治理体系需要将平台技术因素的运行规律予以吸收与接纳,寻找新的视角以处理好治理规则与平台之间的关系,提升对平台运行规律的解释能力。

治理技术和技术治理是平台治理必须面对的两个问题。网络平台、大数据、生成式人工智能等新技术是被治理的对象,也可以成为治理的方式。“在一些由新兴技术所引发的问题上,用'技术’去制约'技术’的效率相对较高,应该积极探索监管科技的发展与实践。”因此,平台治理要充分利用新型技术的工具价值,探索其潜在的治理功能,并将其纳入平台治理的框架,以技术赋能平台治理。

结语

信息文明的发展造就了不平等新形式,数字不平等逐步取代数字鸿沟,成为一个外延广泛、内涵深刻的理论概念。数字不平等的复杂性植根于人类社会的复杂历史演变。自农业社会开始,经济关系与社会结构的发展演变、委托关系网络的形成以及社会精英的崛起,都为不平等提供了土壤。数字技术的崛起并没有改变这个基本场景,反而让不平等问题更加复杂。数字技术的社会化应用提供了数字不平等的起源和基础,使数字不平等成为一种日常生活现实,人类社会不可避免地面临数字不平等的挑战。

数字不平等是数字技术对原有社会结构及社会不平等的复制,数字不平等的整体性治理,是不断深化技术认知、摆脱技术崇拜、反思社会问题的长期过程。数字不平等治理也是实现数字正义的重要组成部分。数字正义是社会正义,而非仅是“机器正义”,这意味着数字技术的应用和决策过程应当符合社会伦理、法律标准,并反映社会的基本价值共识。同理,数字平等也是社会平等,而非简单的“技术平等”。在数字社会,每个人都应有平等的机会获得数字技术、数字信息和数字权利。这不仅是技术普及的问题,更是社会结构和制度体系的建构问题。伴随着数字社会负外部性问题的凸显,亟需形成更具针对性的数字不平等治理方案:在价值层面,适应数字转型,改变治理逻辑;在数据层面,审慎配置公民数字权利;在算法层面,阶段性划定和优化算法流程;在平台层面,实现技术关照下的平台治理。

责任编辑:方南

一审:万志高  二审:牛铮  终审:肖伟林

文章来源:《社会科学》2024年第1期

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多