分享

陈梁等|新闻报道中的人工智能技术:拟人化策略对受众归因的影响

 如鹿渴慕溪水88 2023-12-19 发布于广东

原文刊载于《全球传媒学刊》2023年第5期“新闻学研究”专栏。


陈梁:清华大学新闻与传播学院副教授。

谭心莹:中国海洋大学文学与新闻传播学院本科生。

【摘  要】聚焦人工智能技术在现实生活中的应用,各类媒体平台中涌现出了大量人工智能技术相关的新闻报道。本研究设计了一组线上实验(N=382),探索在不同(正面或负面)人工智能新闻事件中,报道的拟人化程度如何影响了受众对于事件责任归因的判断。结果显示,人工智能正面报道的拟人化程度显著提升了受众对于人工智能的心智感知,受众进而倾向于将积极结果归因于人工智能技术。人工智能负面报道的拟人化程度提升了受众对于人工智能的心智感知,但并未显著影响受众的事件归因。此外,在负面报道中,受众的技术焦虑调节了报道拟人化程度对人工智能心智感知的影响。

【关键词】拟人化;人工智能;心智感知;责任归因;人工智能技术焦虑

一、引言

人工智能技术的快速发展和普及正改变着人类的社会与经济结构,为现实生活带来了巨大的机遇和挑战(Dehnert & Mongeau,2022)。聚焦人工智能技术在现实生活中的应用,各类媒体平台中涌现出了大量人工智能相关的新闻报道。报道既关注人工智能技术带来的便利与效益,也聚焦诸如自动驾驶车祸、交互技术故障等人工智能所带来的负面问题,展示其在发展过程中的隐忧与风险(Nguyen & Hekman,2022)。这些媒体对人工智能技术的公共讨论将影响受众对于新技术的态度和认知(Stewart,2013)。

在众多针对人工智能技术的报道中,拟人化(anthropomorphism)是一种重要的报道策略。拟人化强调人工智能机器人所具备的人类主体特征,赋予机器人等非人类实体以类人的特征、动机或情感(Epley et al.,2007),能够一定程度上拉近人对于机器的感知心理距离(Li & Sung,2021),增强受众对于人工智能的信任感与接受度。然而,对于人工智能特征、行为的拟人化描述一定程度上也会影响受众对于人工智能的理性认知判断,并造成自动化偏差(automation bias)等责任归因与价值判断的问题(Jones-Jang & Park,2023)。基于此,一些实证研究对人工智能报道中拟人化策略的传播效果进行了探索,关注其如何形塑受众对于技术的整体认知,以及如何影响公众对事件、他人行为原因的推断过程,即公众的事件归因(Fiske & Taylor,1991;Kruijff-Korbayov & Kukina,2008;Shank & DeSanti,2018)。

虽然过往的研究为理解受众对人工智能技术的认知提供了重要洞见,但仍然存在一定的局限。首先,对于人工智能技术的感知是一个复杂的认知处理过程(Huo et al.,2022),过去的研究关注受众的归因结果,而忽略了受众的认知过程(Nicolas & Agnieszka,2021)。本研究将进一步梳理受众对人工智能相关事件进行判断时的认知机制,深入理解拟人化策略对受众归因的影响;并将纳入技术焦虑作为潜在调节变量,探索个体的人工智能技术焦虑如何影响受众的认知过程。其次,对于拟人化策略的考察不能忽视语境(context)的作用(Hong et al.,2021)。研究将综合探索正面与负面报道情境下受众对人工智能机器人行为的认知与归因,补充和完善现有研究的发现。最后,过往针对人工智能拟人化的研究往往聚焦微观角度,关注机器人的交互特征对受众的影响(Sundar,2020),而对新闻报道中这种“被描述”的拟人化关注较少。在阅读人工智能相关新闻报道的过程中,受众从旁观者的角度观察人机互动,对于人机互动事件的报道策略将影响受众对于人工智能的感知。基于此,研究将探索拟人化报道策略如何影响受众对以第三人视角呈现的人工智能事件的归因,进一步推动对于人工智能拟人化的理解。

综上所述,本研究将关注人工智能报道的拟人化程度(拟人化 vs 非拟人化)与新闻事件属性(正面报道 vs 负面报道)对受众人工智能事件责任归因的影响,探索技术焦虑在其中的潜在调节作用。研究结果将进一步完善人工智能拟人化领域的研究,并在实践上为人工智能新闻报道提供参考,为新闻媒体在普及人工智能技术风险的同时引导受众对人机互动过程作出科学的归因与价值判断提供现实指导。

二、文献综述

(一)报道拟人化程度与人工智能心智感知

完整的人性或类人性特征强调个体所具备的高阶认知与情感能力(Waytz & Norton,2014)。实证研究表明,人们会通过认知和情感两个主要维度对目标个体的心智进行评估,进而形成对于目标个体的心智感知(mind perception;Gray & Schein,2012)。心智感知是社会认知的基本要素,是评估目标个体是否具有人类特性和人格直观表征的重要指标。

在报道人工智能相关新闻的过程中,部分媒体采取了拟人化策略以吸引受众注意,从代词(使用人类昵称指代人工智能)、动词(使用人类动词描述人工智能行为,解释人工智能动机)的角度提升了报道的拟人化程度。本研究认为,高拟人化程度的人工智能报道会提升个体对于人工智能机器人的心智感知。理论层面上,计算机作为社会行动者范式为这一假设提供理论支撑。计算机作为社会行动者范式(computers are social actors)是一种描述用户对于技术社会反应的理论框架。自20世纪90年代初,大量研究人员应用这一框架解释用户与台式计算机、电视机等技术的交互(Lombard & Xu,2021)。近年来,人工智能技术的发展打开了人机交互的新可能,这一范式也被应用于解释人对于人工智能机器人的认知反应(Dehnert & Mongeau,2022)。该理论的核心观点是:个体会无意识地将社会规则和期望应用于计算机等新型技术,而人们与技术的互动在很大程度上是围绕社会线索(social cues)进行的(Nass & Moon,2000;牟怡、许坤,2018)。社会线索是人类产生社会反应的重要触发器,一个社会线索更为丰富(即人类互动属性更为突出,可以表现在语言、昵称、行为等多个方面)的人工智能机器人会引发人类更多的社会反应。拟人化程度高的新闻报道提供了大量的社会线索以供受众理解人工智能机器人的行为,使得受众无意识地将社会规则和期望应用于人工智能,提升了受众对人工智能的心智感知。

大量的实证研究也证实了为受众提供拟人化社会线索将有助于提升个体对于机器人的能力和心智水平的判断。一项基于36个人工智能虚拟人样本的定性比较分析指出,基于情感连接的“强人设”和基于感官刺激的“高颜值”能够大大提升虚拟人的社会接受度(向安玲等,2023)。有研究证实,将人脸作为社会线索可以使参与者认为计算机代理更值得信赖、更有说服力、反应更积极(Gong,2008)。拟人化程度较高的人工智能报道呈现了丰富的、基于第三方视角的拟人社会线索,对于人工智能人类特点的强调将一定程度上增强个体对于人工智能“类似人类”的判断,使得个体更有可能将新闻中的人工智能主体作为社会行动者看待,进而赋予其社会期待,提高对于人工智能心智水平的感知。

(二)人工智能技术焦虑的调节作用

对人工智能的心智水平判断是个体在接收外部拟人化线索后进行认知处理的过程,感知者(perceiver)内部固有的倾向将可能调节报道拟人化程度对个体人工智能心智感知判断的影响(Waytz et al.,2010)。以往的研究表明,每当一种新的技术被引入到人类所生活的环境中,人类会产生一种本能感觉,进而转化为心理或生理上的感受(Khasawneh,2018)。其中,一种由人工智能技术引起的非理性焦虑被称为人工智能技术焦虑(AI anxiety)。这一概念的雏形为计算机焦虑(computer anxiety),被定义为个体对当前或未来使用计算机感到不安、担忧或恐惧的倾向。Li和Huang(2020)综合恐惧习得理论,将人工智能技术焦虑归纳为安全与监管焦虑、存在焦虑、隐私侵犯焦虑等多个维度,以考察个体在面对人工智能技术时的整体态度与焦虑程度。

在人工智能相关的新闻报道中使用拟人化手法,强调了人工智能作为新兴技术的人类属性,在一定程度上体现了人工智能技术的发展。这一过程中,受众的人工智能技术焦虑可能会对受众的认知过程发挥调节作用。一方面,技术焦虑水平高的受众在一定程度上对于人工智能的心智感知更加敏感,这可能会增强拟人化程度对于人工智能心智感知判断的影响。另一方面,感知过高的人工智能心智水平将给高技术焦虑受众带来恐慌等负面情绪。为了回避这一情绪,人们将试图降低对人工智能的心智感知,这将可能抑制拟人化报道策略对心智感知的影响(Narayan et al.,2011)。

目前,已有一些研究探讨了受众的技术态度与倾向如何调节客观因素对受众技术认知与技术采用的影响。有研究关注机器人餐厅服务场景和机器人服务能力对顾客行为意向的影响,并发现对机器人的负面态度负向调节了机器人服务能力对用户心理体验价值的作用(Guan et al.,2022)。也有研究基于技术接受模型探索受众使用运动可穿戴设备意愿的影响因素,证实了技术焦虑在技术期望对技术接受态度影响过程中的调节作用(Cavdar et al.,2020)。综上所述,本研究引入技术焦虑作为潜在变量,进一步探索其对于拟人化报道策略及心智感知水平的作用。

(三)人工智能心智感知与事件归因

在对报道中人工智能主体的心智感知水平进行评估后,个体将进一步对事件进行归因(attribution)。归因是指人们对他人或自己行为原因作出推断的过程,在了解到事件结果后,人们往往结合外部情境与事件主体的行为以识别事件过程中的因果联系,形成对于事件的基本判断(Fiske & Taylor,1991)。

在这一判断的过程中,事件主体的心智感知水平将成为是否将事件结果归因于该主体的重要依据,这主要与个体归因认知过程的三个阶段有关。首先,心智感知水平较高的个体才具备进行行为决策的意图(intention),而意图则是进行道德与责任判断的关键决定因素(Gray & Schein,2012)。其次,个体对特定事件责任的积极或消极评价取决于目标行为主体是否对结果具有控制力(Weiner,2014)。根据归因理论,如果一个消极的结果被认为超出了行为主体的控制范围,那么行为主体受到的指责就会减少(Weiner,2014)。最后,具备心智感知水平的个体才具备为事件结果承担道德责任的能力,这一定程度上影响了个体是否会将事件责任归因于事件的行为主体(Waytz et al.,2010)。

在过去,已有一定的实证研究探索了心智感知与责任归因之间的关系。一项实验研究表明,与正常儿童相比,存在心理障碍症状的儿童将会受到更少的责任归因(Fincham & Emery,1988)。也有研究在人工智能违背伦理的负面情境中关注了心智感知的作用,发现强调人工智能的心智特性将显著提升个体对于人工智能技术的责任归因(Shank et al.,2019)。基于此,对于人工智能行为主体的心智感知将影响个体对人工智能的责任归因。对人工智能的心智水平评价越高,则越有可能将事件结果归因于事件中的人工智能技术。

(四)研究情境与研究问题

基于对个体归因过程的梳理,本研究提出以下基本的研究模型(见图1)。人们会因为具体情境的变化而产生差异化的归因认知路径,事件属性是归因研究中描述具体事件的重要特征变量,过往的归因研究会从事件主体属性、事件控制属性、事件结果属性等层面描述事件,进而探索个体对于事件的认知反应与伦理判断。由于本研究所讨论的报道事件主体被限定为人工智能,其在事件主体属性与事件控制属性层面没有明显差异,故研究聚焦事件结果属性考察事件情境对于个体归因过程的影响。

从事件结果属性出发,事件可以基于结果的圆满程度区分为正面事件(positive events)与负面事件(negative events)。有研究发现在人工智能与人类联合决策的情境中,虽然两类主体导致了相同的道德违背结果,但受众倾向于否认人工智能主体在事故中的过错(Shank et al.,2019);也有研究在负面情境中证实,由于受众更倾向于认为人工智能对不利结果的控制力比人类更少,因此对负面情境中的人工智能技术将更加宽容(Jones-Jang & Park,2023)。虽然目前关于人工智能归因判断的研究已较为充分,但其大多聚焦于负面情境中,正面情境中个体的责任归因认知过程还有待考察。新闻报道事件结果的差异将在多个层面影响个体的归因与判断过程。基于此,本研究将进一步综合考虑两种事件属性的情境作用,通过对比正面和负面报道的受众反应,完善目前人工智能相关的新闻研究。综上所述,本研究提出以下研究假设与研究问题:

H1a:在人工智能正面报道中,报道拟人化程度与受众所感知的人工智能心智水平呈正相关。

H1b:在人工智能负面报道中,报道拟人化程度与受众所感知的人工智能心智水平呈正相关。

RQ1a:技术焦虑如何调节了人工智能正面报道中报道拟人化程度与人工智能心智感知水平之间的关系?

RQ1b:技术焦虑如何调节了人工智能负面报道中报道拟人化程度与人工智能心智感知水平之间的关系?

H2a:在人工智能正面报道中,对于人工智能心智水平感知高的受众更倾向于将事件的积极结果归因于人工智能。

H2b:在人工智能负面报道中,对于人工智能心智水平感知高的受众更倾向于将事件的消极结果归因于人工智能。

三、研究方法

(一)抽样与被试

本研究于2023年6月进行了一项基于问卷的线上实验,运用问卷平台见数(www.credamo.com)招募被试者。招募期间,来自全国各地共400人自愿参与本线上实验,经过注意力测试和筛选掉信息缺失问卷后,最后总计回收382份有效问卷。本研究招募的382位实验被试者中,女性占比64.1%(n=245),男性占比35.9%(n=137);被试者年龄范围为18~66岁(M=30.60,SD=7.79)。被试者的文化程度专科及以下占比8.4%(n=32),本科占比73.0%(n=279),硕士及博士以上占比18.6%(n=71),家庭月收入多集中于10000~20000元,占比38.5%(n=147)。

(二)实验流程与实验材料

本研究使用在线实验法开展研究,采用多因素被试间实验设计。本研究在问卷中内嵌设计网络情景实验,被试者自愿点击实验问卷链接并被随机分配到4组不同的实验环境中。整体的实验流程分为四个阶段,第一阶段,受试者需要回答测量受试者技术焦虑水平的相关问卷。第二阶段,受试者将看到以新闻报道形式呈现的实验刺激物。报道的基本内容是一位具有自杀倾向的用户试图向人工智能机器人求助,不同类型的实验刺激物中人工智能机器人的反应与事件描述的拟人化程度不同。实验刺激物分为拟人化正面报道(n=100)、拟人化负面报道(n=96)、非拟人化正面报道(n=87)、非拟人化负面报道(n=99)四种类型。实验刺激物改编自两则真实事件报道《亚马逊智能音箱劝主人自杀:活着会给地球造成负担》(观察者网,2019)及《精准识别极端情绪,AI客服发出预警救人一命》(人民网,2020),报道中描述人工智能行为所使用的拟人化措辞也参考了实际报道。为了排除干扰,实验材料将报道中的实际地点、单位名称进行了替换和虚拟化处理,统一了两则报道的具体场景和人工智能所应用的核心技术。拟人化组中,刺激物运用了大量拟人动词、形容词对人工智能行为进行描述(如“安抚”“聪明的”“倾听”,并使用拟人化昵称“小康”代称报道中的人工智能),非拟人化组使用客观动词描述人工智能行为,使用“人工智能机器人”代称报道中的人工智能。正面报道组展现了人工智能在识别到用户自杀倾向后安抚用户负面情绪,并使用智能技术阻止用户自杀;负面报道组表现人工智能受到故障影响,错误地提取了网络信息回复受众,试图为用户介绍自杀的方法。第三阶段,研究使用李克特七级量表来测量被试者阅读报道后的观感与对于这则人工智能事件的归因,即询问其认为事件的正面或负面结果在多大程度上与人工智能有关。第四阶段,向被试者解释报道的来源与真实性特征,提示被试者理性看待人工智能发展。

(三)研究变量与测量方法

1.  人工智能技术焦虑

被试者技术焦虑水平的测量改编并参考了Li和Huang(2020)的量表,被试者需要通过李克特七级量表(其中1分代表非常不符合,7分代表非常符合)对自己的技术焦虑水平进行评估,并根据以下表述与自身情况的符合程度进行打分:(1)人工智能可能会为了达到某个目标而伤害人类;(2)我担心人工智能会给整个社会带来巨大的风险;(3)我担心人工智能会达到和人类一样的意识水平;(4)我会因为无法区分人工智能是否具有人类意识而感到不安(M=2.47,SD=1.39,Cronbach's Alpha=0.92)

2.  人工智能心智感知

被试者对于人工智能的心智感知参考了Wang和Krumhuber(2018)的量表,被试者需要通过李克特七级量表(其中1表示程度极低,7表示程度极高)对感知到的报道中人工智能心智水平进行评估,并根据对以下表述的同意程度进行打分:“您认为该报道中的人工智能机器人在多大程度上:(1)能够进行分析性思考;(2)拥有自我控制能力;(3)拥有决策能力;(4)拥有推理能力;(5)拥有规划能力;(6)能够设定目标;(7)能够理解他人的思想”(M=4.77,SD=1.80,Cronbach's Alpha=0.96)。

3.  事件归因

借鉴Tang等(2020)学者的相关测量,被试者被要求基于李克特七级量表评估“多大程度上您同意:(1)报道中的人工智能需要为事件结果负责;(2)报道中的人工智能需要为事件造成的有利/不利影响承担责任;(3)报道中的人工智能需要因事件造成的结果受到谴责/褒奖(1=非常不同意,7=非常同意)”。数值越大,代表越将事件结果的行为责任归因于人工智能(M=5.98,SD=0.95,Cronbach's Alpha=0.81)。

四、数据分析与研究结果

本研究采用单因素方差分析和卡方检验来检验实验分组随机性,使用独立样本t检验进行操纵检查,数据分析使用SPSS26.0及其中的process插件模型7进行后续数据分析。

(一)随机性检验

为对比不同组别在性别、年龄、文化程度的差异以检验实验分组的随机性,该研究采取了一系列单因素方差分析和卡方检验。结果显示,各组在性别(x2(3)=2.47,p=0.48)、教育程度(F(3,378)=0.57,p=0.63)、年龄(F(3,378)=1.96,p=0.12)、收入(F(3,378)=1.97,p=0.12)等方面都不存在显著性差

异,实验分组达到随机性要求。

(二)操纵检查

为检验实验刺激物是否成功操纵事件属性与报道的拟人化程度,研究询问每位参与者“请您判断此篇报道在多大程度上使用了拟人化手法”及“您是否同意这篇报道描述了一件人工智能负面报道”,独立样本t检验的结果显示,拟人化组的被试对于拟人化手法程度的判断显著高于非拟人化组(t=33.09,p<0.001);负面报道组对于表述的同意程度显著高于正面报道组(t=-64.32,p<0.001),证明实验操纵成功。

(三)实验结果

本研究探索了报道拟人化程度与事件属性对受众对人工智能归因过程的影响。结果显示人工智能正面报道下,报道的拟人化程度与受众对于人工智能的心智感知呈正相关关系,报道的拟人化程度越高,受众对于人工智能机器人的心智感知评价水平越高(B=0.37,p<0.001)。负面情境中,报道的拟人化程度也与受众对于人工智能的心智感知呈正相关关系(B=1.11,p<0.001)。人工智能正面报道中,对于人工智能心智感知水平越高,受众更倾向于将事件结果归因于人工智能(B=0.46,p<0.001),偏差校正的Bootstrap检验表明,在报道拟人化程度对受众人工智能责任归因的影响中,心智感知的中介效应显著,间接效应值为0.14,标准误差为0.05,95%置信区间为[0.05,0.25]。负面情境中,心智感知与责任归因的关系不显著(B=-0.03,p=0.59),假设H1a、H1b、H2a得到支持,H2b没有得到支持。

负面事件情境下,拟人化报道程度与技术焦虑水平的乘积项对人工智能心智感知的预测作用显著(B=-0.57,p<0.01);人工智能正面报道中,交互项预测作用不显著(B=0.09,p=0.18)。这说明负面事件情境中,技术焦虑水平在拟人化报道程度对人工智能心智感知的影响中起调节作用。较之低技术焦虑的用户,高技术焦虑的用户事件属性对感知认知智能的影响更强(其交互效应如图2所示)。为了解技术焦虑与报道拟人化程度交互效应的实质,将用户的技术焦虑水平按平均值加减一个标准差分为高技术焦虑组和低技术焦虑组。进一步简单斜率分析表明,不论是低技术焦虑水平(simple slope=1.67,t=10.38,p<0.001)还是高技术焦虑水平的受众(simple slope=0.54,t=3.36,p<0.01),报道的拟人化程度均对受众的人工智能心智感知有显著预测作用;针对低技术焦虑水平的受众,报道拟人化程度对人工智能心智感知的影响更强。回答了研究问题RQ1a与RQ1b。本研究假设的检验结果见图3。

五、研究讨论

本研究探索了人工智能正面和负面报道中的拟人化策略如何影响了受众对于人工智能的心智感知及事件归因,并考虑了技术焦虑对于受众归因过程的调节作用。研究结果表明,无论是正面报道还是负面报道,人工智能报道的拟人化程度与受众所感知的人工智能的心智水平均呈正相关。这一结果进一步证实了“计算机作为社会行动者”理论的整体框架与观点,报道过程中对人工智能拟人化特征的强调与拟人手法的运用为受众提供了充足的社会线索(Nass & Moon,2000),引发了用户与真实人类相处过程中的社会知觉与社会反应(Nass & Steuer,1993)。在拟人化程度高的报道中,用户更倾向于认为人工智能是一个类似人类的社会行动者,进而提升了对于人工智能的心智感知水平。

研究还发现受众的技术焦虑水平将会抑制报道拟人化程度对于人工智能感知心智水平的影响,证实了人工智能技术焦虑的调节作用。技术焦虑水平高的受众担心人工智能技术发展对于人类社会的不利影响,对于人工智能心智感知的过高判断将会对此类受众带来严重的负面情绪(Narayan et al.,2011)。为了增强自身对于人工智能技术的感知控制感,形成认知协调,受众会避免对人工智能心智感知产生过高的评估与判断。但是,技术焦虑的调节作用在人工智能正面报道中是不显著的,这主要是由于焦虑情绪的作用会在特定的负面事件情境中被激发(Khasawneh,2018)。在正面报道中,这一技术的固有倾向与负面态度难以发挥显著的作用。

进一步,本研究发现在阅读人工智能正面报道时,受众对人工智能心智水平的感知与受众的人工智能事件责任归因水平呈正相关,心智感知水平是受众在进行人工智能责任归因过程中的重要中介变量。受众对于事件的归因判断与事件主体心智水平的判断紧密相关(Hakli & Mäkelä,2019)。心智水平较高的事件主体能够具备具体行为意图与对于事件的控制能力(Gray & Schein,2012),人们往往认为其具备为事件结果承担道德责任的能力。因此,在阅读人工智能正面报道时,个体对于人工智能心智水平的感知将影响人们是否将事件结果归结于人工智能。

然而,在阅读人工智能负面报道时,对于人工智能心智水平的判断没有显著影响受众对于事件结果人工智能责任的判断。这可能是因为在负面报道情境中,对于技术“故障”等类机器特征的关注将会在受众理解人机交互的过程中产生机器自动化偏差(automation bias),即关注机器逻辑的机械性与一致性(Jones-Jang & Park,2023)。这使得用户在人工智能负面报道中往往将针对性的指责扩散到其他近距离的组织或受众(如采用技术的组织、对其进行编程的软件开发人员或与之交互的用户)(Shank et al.,2019)。一方面,与被认为拥有更多控制能力的人类相比,被认为拥有更少可控性的人工智能可能获得更少的归因指责。另一方面,即使感知到负面报道中人工智能主体的责任,现有对于人工智能的问责机制也尚不明确,这降低了受众的归因效能。亦有实证研究证实,当感知到造成公共服务失败的决策主体是人工智能而非人类工作人员时,受众也更倾向于排除人工智能本身的责任(Huo et al.,2022)。基于此,报道的拟人化程度及对于人工智能的心智感知均难以影响负面报道中受众对于人工智能机器人的责任判断。

本研究在人工智能拟人化报道的语境下丰富和扩展了“计算机作为社会行动者”范式。首先,过去应用这一模型进行人机交互探索的过程中,研究者只关注“实际”的社会线索(即人工智能机器人的固有特征)如何引起了受众对机器人的认知反应,却忽略了“被描述”的社会线索(即人工智能报道中的拟人化策略)如何影响受众的认知过程。本研究综合考虑了正面及负面的报道场景,考察了拟人化报道策略对受众人工智能归因的影响。其次,研究纳入技术焦虑作为调节变量,完善了“计算机作为社会行动者”范式在受众属性层面的理解。实践层面,本研究关注到了心智感知在受众进行机器主体责任归因过程中的中介作用。后续的人工智能报道应关注报道元素对受众人工智能心智感知的影响,并在伦理层面进行更为细化的规范和阐释,以帮助受众更好地确定人工智能的道德能动性(moral agency)问题,对技术发展过程中的进步与问题作出正确的引导。

与此同时,本研究仍然存在着一定的不足与局限,未来的研究可在以下层面进一步深入探讨。首先,本研究仅模拟了新闻文字报道的场景,探索了拟人化报道策略如何影响了受众对于人工智能的认知判断与责任归因。伴随着媒体技术的不断发展,越来越多的新闻报道将以多模态的形式呈现,虚拟现实、增强现实等新技术也将运用于展示人工智能议题的报道之中。未来的研究可以进一步探索不同模式下拟人化报道策略的影响。其次,根据目前人工智能技术的发展情况,本研究改编了两则聚焦于语义理解技术的人工智能新闻报道。然而,人工智能技术具有多重面向,未来的研究可以进一步对人工智能机器人的技术等级进行细分,关注其对于受众责任归因与判断的影响。最后,虽然本研究阐释了拟人化程度、事件属性、心智认知与受众的人工智能责任归因判断间的相关关系,但由于伦理问题的复杂性,这种描述实质是缺乏恒定标准的。也即:多大程度上的心智感知可以被归结为理性,人们又应该在何种程度上将责任归因于人工智能,这类问题其实是实验研究无法回应的。大量人工智能伦理研究在进行过程中反复强调人类可能会“利用机器作为替罪羊”(Turner Lee,2018)、可能会“放大机器的类人属性以陷入不必要的焦虑”(Dietvorst et al.,2015),但对于人工智能价值规范的问题却缺乏讨论。在人工智能技术的推动下,人机协同将从行业性应用向受众的生活层面渗透(彭兰,2023),受众对人工智能的理解与接纳程度直接关乎人机关系的良性构建与社会发展问题(刘永谋、王春丽,2023)。未来的研究与媒体报道都应结合人工智能伦理的治理前沿,直面人机互动过程中可能遭遇的价值冲突,并从客观科学的视角解释与协调多利益主体的关系,进一步为建立良性的人机互动生态作出更为深入的探索。

本文系国家社会科学基金重点课题“5G时代新闻传播的格局变迁与研究范式转型”(项目编号:21AZD143)的阶段性研究成果。

本文参考文献从略,完整版请参看刊物原文

本文引文格式:陈梁、谭心莹:《新闻报道中的人工智能技术:拟人化策略对受众归因的影响》,全球传媒学刊,2023年第5期,155-170页。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多