分享

全文阅读

 戴维斯王朝 2024-05-17 发布于广东
计算机科学与探索 2024,18(04),1010-1020

融合BERT多层次特征的短视频网络舆情情感分析研究

韩坤 潘宏鹏 刘忠轶

中国人民公安大学公安管理学院

    要:

自媒体时代与网络社交软件的广泛普及,导致短视频平台极易成为舆情事件起源和发酵的“孵化器”。分析短视频平台中的舆情评论信息,对于舆情事件的预警、处置和引导具有重要意义。鉴于此,结合BERT与TextCNN模型,提出一种融合BERT多层次特征的文本分类模型(BERT-MLFF-TextCNN),并对抖音短视频平台中的相关评论文本数据进行情感分析。首先,利用BERT预训练模型对输入文本进行编码。其次,提取各编码层中的语义特征向量进行融合。然后,融入自注意力机制突出其关键特征,从而实现特征的有效利用。最后,将所得特征序列输入TextCNN模型中进行分类。实验结果表明,与BERT-TextCNN、GloVeTextCNN和Word2vec-TextCNN模型相比,BERT-MLFF-TextCNN模型表现更优,F1值达到了0.977。通过该模型能够有效识别短视频平台舆情的情感倾向,在此基础上利用TextRank算法进行主题挖掘,实现舆情评论情感极性的主题词可视化,为相关部门的舆情管控工作提供决策参考。

作者简介:韩坤(1999—),男,河南商丘人,硕士研究生,主要研究方向为网络舆情管理、大数据分析。;潘宏鹏(1996—),男,山东潍坊人,博士研究生,主要研究方向为网络舆情管理、大数据分析。;*刘忠轶(1983—),男,河北沧州人,博士,教授,主要研究方向为智慧管理与人工智能。E-mail:liuzhongyi@ppsuc.edu.cn;

收稿日期:2023-11-02

基金:中国人民公安大学公安学一流学科培优行动及公共安全行为科学实验室建设项目(2023ZB02);北京社科基金重点项目(22GLA011);

Research on Sentiment Analysis of Short Video Network Public Opinion by Integrating BERT Multi-level Features

HAN Kun PAN Hongpeng LIU Zhongyi

School of Public Security Management, People's Public Security University of China

Abstract:

The era of self-media and the widespread popularity of online social software have led to short video platforms becoming“incubators”easily for the origin and fermentation of public opinion events. Analyzing the public opinion comments on these platforms is crucial for the early warning, handling, and guidance of such incidents. In view of this, this paper proposes a text classification model combining BERT and TextCNN, named BERT-MLFFTextCNN, which integrates multi-level features from BERT for sentiment analysis of relevant comment data on the Douyin short video platform. Firstly, the BERT pre-trained model is used to encode the input text. Secondly, semantic feature vectors from each encoding layer are extracted and fused. Subsequently, a self-attention mechanism is integrated to highlight key features, thereby effectively utilizing them. Finally, the resulting feature sequence is input into the TextCNN model for classification. The results demonstrate that the BERT-MLFF-TextCNN model outperforms BERT-TextCNN, GloVe-TextCNN, and Word2vec-TextCNN models, achieving an F1 score of 0.977. This model effectively identifies the emotional tendencies in public opinions on short video platforms. Based on this, using the TextRank algorithm for topic mining allows for the visualization of thematic words related to the sentiment polarity of public opinion comments, providing a decision-making reference for relevant departments in the public opinion management work.

Keyword:

network public opinion; sentiment analysis; theme visualization; BERT;

Author: HAN Kun, born in 1999, M.S. candidate. His research interests include network public opinion management and big data analysis.; PAN Hongpeng, born in 1996, Ph.D. candidate. His research interests include network public opinion management and big data analysis.; LIU Zhongyi, born in 1983, Ph.D., professor. His research interests include smart management and artificial intelligence.;

Received: 2023-11-02

Fund:supported by the Construction Project of the First Class Discipline Training Action and Public Safety Behavior Science Laboratory of Public Security at People’s Public Security University of China(2023ZB02);the Key Project of Beijing Social Science Foundation(22GLA011);

随着移动互联网的飞速发展,我国互联网用户数量持续增长。根据中国互联网络信息中心(China Internet Network Information Center,CNNIC)发布的第52次《中国互联网络发展状况统计报告》显示:截至2023年6月,我国网民规模已达10.79亿,较2022年12月增长1 109万,互联网普及率达76.4%[1]。各种基于互联网的短视频平台已成为网民发布和获取信息的重要渠道。其中,抖音凭借其受众兼容性强、内容普及性高、门槛准入性低等优势,目前已成为主流平台之一。截至2023年1月,抖音用户数量已达8.09亿,其知名度和影响力均领先于其他短视频平台。

随着抖音等短视频平台迅速发展,海量的富含情绪化的网络舆情评论信息随之产生。网民在浏览短视频的过程中,极易受到评论区中情绪化信息的影响,甚至改变其对有关事件的判断以及自身的立场。短视频平台的个性化推送所导致的“信息茧房”效应,也强化了情绪化信息的影响。这对政府部门的网络舆情治理工作提出了新的挑战,如果不能及时有效地把控短视频平台中舆情事件的情感趋势,极易出现“以讹传讹”的现象,从而引发社会舆论危机[2]。在此背景下,情感分析方法能够精准识别短视频平台中舆情情感倾向,充分发挥网络舆情预警工作的前瞻性,及时疏导网民负面情绪,支持政府部门及时、准确、高效地引导网络舆情合理、健康发展[3]

鉴于此,本文将文本情感分析技术引入短视频网络舆情分析领域,设计了一种基于BERT(bidirectional encoder representations from transformers)多层次特征融合(multi-level feature fusion,MLFF)的文本分类模型(BERT-MLFF-TextCNN)。在此基础上,构建基于该模型的短视频网络舆情情感分析框架(如图1所示),以抖音短视频平台作为数据源,选取2022年“唐山打人事件”为样本案例,采集点赞量大于200万的视频评论区文本数据进行情感分析,并筛选出其中的热门主题。通过结合不同情感对应的文本信息,研判情感产生的原因,及时发现潜在的舆情焦点和隐患,为政府部门完善舆情分析机制、防范化解舆情风险提供决策支持。

正在加载图片

图1 短视频网络舆情分析框架   下载原图

Fig.1 Framework of short video public opinion analysis

本文的主要贡献如下:

(1)提出一种基于BERT多层次特征融合的文本分类模型,该模型不仅能够深入挖掘文本的高级语义信息,还能捕捉到语法和词汇层面的基础特征,从而实现更全面的文本分析。

(2)通过在本研究构建的数据集上进行实验,有效验证了本文模型的性能。

(3)采用TextRank算法提取主题词,并通过可视化手段加以展现。依据分析结果,进一步提出了具体舆情管理建议。

1 国内外相关工作

1.1 国内外研究总体分析

1.1.1 国内研究现状

在知网中以“短视频”和“舆情”为关键词进行搜索,结果显示,自2018年以来相关的学术期刊共计388篇。其中,关于短视频舆情的研究主要涉及“新闻与媒体”“社会学及统计学”“行政学及国家行政管理”等学科,而涉及“计算机软件及计算机应用”学科的相关研究文献仅有4篇。进一步将筛选好的文献以Refworks文件格式导出,并运用Citespace软件对文献信息进行分析,得出相关文献中前10的关键词与关键词“情感分析”的频次和中心性,如表1所示。其中,频次是指某关键词在文献数据集中出现的次数,频次较高的关键词通常代表着该研究领域的主要研究主题和热点。中心性则反映了某个关键词在该研究领域中的重要性,也是衡量研究热度的重要指标。


  

表1 国内研究文献关键词频次  下载原图

Table 1 Keyword frequency in domestic research literature

正在加载图片

从表1中可以看出,关键词“情感分析”仅出现过1次,对应研究提出了一种融合母评论文本信息的短文本评论情感分类模型[4]。该模型运用卷积神经网络(convolutional neural network,CNN)提取原评论文本特征,同时利用门控循环单元(gated recurrent unit,GRU)提取母评论文本特征,然后将两种文本特征融合并进行情感分类。在此基础上,利用短视频平台的文本评论数据来验证该模型的有效性。

1.1.2 国外研究现状

国外研究文献的搜集以“Web of Science核心合集”为基础,以“short-form video public opinion”和“short video public opinion”为关键词,结果显示,自2004年以来相关的学术期刊共计45篇。其中,关于短视频舆情的研究方向主要包括“知识工程与表达”“通信技术”及“法律”等。在此基础上,将筛选后的文献以纯文本格式导出,并运用Citespace软件对文献信息进行分析,得出相关文献中前10的关键词与关键词“情感分析”的频次和中心性,如表2所示。

如表2所示,与国内研究现状相似,关键词“情感分析(sentiment analysis)”仅被提及1次,对应研究提出了一种采用多尺度卷积神经网络与交叉注意力融合机制的情感分析模型[5],并利用该模型对短视频平台的视频、音频与文本数据进行情感分析。实验结果表明,该模型在准确率和计算速度方面均超越了基准方法。


  

表2 国外研究文献关键词频次  下载原图

Table 2 Keyword frequency in foreign research literature

正在加载图片

综合国内外文献的研究主题可以看出,有关短视频网络舆情的研究主要聚焦于新媒体动态、用户行为模式以及舆情引导策略等方面,而针对文本情感分析技术在短视频网络舆情管理中的应用研究相对较少。与前人研究相比,本文将情感分析聚焦于短视频平台的评论文本并对文本特征提取方式进行创新,提出一种基于BERT多层次特征融合的情感分类模型,以提高文本情感分析的准确率。此外,本研究通过运用TextRank算法提取主题词并进行可视化处理,能够有效识别不同情感舆论的焦点,并据此提出舆情管理建议,增加了本研究在舆情监控与决策支持方面的实际应用价值。

1.2 文本情感分析文献综述

文本情感分析也称为意见挖掘,是指对带有情感色彩的主观性文本进行分析,挖掘其中蕴含的情感倾向,对情感极性进行划分[6]。目前常用的文本情感分析方法主要是基于情感词典、机器学习以及深度学习的方法。

1.2.1 基于情感词典的分析方法

基于情感词典的情感分析方法依赖于情感词典中情感词语的预设情感值,并通过加权运算得出文本的情感倾向。此类方法在具体实施过程中没有考虑词语间的联系,即每个词语的情感倾向是预先设定的,不会因应用领域或上下文语境的不同而有所改变,因此需要针对特定领域建立相关的情感词典来提高分类的准确率。周知等[7]将信息熵与领域情感词典相结合,提出了一种新型的评价方法,拓宽了领域情感词典的应用场景。柳位平等[8]利用中文情感词建立一个基础情感词典用于专一领域情感词识别,并且在中文词语相似度计算方法的基础上提出了一种中文情感词语的情感权值的计算方法。该方法能够有效地在语料库中识别及扩展情感词集并提高情感分类效果。Wu等[9]利用网络资源成功建立首个针对俚语的情感词典,便于准确分析含有俚语的社交媒体内容的情感倾向。Zhang等[10]将扩展后的情感词典用于计算微博文本情感分类的权重,与基本情感词典相比,扩展后的情感词典在性能方面提高了10%左右。

虽然基于情感词典的方法具有较强的普适性,并且易于实现,但该方法对于情感词典的构建有着较高的要求,这往往需要相关领域的研究人员投入大量的时间和精力来构建高质量的情感词典。此外,在互联网语境中,新的表达方式和词汇不断涌现,而该方法依赖于预设的情感词典,很容易出现现有情感词典不能满足当下需求的情况。

1.2.2 基于机器学习的分析方法

基于机器学习的情感分析方法是利用大量有情感标记或无标记的文本数据进行训练,从而构建一个情感分类器。这种分类器可以预测新句子的情感倾向。常见的机器学习算法有决策树(decision tree,DT)、朴素贝叶斯(naive Bayes,NB)和支持向量机(support vector machine,SVM)等[11]。Pang等[12]利用三种常见的机器学习算法进行文本情感分析的对比研究,结果表明支持向量机的效果最优。Jadav等[13]运用数据增强技术对实验所用的训练集进行扩充,有效提升了支持向量机模型的情感分类效果。Dey等[14]利用朴素贝叶斯算法和K近邻算法(K-nearest neighbor,KNN)对电影评论和酒店评论进行情感分析,发现朴素贝叶斯算法在电影评论中表现较好,而在酒店评论方面,朴素贝叶斯算法的准确性与KNN算法相差不大。这一研究结果也突显了机器学习算法在不同情境和数据类型下可能会有不同的表现。

相对于基于情感词典的分析方法,基于机器学习的分析方法对情感分析更加准确,并且展现出更强的扩展性和复用性。然而,该方法的分类效果依赖于数据集的质量,而构建大规模的高质量数据集需要较高的人工成本。此外,人工标注的方式导致数据标注的结果具有一定的主观性,这种主观性也会影响模型的分类效果。

1.2.3 基于深度学习的分析方法

深度学习方法通过多层次的神经网络进行学习,有效解决了机器学习难以克服的众多问题,目前在图像、语音处理以及文本分类等领域均取得了较好的效果。常用的深度学习模型包括卷积神经网络、循环神经网络(recurrent neural network,RNN)、长短期记忆网络(long short-term memory,LSTM)、Transformer和注意力机制等。冯兴杰等[15]在CNN模型中引入注意力机制,并在酒店评论数据集的分析中取得了优异效果。Tang等[16]利用微博评论文本对LSTM模型进行训练,得到短文本情感分类模型,并借助该模型判别短文本语料的情感倾向。

2018年10月,Google公司提出了BERT预训练模型[17],该模型在11项自然语言处理任务中均刷新了以往的记录,成为自然语言处理领域的一项重大突破。基于此,有关学者利用大规模的语料库进行预训练,学习其中蕴含的语义关系后进行下游任务词向量的输入。例如刘思琴等[18]和方英兰等[19]分别利用BERT预训练模型代替Word2vec和GloVe提取词向量作为其他模型的输入,从而取得了更加出色的分类效果。

与前两种方法相比,基于深度学习的分析方法具有显著优势。首先,深度学习方法具有强大的表示学习能力。这种能力使深度学习模型能够自动学习输入数据与输出目标之间的复杂映射关系,有效解决了传统机器学习方法中需要手动设计特征的问题。其次,深度学习方法具有良好的抽象化和泛化能力。深度学习模型通过多层非线性变换,能够提取更高层次、更加抽象的特征,使得模型能够更好地理解和分析含有复杂情景和语义的文本信息,提高了文本情感分析的性能。最后,深度学习模型的预训练和微调策略为文本情感分析任务提供了强大的工具。例如,BERT、GPT(generative pre-trained transformer)等预训练模型在大规模文本数据上进行无监督学习,获取丰富的语言表示,然后针对特定任务进行微调,这种方法大幅提高了模型的效率和效果。

值得注意的是,深度学习也存在诸如“梯度消失”和“梯度爆炸”等问题。这些问题会破坏模型在学习过程中的稳定性,进而影响模型的收敛速度和效果。此外,深度学习模型由于其复杂性,往往难以解释其决策逻辑,这在某些需要理解模型决策依据的场景中有待进一步剖析。

2 模型构建

2.1 自注意力机制

自注意力机制(self-attention mechanism)属于宏观的注意力机制(attention mechanism)概念中的一种。关于注意力机制的原理,可将其作用过程视为一个查询操作Query和一系列键值对<Key,Value>进行依次的交互作用从而使Query得到附加注意力值的过程,其计算过程如式(1)所示:

其中,Q代表查询向量矩阵Query,K代表键向量矩阵Key,V代表值向量矩阵Value,dK代表键向量的维度。通过使用Q与K进行点积运算,然后对运算结果进行缩放,并通过应用softmax函数进行归一化得到注意力权重Attention(Q,K,V)。所谓自注意力机制是指特征序列自身与自己进行注意力处理,即Q=K=V。经过自注意力机制处理后,特征序列的整体性会变得更强,从而更能代表语句的含义。

2.2 BERT预训练模型

BERT预训练模型是一种构建在Transformer编码器基础之上的,继承了其深层自注意力机制和前馈神经网络的复杂结构。但与传统Transformer编码器存在显著差异的是,BERT模型的输入信息由一种多元素的结构组成,包括词汇嵌入(token embeddings)、片段嵌入(segment embeddings)以及位置嵌入(position embeddings)。凭借这一结构组成,BERT模型可有效解决传统Transformer模型无法考虑文本时序信息的问题。

此外,BERT模型通过在大量未标注的文本数据上进行预训练,能够得到包含深度语义信息的文本向量。在此基础上,只需适当“微调”模型参数,即可将其广泛应用于序列标注、文本分类等多种下游训练任务中。训练任务一般包括掩码语言模型(masked language model,MLM)和上下句预测任务(next sentence prediction,NSP)两种。在MLM任务中,BERT模型通过在输入的文本序列中随机掩盖一些单词,并要求模型预测这些被掩盖的单词。该项任务能够促使模型学习到单词的上下文信息,以便更好地理解语言的语义和句法结构。在NSP任务中,BERT模型则将随机两个句子作为输入,并预测这两个句子是否具有连续关系,以此帮助模型理解句子之间的逻辑关系和语义连贯性。

BERT模型结构如图2所示。BERT模型的语义获取部分由多个Transformer模型的编码层(encoder)连接而成。经过多重编码层的处理,模型能够深入挖掘句子中的语义特征,最后输送到下游任务进行目标任务操作。为了获取文本的深层语义信息,BERT模型一般由多个编码层组成,例如,BERT-base模型中包含12个编码层,BERT-large模型中包含24个编码层。

正在加载图片

图2 BERT模型结构   下载原图

Fig.2 BERT model structure

2.3 基于BERT模型的多层特征融合策略

在近年的深度学习研究中,编码层的数量常被视为模型深度与复杂度的象征。但随着编码层的逐渐增多,模型可能会呈现超出其本质的文本解读,从而使得模型在未知数据上受到特定噪音或异常特征的影响。这种现象不仅会导致模型的泛化能力下降,而且容易引发过拟合现象,即模型在训练数据上展现出色,但在验证或测试集上性能不佳。

考虑到上述问题,本文提出一种基于BERT预训练模型的多层次特征融合策略。选择BERT作为基础,是基于其在各种自然语言处理任务上已经证明的优越性能及其深度的Transformer架构,能为文本编码带来丰富的上下文信息。其基本结构如图3所示。

正在加载图片

图3 基于BERT预训练模型的多层次特征融合策略   下载原图

Fig.3 Multi-level feature fusion strategy based on BERT pre-trained model

具体步骤包括:

(1)多层特征提取。传统方法通常从BERT模型的最后一层提取特征,但这种方法可能会漏掉模型初级编码层的关键信息。为了充分利用BERT模型的多层结构,本文采用从每个编码层提取“[CLS]”向量的方法,该向量能够代表输入序列的语义特征。通过这种方法,不仅能够捕捉到文本的高级语义信息,而且能够获得初级编码层的语法和词汇特征。

(2)特征融合。将各编码层的“[CLS]”向量进行拼接操作,从而构建一个综合特征向量。此步骤的目的在于整合BERT模型中各层的特征信息,以保证细节的完整性。经此步骤得到的特征序列是融合多个语义层次的综合文本表示。

(3)引入自注意力机制。经上述步骤虽然得到融合多层次的特征序列,但并非所有特征都同等重要,需要利用自注意力机制对特征进行筛选和加权,从而强化其中的关键特征并抑制不相关或者冗余的信息。

2.4 TextCNN模型

TextCNN(text convolutional neural network)模型是CNN模型的一种变体,是利用卷积神经网络进行文本分类的算法,其模型结构如图4所示。与普通的CNN模型相同,TextCNN模型也是由嵌入层、卷积层、池化层以及全连接层组成。但与传统CNN模型不同的是,TextCNN模型的卷积核的宽度与词向量的维度相等,且卷积核只会在句子矩阵的高度方向移动。使用大小不同的卷积核进行卷积操作能够充分学习上下文之间的语义关系,捕捉句子中的局部相关性,从而得到更加全面的特征数据。

正在加载图片

图4 TextCNN模型结构   下载原图

Fig.4 TextCNN model structure

(1)嵌入层。嵌入层的作用是将输入的句子进行向量化处理,从而得到一个句子矩阵,矩阵的行是对应的词向量。例如,目标语句X中包含n个词语,每个词语用k维的向量表示,则该目标语句对应的矩阵维度为n×k,矩阵大小如式(2)所示:

其中,Xi为文本中第i个词语的词向量表示,⊕为向量的拼接操作。

(2)卷积层。卷积层是TextCNN模型的核心部分,卷积层通过利用不同大小的卷积核对嵌入层生成的句子矩阵进行卷积操作得到特征矩阵C=[c1,c2,…,cn-1,cn]。例如,卷积核的大小为h×k,其中h是卷积核覆盖的词语的数量,k是词向量的维度,则卷积操作可用式(3)表示:

其中,ci为卷积结果的第i个元素,W为卷积核的权重矩阵,·为矩阵点乘,Xi:i+h-1为输入矩阵的一个片段,b为偏置项,f为激活函数,例如ReLU函数。

(3)池化层。由于不同大小的卷积核生成的特征映射的维度不同,需要通过池化层对卷积层输出的特征图进行池化处理,以得到固定长度的特征向量。常用的池化方法是1-max池化方法,即选择每个特征映射中的最大值作为该特征映射的代表值,从而实现对每个特征映射的压缩。具体计算过程如式(4)所示。在此基础上,将所有卷积核的池化结果进行拼接,得到由最大特征值组成的全局特征,如式(5)所示。

(4)全连接层。全连接层在TextCNN模型中起到决断的作用。在卷积层和池化层对特征进行提取和合并之后,在全连接层中使用softmax激活函数得到最终的分类结果,具体计算公式如下:

2.5 BERT-MLFF-TextCNN模型

本文在上述基础上提出基于BERT多层次特征融合的TextCNN文本分类模型(BERT-MLFF-TextCNN),模型结构如图5所示,主要组成如下:

(1)BERT编码层。该模型首先借助BERT预训练模型对输入的文本数据进行编码。BERT预训练模型作为一种深度双向的Transformer模型,已被证明在各种自然语言处理任务中具有超越其他模型的性能。利用BERT对文本进行编码能够为后续的特征提取和分类提供丰富而准确的文本表示。

(2)多层次特征融合层。在文本编码的过程中,该模型特别强调了对BERT模型各编码层中“[CLS]”向量的提取和利用。通过对多个层次的“[CLS]”向量进行拼接,能够融合文本的浅层语义和深层语义特征,从而有效提高模型的特征表示能力。

(3)自注意力层。为了进一步强化文本中的关键语音信息,BERT-MLFF-TextCNN模型引入了自注意力机制对特征序列进行动态赋权。这意味着不同特征在模型的决策中将有不同的权重,有助于模型更为准确地捕捉文本中的关键部分。

(4)TextCNN分类层。经过上述的特征提取和增强后,特征序列被输入TextCNN模型中进行分类。TextCNN模型擅长捕捉局部关联特征,通过这种方式,可以确保模型充分挖掘文本中的局部信息。

正在加载图片

图5 BERT-MLFF-TextCNN文本分类模型   下载原图

Fig.5 BERT-MLFF-TextCNN text classification model

综合来看,BERT-MLFF-TextCNN模型实现了深层与浅层、全局与局部特征的有机融合。这种设计理念为文本数据提供了一个更为全面的特征表示,从而使模型在文本分类任务中展现出更强的鲁棒性和准确性。

3 实验应用研究

3.1 实验数据集获取与预处理

3.1.1 数据集获取

抖音作为网络舆情传播载体,自上线以来便受到广大网民的追捧,并迅速发展成为互联网的流量高地。根据抖音平台公布的数据,截至2021年6月,抖音的日活跃用户数已经超过了1.5亿,月活跃用户数更是超过了3亿。此外,已有超500家政府和媒体机构落户抖音平台,由此可见抖音在短视频平台领域的影响力和代表性[20]。鉴于此,本实验选取2022年“唐山打人事件”为样本案例,以抖音短视频平台作为数据源,利用基于Pycharm开发环境构建的爬虫工具进行数据采集,从中爬取2022年6月1日至2022年8月1日间有关“唐山打人事件”的评论信息共计21 045条,组成实验数据集。

3.1.2 数据预处理

为了提高模型的准确性,需要先对收集到的数据集进行预处理操作。具体包括以下步骤:

首先,删除无效文本。由于数据采集均来自于抖音平台的评论区,采集到的文本数据经常存在“@+用户名”形式的内容。鉴于“用户名”中包含的字符会对情感分析产生影响,对于此类文本数据不能简单地删除“@”特殊符号,而应当删除整条数据。此外,在数据采集的过程发现存在借用评论区为其他热点事件引流的情况,例如,“毒教材事件怎么没有人关注”“麻烦大家关注一下上海金山案件”等评论。类似评论与视频主题无关,同样应当删除。

其次,分词与停用词过滤。借助Jieba工具完成中文分词,并在此基础上通过自定义词典和正则表达式完成停用词过滤。

最后,分类标注。对经过上述处理的评论信息进行标注,用“0”表示“消极情感”,用“1”表示“积极情感”,最终得到包含消极情感的评论8 957条,包含积极情感的评论9 631条,具体数据分布情况如表3所示。本研究使用的评论数据共18 588条,属于小规模样本集(几万量级)。因此,按照6∶2∶2的比例将数据集随机划分为训练集、验证集以及测试集。


  

表3 数据集分布  下载原图

Table 3 Dataset distribution

正在加载图片

3.2 实验环境与超参数取值

本文使用的实验平台为Anaconda,硬件为Intel i7-12700H处理器,16 GB内存,RTX 3060处理器。编码采用Python 3.7.16版本,深度学习库为Pytorch1.13.1,机器学习库为Sklearn 1.0.2。为了确保模型取得更好效果,在保持其他参数不变的情况下,通过多次实验调整模型的可调参数,最后确定最佳参数值,如表4所示。


  

表4 超参数设置  下载原图

Table 4 Setting of hyperparameters

正在加载图片

3.3 评估指标

本文实验使用的评价指标包括四个:精确率(Precision)、召回率(Recall)、F1值和准确率(Accuracy)。其中,精确率记作“P”,召回率记作“R”。由于本文实验在本质上属于文本情感分析中的二分类任务,可以参考二分类的混淆矩阵定义计算符号:TP表示真实值和预测值均为正类的样本数量;FN表示真实值为正类,预测值为负类的样本数量;FP表示真实值为负类,预测值为正类的样本数量;TN表示真实值和预测值均为负类的样本数量。本文实验使用的评价指标的计算方式如式(7)~(10)所示[21]:

4 研究结果

4.1 性能评价

为验证BERT-MLFF-TextCNN模型的有效性,本文分别计算了BERT-MLFF-TextCNN、BERT-TextCNN、Word2vec-TextCNN及GloVe-TextCNN四种模型在数据集上的精确率、召回率、准确率和F1值,结果如表5所示。


  

表5 各模型实验结果  下载原图

Table 5 Experimental results of each model

正在加载图片

可以看出:在上述四类文本情感分析模型中,BERT-MLFF-TextCNN模型表现最佳。F1值方面,BERT-MLFF-TextCNN模型达到了0.977,与BERT-TextCNN模型、GloVe-TextCNN模型和Word2vecTextCNN模型相比,均有所提升。

4.2 主题可视化与对策建议

主题词的提取过程通常需要借助无监督学习的方法,比如TF-IDF(term frequency inverse document frequency)、隐含狄利克雷分布(latent Dirichlet allocation,LDA)以及TextRank算法等。与其他方法相比,TextRank的优势在于它能够直接进行主题词的提取,无需进行预先训练。基本原理是:首先,利用词汇间的共现关系构建词汇连接图,将每个词与其相邻词的连接视作一种投票机制,连接的数量反映边的权重。然后,通过迭代计算获得词语的重要性直至收敛。最后,根据重要性对词汇进行排序,选择排名前列的一些词作为关键词[22]。在4.1节的基础上,采用TextRank算法对评论文本进行主题词的抽取,并根据每个主题词的权重形成词云图,结果如图6所示。

正在加载图片

图6 词云图   下载原图

Fig.6 Word cloud chart

从图6中可以看出,积极情感极性的评论的关键词主要包括“报警”“勇敢”“老板娘”等。此类评论主要是网民对老板娘保存监控视频以及现场女生报警行为的称赞。例如“面对恶人不顾自身安危,勇敢报警,是当代见义勇为的女英雄,为你点赞”“感谢老板娘保存完整监控”等。

与积极情绪相比,舆情事件中的消极情绪更应得到政府相关部门的重视,这是因为消极情绪的舆情影响力远大于积极情绪,若政府相关部门不能及时采取行动,这些负面信息会迅速产生严重的社会影响,甚至由线上引发线下冲突[23]。通过词云图可以看出,消极情感极性的评论中关键词主要包括“严惩”“老板娘”“视频”“男”等。产生这些负面情绪的原因主要在于:第一,犯罪分子的残暴行为引起了网民的强烈愤怒,纷纷要求执法机关从严惩处犯罪分子;第二,部分评论指出老板娘系某犯罪分子亲属,导致网民将矛头指向老板娘;第三,监控视频显示,事件发生时周围的男性无人上前劝阻,因此部分网民对在场男性的“不作为”行为表示谴责。

基于上述分析,未来应加强以下几方面的工作:

第一,及时发布权威有效信息。在网络舆情事件爆发初期,网民所掌握的信息量有限,对舆情事件的认知判断主要受自身情绪的影响。在此情况下,当网民接触到不实言论和偏执评价时,极易产生负面情绪,并在心理上形成难以修正的“第一印象”。因此,政府部门必须及时发布权威且有效的信息。为了有效控制网络舆论,政府应采取两项关键措施:首先,应遵循“舆情黄金4小时法则”,在网络舆情发生后的最初4小时内迅速发布权威信息,并积极回应公众疑虑,以赢得舆论引导的优势。其次,应持续更新并发布后续权威信息,遵循“快速报道事实、谨慎分析原因、重视表明态度、持续更新进展”的原则,确保在法律允许的范围内尽可能多地公开信息,让公众了解更多真实情况。

第二,充分发挥政务新媒体的作用。媒体作为“舆论缓冲”的平台,能够在满足自身价值观实现的同时确保公众对于某一时间的不满情绪得到法律允许前提下的发泄,从而达到稳定社会情绪的作用[24]。面对网络舆情事件,政府部门需有效利用政务新媒体,及时发布官方信息,以缓解社会矛盾并消除谣言。在这个过程中,政府必须确保所提供信息的真实性,以增强媒体的引导作用。同时,政务新媒体应从“单向传播”转向“双向互动”,抛弃官僚思维,采用网民喜闻乐见的风格,以灵活的沟通方式和丰富的语言内容与网民进行沟通,力求达成舆论共识。

第三,疏导公众负面情绪。情绪宜“疏”不宜“堵”,网络舆情中产生的负面情绪不宜用压抑的方式去解决,压抑和抵制反而会引发更激烈的愤怒和不满情绪,导致舆论爆发和群体情绪化[25]。因此,舆情事件发生后,应为网民提供疏导情绪的合理途径,例如推广在线咨询服务、构建政府在线论坛等。此外,还应从当事人、受害人等多方面,结合现实、法律和道德等多维度深入分析舆情事件,引导网民做出客观判断,从而避免情绪极化产生。

5 结束语

本文提出了一种基于BERT多层次特征融合的文本分类模型BERT-MLFF-TextCNN,以抖音短视频平台为例,对“唐山打人事件”中的热门舆情评论进行情感分析。实验结果表明,与BERT-TextCNN、GloVe-TextCNN和Word2vec-TextCNN模型相比,BERT-MLFF-TextCNN模型展示出了更为优秀的性能。在此基础上,利用TextRank算法提取评论信息中的热门主题词,并进一步分析深层次的原因,从而为政府相关部门的舆情管控工作提供决策参考。在本研究中,数据采集主要集中在抖音短视频平台。为进一步拓展研究的广度和深度,未来研究应考虑将快手、微信视频号等其他短视频平台作为补充数据来源。此外,在数据处理部分,本文仅将评论的情感倾向分为积极和消极两类,这种做法虽然为后续研究提供了便利,但是也丢失了一些有价值的信息。基于此,在下一步研究中,可通过增加情感类别,将评论情感倾向划分到更细粒度,为舆情管控工作提供更具针对性的决策依据。

作者图片

韩坤
潘宏鹏
刘忠轶

参考文献

[1] 中国互联网络信息中心.第52次《中国互联网络发展状况统计报告》[EB/OL].[2023-08-28]. https://www./n4/2023/0828/c88-10829.html.China Internet Network Information Center. The 52nd statistical report on China’s Internet development[EB/OL].[2023-08-28]. https://www./n4/2023/0828/c88-10829.html.

[2] 祁凯,李昕.基于S3EIR模型的政务短视频网民情绪感染路径研究[J].情报理论与实践, 2022, 45(10):164-168.QI K, LI X. Research on propagation path about netizens’emotions of government affairs short video based on S3EIR model[J]. Information Studies:Theory&Application, 2022,45(10):164-168.

[3] 孙靖超.基于优化深度双向自编码网络的舆情情感识别研究[J].情报杂志, 2020, 39(6):159-163.SUN J C. Sentiment analysis of network public opinion based on optimized bidirectional encoder representations from transformers[J]. Journal of Intelligence, 2020, 39(6):159-163.

[4] 潘苏楠,邓三鸿,王蔚萍.融合母评论文本信息的评论短文本情感分析研究——以短视频评论文本为例[J].情报探索, 2023(4):1-7.PAN S N, DENG S H, WANG W P. Research on the short text sentiment analysis with the text of parent-comment:a case study of short video comments[J]. Information Research, 2023(4):1-7.

[5] SHI W, ZHANG J, HE S Y. Understanding public opinions on Chinese short video platform by multimodal sentiment analysis using deep learning based techniques[J/OL]. Kybernetes[2023-09-12]. https://www./insight/content/doi/10.1108/K-04-2023-0723/full/html.

[6] 王婷,杨文忠.文本情感分析方法研究综述[J].计算机工程与应用, 2021, 57(12):11-24.WANG T, YANG W Z. Review of text sentiment analysis methods[J]. Computer Engineering and Applications, 2021,57(12):11-24.

[7] 周知,李名子,崔旭.基于领域情感词典的用户生成内容有用性评价研究——以豆瓣读书为例[J].情报理论与实践, 2022, 45(1):86-92.ZHOU Z, LI M Z, CUI X. Research on helpfulness evaluation of user generate content based on domain sentiment lexicon:taking Douban reading as an example[J]. Information Studies:Theory&Application, 2022, 45(1):86-92.

[8] 柳位平,朱艳辉,栗春亮,等.中文基础情感词词典构建方法研究[J].计算机应用, 2009, 29(10):2875-2877.LIU W P, ZHU Y H, LI C L, et al. Research on building Chinese basic semantic lexicon[J]. Journal of Computer Applications, 2009, 29(10):2875-2877.

[9] WU L, MORSTATTER F, LIU H. SlangSD:building, expanding and using a sentiment dictionary of slang words for short-text sentiment classification[J]. Language Resources and Evaluation, 2018, 45(2):196-211.

[10] ZHANG S, WEI Z, WANG Y, et al. Sentiment analysis of Chinese micro-blog text based on extended sentiment dictionary[J]. Future Generation Computer Systems, 2018, 81:395-403.

[11] NEETHU M S, RAJASREE R. Sentiment analysis in Twitter using machine learning techniques[C]//Proceedings of the 4th International Conference on Computing, Jul 4-6,2013. Piscataway:IEEE, 2013:450-454.

[12] PANG B, LEE L, VAITHYANATHAN S. Thumbs up? Sentiment classification using machine learning techniques[C]//Proceedings of the 2002 Conference on Empirical Methods in Natural Language Processing, Philadelphia, Jul 6-7, 2002.New York:ACM, 2002:79-86.

[13] JADAV B M, VAGHELA V B. Sentiment analysis using support vector machine based on feature selection and semantic analysis[J]. International Journal of Computer Applications, 2016, 146(13):26-30.

[14] DEY L, CHAKRABORTY S, BISWAS A, et al. Sentiment analysis of review datasets using naive Bayes and K-NN classifier[J]. International Journal of Information Engineering and Electronic Business, 2016, 8(4):54-62.

[15] 冯兴杰,张志伟,史金钏.基于卷积神经网络和注意力模型的文本情感分析[J].计算机应用研究, 2018, 35(5):1434-1436.FENG X J, ZHANG Z W, SHI J C. Text sentiment analysis based on convolutional neural networks and attention model[J]. Application Research of Computers, 2018, 35(5):1434-1436.

[16] TANG D, QIN B, LIU T. Document modeling with gated recurrent neural network for sentiment classification[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Stroudsburg:ACL, 2015:1422-1432.

[17] DEVLIN J, CHANG M W, LEE K, et al. BERT:pre-training of deep bidirectional transformers for language understanding[J]. arXiv:1810.04805, 2018.

[18] 刘思琴,冯胥睿瑞.基于BERT的文本情感分析[J].信息安全研究, 2020, 6(3):220-227.LIU S Q, FENG X R R. Text sentiment analysis based on BERT[J]. Journal of Information Security Research, 2020, 6(3):220-227.

[19] 方英兰,孙吉祥,韩兵.基于BERT的文本情感分析方法的研究[J].信息技术与信息化, 2020(2):108-111.FANG Y L, SUN J X, HAN B. Research on text emotion analysis method based on BERT[J]. Information Technology and Informatization, 2020(2):108-111.

[20] 科猫网.抖音用户有多少(抖音2021年数据分析)[EB/OL].[2023-09-12]. http://news./n/315774.html.Kemao Net. How many Douyin users are there(data analysis of Douyin in 2021)[EB/OL].[2023-09-12]. http://news./n/315774.html.

[21] 李航.统计学习方法[M].北京:清华大学出版社, 2012.LI H. Statistical learning methods[M]. Beijing:Tsinghua University Press, 2012.

[22] 罗婉丽,张磊.结合拓扑势与TextRank算法的关键词提取方法[J].计算机应用与软件, 2022, 39(1):334-338.LUO W L, ZHANG L. Keywords extraction method combining topological potential and TextRank algorithm[J].Computer Applications and Software, 2022, 39(1):334-338.

[23] 龙玥,刘译阳.新媒体环境下高校负面网络舆情传播特征和路径研究[J].情报科学, 2019, 37(12):134-139.LONG Y, LIU Y Y. Propagation characteristics and paths of negative network public opinions in colleges under the new media environment[J]. Information Science, 2019, 37(12):134-139.

[24] 王国华,曾润喜.解码网络舆情[M].武汉:华中科技大学出版社, 2006.WANG G H, ZENG R X. Explore Internet public opinion[M]. Wuhan:Huazhong University of Science&Techonlogy Press, 2006.

[25] 李淑娜,郭洪波.网络舆情演变的情绪机制及干预策略研究[J].山东社会科学, 2022(8):162-168.LI S N, GUO H B. Research on the emotional mechanism and intervention strategies of the evolution of online public opinion[J]. Shandong Social Sciences, 2022(8):162-168.                             

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多