随着互联网的飞速发展,社交媒体已成为获取信息、交换意见的主要平台。根据中国互联网络信息中心发布的第52次《中国互联网发展状况统计报告》[1],截至2023年6月,中国网民规模达10.79亿,互联网普及率达76.4%。社交媒体平台,尤其是新浪微博(以下简称微博)月活用户量已达5.99亿,其在传播正常消息的同时也会滋生大量谣言,并在短时间内迅速传播,从而对个人或社会产生恶劣的影响。因此,针对谣言造成的潜在危害,高效、准确地开展谣言检测任务,对积极、正面的舆情引导具有重要意义。
早期的谣言检测研究基于机器学习的方法,手动提取一组特征使用决策树、支持向量机、随机森林等方法进行谣言检测。这些方法取得了一定的成果,但是过分依赖于手工构建特征,且特征提取类别较为单一,无法获得上下文语义等重要信息。
相比于机器学习,深度学习方法能够从大量数据中自动学习出需要的特征,研究者们开始尝试采用深度学习的方法进行谣言检测。梁兆君等[2]使用BERT模型将原文本向量化,分别在Twitter15和Twitter16数据集中取得了77.5%和78.6%的准确率。一部分研究除使用原文本之外,针对评论文本内容[3-4]学习上下文信息之间的关系来检测谣言,取得了不错的进展。原文本蕴含丰富的语义信息。因此,另一部分研究者们融合原文本和传播信息,将谣言的传播结构构建为传播树[5-6]或传播图[7-9],原文本和传播文本经过TF-IDF编码后作为传播树或传播图的节点特征,基于传播结构和内容考虑全局转发关系进行谣言检测,也获得了较好的检测效果。然而,以上方法仍存在两点不足:原文本特征利用不足,以及原文本特征和其他特征的有效融合方式,尤其与传播结构的融合还需要进一步探究;忽略了传播用户在谣言传播过程中的作用,孟青等[10]指出,当微博用户在浏览微博内容时,页面中显示的其他用户发布的转发评论会对用户造成一定的干扰,使用户受影响从而有可能对某些博文进行转发或评论。因此,本文针对存在的不足主要研究如何更好地融入原文本内容特征,以及如何将多个用户属性同传播结构特征有机地结合起来用于谣言检测,进一步提高谣言检测的准确率。针对这两方面,本文提出了GCNs-BERT模型,同时融合了原文本特征、传播用户特征和传播结构特征。首先,基于传播结构构建传播树;其次,提取多个用户属性特征并筛选出多个用户属性特征的组合作为传播节点的特征,组成传播图;其次,利用多个图卷积网络(graph convolutional network,GCN)学习在不同用户属性特征组合的情况下传播图的特征表达;最后,考虑到BERT(bidirectional encoder representations from transformer)[11]模型在文本深层语义特征提取时的良好表现,利用BERT模型学习原文本内容特征,最终与图卷积网络学习的特征融合起来检测谣言。
早期的研究者们基于手动提取的特征,利用机器学习中的分类方法进行谣言检测。一些工作利用谣言与非谣言传播时序和传播结构的特征差异,来提高仅使用原文本特征检测谣言的准确率。例如,Ma等[12]提出了基于整个谣言生命周期的时间序列特征,开发了一个动态序列-时间结构的SVM分类器在新浪微博数据集上取得了86.1%的精确度和85.4%的召回率。Liu等[13]从消息的传播中提取了结构特征、时间特征、用户特征和内容特征4种类型的特征,并将这些特征和Wu等[14]提取的特征相结合,在新浪微博转发数大于100的数据集中,识别准确率提高到了94.3%。这些方法虽然在谣言检测任务中取得了一定的甄别效果,但需要手动提取特征,过程费时费力,使用的特征并不全面,也未能利用上下文等的重要背景信息。
深度学习方法弥补了机器学习方法中存在的不足,能自动学习特征,提高了谣言检测效率。相关工作可以分为基于文本内容的谣言检测方法以及基于传播结构和文本内容的谣言检测方法。
1.2.1 基于文本内容的谣言检测方法
基于文本内容的方法是将微博文本内容作为研究对象进行谣言检测,这类任务通常针对原文本数据和转发评论数据。Ma等[4]首次基于传播内容利用循环神经网络学习微博文本的表达,捕捉文本上下文信息随时间的变化来检测谣言,在新浪微博数据集中识别准确率达到91%。Wang等[15]基于文本内容构建了图神经网络模型(SemSeq4FD)用于早期谣言检测,该模型考虑了谣言文本中句子之间的全局语义关系、局部顺序特征和全局顺序特征,将文本建模为一个完整的图,并通过具有自注意力机制的图卷积网络学习全局句子表达进行谣言检测。Ma等[16]受到对抗性学习的启发,提出了一种基于生成对抗的谣言检测方法,生成器用于产生不确定或冲突的特征,使判别器从极具挑战性的样本中学习到更具代表性的谣言特征表达。
1.2.2 基于传播结构和文本内容的谣言检测方法
Sharma等[17]发现,谣言发布者通常会根据真实信息的表达特点,故意效仿、捏造信息从而躲避检测。然而仅基于谣言内容的检测方法不能够高效检测谣言,因此,部分研究者们尝试将传播结构和文本内容相结合来检测谣言。
Ma等[5]基于传播结构和文本内容,利用递归神经网络分别学习传播树中自顶向下的传播方向和自底向上的扩散方向上各节点的隐藏表达来检测谣言,将谣言分为非谣言、假谣言、真实谣言和未经证实的谣言4类,分别在Twitter15和Twitter16数据集中取得了72.3%和73.7%的准确率。然而,基于传播树的方法仅关注学习序列化特征,忽略了帖子上下文之间的全局转发关系。
近年来,由于图卷积网络模型强大的学习能力,研究者们尝试利用图卷积网络模型[18]学习传播结构的表达。首先将谣言的传播过程构建为一张图,进而将谣言分类问题转化为图分类任务,取得了不错的检测效果。Song等[19]融合传播结构、文本内容和发布时间信息构建了连续的动态扩散网络,利用图神经网络从时间交互的角度捕捉谣言传播的动态演变模式,在新浪微博数据集中分类准确率达到了96.8%。Bian等[7]提出了双向图卷积网络(Bi-GCN),该方法用自顶向下的图表示谣言的传播信息,同时用自底向上的图表示谣言的扩散信息,通过图卷积网络学习图中的结构信息进行谣言分类,在新浪微博数据集中分类准确率达到了96.1%。然而,这些方法仅关注了传播过程中传播关系的表达,忽略了传播节点,即用户属性对谣言检测的影响。
此外,谣言中用户的基本特征和在线社交网络中的行为特征[20]与非谣言有一定的差异,研究者们尝试将用户相关特征融入谣言检测任务中。Lu等[21]基于原文本和传播用户提出了图感知协同注意网络(GCAN)谣言检测方法,首先从原文本中学习单词嵌入,其次提取用户特征,并使用卷积和递归神经网络来学习基于用户特征的转发传播的表达,构建了图结构来对用户之间的潜在交互进行建模,并使用图卷积网络来学习用户交互的图感知表达,分别在Twitter15和Twitter16数据集中取得了87.6%和90.8%的准确率。
可以看出,深度学习方法的准确率普遍比机器学习方法高。综合分析可得,内容特征、用户特征和传播特征相融合对检测谣言效果更好。因此,本文基于原文本特征、传播结构特征和传播用户特征提出了基于图卷积网络的多特征融合的谣言检测方法,将传播用户和传播结构结合起来构建传播图,学习谣言与非谣言在传播过程中的用户和结构差异,同时充分利用原文本信息进行多特征融合,进一步提高了谣言检测的效果。
定义1 谣言。谣言是指在社交媒体中传播的与真实信息不符或故意伪造的信息,如错误信息和虚假信息[22]等。
定义2 传播图。在社交平台上,一条信息的所有转发用户之间的转发路径形成了树状结构,这种结构通常被称为传播树。本文利用传播树结构和相应用户特征构建了传播图。其中,根节点表示发布博文的用户,其他节点表示后续转发博文的用户。
给定一个谣言检测数据集M={m1,m2,…,mp},其中mi为第i个博文的消息集,p为数据集中博文的个数,mi={si,ui,u1i,u2i,…,uji,Gi},其中si为博文mi的原发博文,ui为发布博文的用户,为原发博文si的第j个转发用户,j为博文mi中的转发用户数,Gi =<Vi,Ei>为对si的转发关系构建的传播图。
谣言检测将消息分为谣言和非谣言两类,每个博文mi可标注为类别标签yi∈Y(0,1),其中Y代表博文的类别标签集合。谣言检测任务可以转化为学习一个函数:(mi)→yi。
本文提出的谣言检测模型GCNs-BERT的总体架构如图1所示,主要分为3个模块:传播图特征表达模块、原文本特征表达模块和预测模块。
图1 GCNs-BERT模型架构图
Figure 1 GCNs-BERT model architecture diagram
图卷积神经网络的主要思想是通过学习节点间的信息传播来更新节点的特征表达,对所有节点迭代地聚合自身节点和邻居节点的信息,最终生成节点新的特征表达。
3.1.1 传播图的结构构建
根据博文mi的传播关系构建传播图Gi =<Vi,Ei>,其中Gi为无向图,图卷积神经网络通过对邻居节点进行聚合的方式来捕获传递信息;表示原博文发布用户ui和它对应的j个转发用户的集合;Ei={eqv|q=0,1,…,k;v=0,1,…,k}表示传播图中的所有边集。如图2所示为博文mi转发消息所对应的传播关系图,其中用户u1和u2相继转发了原博文si,在集合Ei中则包含e01、e10、e02和e20;u5转发了u1,则集合Ei中则包含e15和e51。设Ai∈{0,1}ki×ki为邻接矩阵,其元素如下所示:
(1)
图2 社交媒体场景下传播图的构造方法图
Figure 2 Construction method diagram of propagation graph in social media scenario
3.1.2 传播图的节点特征选择
发布微博的用户以及传播用户其自身特征对谣言检测具有一定的辅助作用,用户的认证类型和信用情况等属性一定程度上代表了用户的影响力,有影响力的用户能促进观点、行为、创新和产品在社交网络中的传播。因此,本文传播图节点的特征是由转发用户特征组成。对转发用户的18个特征进行筛选,最终获得了8个比较有甄别度的特征分别为用户性别、认证类型、动态数(用户发布博文总数)、粉丝数、注册天数、活跃度(动态数/注册天数)、是否写个人简介、点赞数。
考虑到图卷积神经网络的训练效率和过拟合问题,针对上述8个特征再次进行组合筛选,最终获得了最具有甄别力的6组用户特征组合F,如表1所示。Yang等[23]研究发现男性相比于女性,发布谣言的概率更低,说明用户性别特征在检测谣言中具有一定辅助作用。因此,性别特征与其他多个用户特征组合均获得了较好的检测效果。针对不同类型的用户特征做数据预处理,认证类型和会员类型这类离散型数据,采用one-hot编码的形式表达;对连续的数值型特征进行min-max标准化表达;对是否写个人简介的布尔类型数据做二值化表达,最终得出传播图中每个节点的特征表达。
表1 用户特征组合
Table 1 User characteristic combination
特征特征组合F1活跃度、粉丝数F2性别、注册天数F3性别、认证类型F4性别、动态数F5是否写个人简介、注册天数F6性别、点赞数
3.1.3 传播图的特征表达
构建好传播图以及选择好特征之后,为了充分利用传播图中的传播结构信息,使传播图中的各个节点能更好地聚合邻居信息以获得更好的特征表达,引入了图卷积神经网络。
GCN通过相邻节点信息来更新该节点的隐藏层信息,输入为特征矩阵X∈Rn×n,邻接矩阵Ai∈Rn×n。若GCN模型有多层时,会聚合更多的邻居节点特征,因此在GCN中l个隐藏层的特征矩阵Xl+1为
(2)
式中:Xl+1∈Rn×m为图卷积操作后的特征矩阵;ReLU(·)为激活函数;Wl∈Rn×m为可学习的参数;l为图卷积操作的层数;代表对邻居所传播的信息进行标准化后的邻接矩阵[24]:
(3)
式中:为传播图对应的度矩阵;
GCN在更新自身节点时,通常会添加自连接,把自身特征和邻居特征结合起来更新节点:
(4)
通过5层图卷积操作后,得到特征矩阵X5,为防止过拟合缩小参数矩阵的尺寸,在图卷积操作之后加入一个平均池化层。更新后的特征向量表示为
XG=average_pooling(X5)。
(5)
谣言的原博文中包含着重要且丰富的原始信息,充分利用原博文信息能够提高谣言检测的性能。由于BERT能双向提取语义信息从而得到更充分、更隐蔽的特征,本文利用预训练BERT模型[11]来学习原文本中的上下文语义信息。
3.2.1 词嵌入层
预训练BERT的输入共包含3个嵌入层,分别是词嵌入层(token embeddings)、句子嵌入层(segment embeddings)和位置嵌入层(position embeddings)。长度为n的微博原文本经过分词后得到W={[CLS],token1,token2,…,tokenn},其中,[CLS]表示用于后续分类的token标志,tokeni表示W中的第i个词。将W输入3个嵌入层分别得到词向量Wtoken、文本向量Wsegment和位置向量Wposition,将三者进行叠加得到新向量W ={W[CLS],W1,W2,…,Wn},如图1所示。其中,W也可表示为
W=Wtoken+Wsegment+Wposition。
(6)
3.2.2 编码层
编码层的任务是将词嵌入层转换后的向量编码成具有丰富的上下文语义信息的序列向量。如图1所示,BERT的内部结构使用到Transformer的编码器(encoder)部分,通过编码器的多头注意力机制,使得每个token的编码表达(Trmi)之间均有一条相互关注的边,可以实现对不同距离的词语之间具有同等的关注程度。BERT内部共串联堆叠了6个相同结构的编码器,以更好地学习输入文本的上下文语义信息。其中,多头注意力可表示为
MultiHead(Q,K,V)=Concat(head1,head2,…,headn)ω;
(7)
(8)
式中:n为多头注意力机制头的数量;headi为第i个头的输出;Q、K、V由输入特征矩阵线性变换而得;ωQ、ωK、ωV分别为训练后学习到的Q、K、V的参数矩阵。
最后将分类标记[CLS]学习到的特征向量输入全连接前馈神经网络层,得到博文的语义表达S。
本文采用多特征的混合融合方法进行谣言预测,如图3所示。为提高整个网络的鲁棒性,首先在图卷积网络中加入两层全连接层得到最终特征向量,将表2中的6组用户特征分别输入到6个GCN中训练,共得到6组传播图特征向量:
(9)
表2 公开数据集统计信息
Table 2 Expose dataset statistics
统计项目非谣言谣言博文数量2 2912 229传播树数量2 2912 229转发帖子数量1 711 4202 086 693每条博文的平均帖子数747936
图3 多特征混合融合方法图
Figure 3 Multi-feature hybrid fusion method
再将传播图特征向量和原文本特征向量拼接:
(10)
然后将谣言检测问题转化为分类任务,基于最终特征融合表达,通过输入全连接层和softmax预测该博文属于某类谣言的概率:
(11)
式中:Wc和bc均为通过训练可学习的参数。模型通过最小化交叉熵损失函数来降低真实标签与预测标签之间的分类误差:
(12)
式中:k为分类的类别数;θ为模型的参数;yi∈{0,1}为真实标签值。
本文在2个数据集上对模型进行了实验。首先,在2016年Ma等[4]公开的微博数据集上评价了提出的GCNs-BERT模型的有效性。为提取更丰富的特征提高谣言检测的性能,过滤了转发数小于30的博文,数据集中包含原博文和转发帖,以及用户的性别、粉丝数等属性,数据集统计信息如表2所示。考虑到公开数据集的时效性,同时为了验证模型在新事件谣言检测上的泛化能力,本文爬取新浪微博平台与新冠疫情相关的微博数据,与部分公开数据集组合成新的实验数据集来评估GCNs-BERT模型的泛化能力。新数据集的训练集包含1 000条公开数据集中的谣言和非谣言数据,以及400条新冠疫情谣言和非谣言数据;测试集包含200条新冠疫情谣言和非谣言数据。
4.2.1 参数设置
验证实验中将图卷积网络层数设置为5层,每层节点的隐藏向量维度d均设为256,即d1=d2=d3=d4=d5=256。为了防止过拟合,模型各层的随机失活Dropout=0.5,训练过程中Batch_Size大小为128。采用Adam算法优化模型,学习率设置为0.005,迭代次数设置为500并设置提前结束。
4.2.2 基线方法
选取基于机器学习的谣言检测方法和基于深度学习的谣言检测方法作为基线方法,与本文的GCNs-BERT进行对比。
(1)DTC[20]:基于人工设计的统计特征构建决策树分类模型判断信息的可信度。
(2)SVM[13]:从扩散角度提出了基于传播结构、传播时间和传播用户的11个特征,并将其与Wu等[14]所提取的特征相结合,使用混合核函数的SVM分类器检测谣言,此基线本文只使用基于RBF的SVM分类器检测谣言。
(3)LSTM[25]:基于长短期记忆网络和最大池化结合,通过建模相关帖子的传播结构的动态变化来检测谣言。
(4)BERT:本文利用Devlin等[26]提出的BERT预训练模型,基于微博原博文学习上下文语义进行谣言分类。
(5)Bi-GCN[5]:使用原文本、传播结构和传播文本,利用双向图卷积网络来检测谣言。
(6)GCNs:本文基于传播结构和传播用户构建传播图,根据6组用户特征组合构建6个GCN网络以捕获丰富的传播结构和传播用户特征来检测谣言。
4.2.3 结果分析
使用准确率、精确度、召回率和F1值来验证模型的谣言检测性能。表3展示了在公开数据集中本文提出的模型GCNs-BERT以及所有基线方法的实验结果。
表3 谣言检测实验结果
Table 3 Rumor detection experiment results
方法类别准确率精确度召回率F1 DTC100.8850.8340.9550.8900.9490.8170.878SVM100.9130.9010.9230.9120.9240.9020.913LSTM100.9280.9630.8980.9200.8930.9620.926BERT100.9380.9350.9400.9380.9420.9360.939Bi-GCN100.9460.9440.9490.9430.9500.9400.942GCNs100.9470.9400.9520.9460.9530.9410.947GCNs-BERT100.9560.9640.9450.9550.9490.9660.957
从表3中可以看出,深度学习的方法性能要比机器学习的更好,本文的GCNs-BERT与DTC相比,准确率提高了7.1百分点,与SVM相比提高了4.3百分点。原因是机器学习依赖于手工提取特征,而深度学习能够自动捕获到更深层次的特征以及特征之间的关联,有助于提高谣言检测的性能。
GCNs-BERT模型效果优于LSTM,准确率提升了2.8百分点,说明虽然LSTM能够捕捉传播内容、传播用户和传播结构在整个传播过程中的一些动态变化,但可能会在时间序列中丢失一些整体的传播信息,影响最终的预测结果。针对谣言的传播特点,使用图结构来学习整个传播过程中的综合特征对检测谣言更有效。
GCNs-BERT模型比BERT模型准确率提升了1.8百分点,说明图卷积网络模型能够有效学习到谣言和非谣言在传播结构和传播用户特征上的差异,能够进一步提升谣言检测的准确率。
虽然Bi-GCN使用了双向的图卷积网络对传播结构进行了建模,同时增强传播树中的原节点特征表达,但其忽略了传播过程中传播用户的重要影响。本文模型中将传播用户特征作为传播树的节点特征,学习谣言在传播过程中传播用户的影响,准确率与Bi-GCN相比提升了1.0百分点,说明传播用户特征对谣言检测任务有较好的辅助效果。
GCNs-BERT模型的检测准确率比GCNs提升了0.9百分点,原因是GCNs未加入微博原文本特征,说明原文本中包含着丰富且重要的信息,充分利用原文本内容特征能有效提升模型的性能。
在新冠疫情数据集中进行GCNs-BERT模型泛化能力实验,其参数设置参考4.2.1节。由于这部分数据量较小且考虑到模型的复杂度将每个GCN的隐藏向量维度设置为128,隐藏层数设为3,并在DTC、SVM、BERT、GCNs、GCNs-BERT模型上进行实验,结果如表4所示。
表4 新冠疫情谣言识别实验结果
Table 4 Experimental results of COVID-19 rumor identification
方法类别准确率精确度召回率F1 DTC100.8710.8230.8920.8800.8820.7970.861SVM100.8960.8740.8830.8950.8980.8690.905BERT100.9050.8850.9300.9070.9260.8800.902GCNs100.8650.7960.9800.8780.9740.7500.847GCNs-BERT100.9250.9120.9400.9260.9380.9100.923
从表3和表4中看出,表4的结果均低于表3的结果。其主要原因是新冠疫情数据受新浪微博平台管制导致微博传播数量受限,影响了模型识别的效果。GCNs-BERT与DTC相比,准确率提高了5.4百分点,与SVM相比提高了2.9百分点,与BERT模型相比提高了2百分点。结果表明GCNs-BERT泛化能力强,在新的数据集上仍然能获得较好的谣言检测效果。
4.4.1 用户特征组合分析
为了证明特征组合的有效性和必要性,并避免原文本语义特征对实验的干扰,去除了BERT模型的部分,仅使用传播结构特征、8个用户特征直接拼接以及8个用户特征组合3种方案进行对比实验,结果如表5所示。
表5 特征分析结果对比
Table 5 Comparison of characteristic analysis results
特征类别准确率精确度召回率F1 GCN(仅用传播结构)100.8870.8880.8800.8840.8850.8930.889GCN(8个用户特征拼接)100.9340.9200.9480.9330.9480.9200.934GCNs100.9470.9400.9520.9460.9530.9410.947
从表5中可以看出,GCNs比仅使用传播结构的GCN提升了6百分点的准确率,说明仅用传播结构不能充分地学习到用户间的转发特征,加入传播用户特征后能明显提高谣言检测的准确率。其次GCNs比使用8个用户特征直接拼接的GCN提高了1.3百分点的准确率,说明将用户特征组合后采用多个GCN能更有效地学习到用户和传播结构特征,进一步提升了谣言检测的效果,证明了在模型中用户特征组合的有效性。
4.4.2 传播用户不同特征组合的影响分析
本文使用不同的传播用户特征来训练GCNs-BERT模型。传播用户特征结果对比如表6所示,表中的(-)表示包含了除当前特征组之外的5组传播用户特征。
表6 传播用户特征结果对比
Table 6 Comparison of propagation user characteristics results
特征类别准确率精确度召回率F1 (-)F1100.9540.9600.9460.9530.9490.9620.955(-)F2100.9550.9630.9440.9540.9470.9650.956(-)F3100.9550.9620.9450.9530.9480.9640.956(-)F4100.9550.9640.9440.9540.9470.9620.955(-)F5100.9540.9600.9450.9520.9470.9620.955(-)F6100.9520.9600.9410.9500.9440.9610.953
结果表明,包含第6组特征的效果影响最显著,即用户性别和点赞数影响了模型0.4百分点的准确率。用户点赞数越多说明此条微博的影响力越大,被转发的可能性也会越大。其次,包含第1组和第5组特征对模型结果也有较好的效果,即活跃度、粉丝数、是否写个人简介和注册天数,影响了模型0.2百分点的准确率。网络水军与正常用户有明显差异,通常相对有权威或影响力的微博用户都会填写个人简介,因此粉丝数量比较多,同时注册天数也比较久。而注册微博有一定目的性的用户,例如网络水军一般极少填写个人简介,粉丝数量和注册天数都比较少,更有可能发布或转发谣言。
4.4.3 GCN层数对模型性能的影响分析
由于在图卷积神经网络模型中堆叠较少的层数后,网络就能达到最好效果,继续增加图卷积层数反而会导致结果变得更差。因此分析了图卷积网络层数对GCNs-BERT模型最终性能的影响。假设层数l={1,2,3,4,5,6},在公开数据集上训练模型层数,对模型最终结果的影响如图4所示。
图4 GCN层数对模型性能的影响
Figure 4 Effect of the number of GCN layers on model performance
可以看出,当层数为5层 时,GCNs-BERT模型的准确率和F1值达到最高值,这证实了在实验中选择5层是合理的。随着层数的增加,图卷积网络参数变多,分类效果反而下降。
本文研究了基于原文本内容、传播结构和传播用户相融合的谣言检测任务,提出了基于图卷积网络的多特征融合的谣言检测模型GCNs-BERT。该模型将传播结构特征与传播用户特征相融合,使用图卷积网络来学习传播用户和传播结构的表达,使用BERT模型学习原文本内容的表达,最后进行多特征融合来检测谣言。相比于机器学习的基线方法,本文模型能够更好地学习文本的上下文特征以及传播结构特征;相比于循环神经网络基线方法,本文模型能够学习传播过程的整体特征;相比于图卷积网络的基线方法,本文模型充分利用了传播用户的特征组合。同时,为了验证GCNs-BERT模型的泛化能力,在新冠疫情数据集中进行实验,得到了较好的谣言检测效果。此外,本文还进行了用户特征组合的消融实验,实验发现传播用户的性别和点赞数2个特征组合对谣言检测有较好的甄别效果。本文所构建的谣言检测模型GCNs-BERT很好地融合了原文本特征、传播结构特征和传播用户特征,获得了较好的谣言检测效果,进一步提升了谣言的检测性能。
在未来的工作中,将尝试以下两方面的工作:尝试采集原博文对应的图像数据集,提取图像中的信息,与原博文内容信息结合构建多模态检测模型,以尽可能早且准确地检测出谣言,进一步提升早期谣言检测性能;进行传播用户的影响力分析,并对用户影响力建模,学习传播用户更准确的表达,进一步提升传播用户特征的甄别力来更好地辅助预测谣言。
[1] 中国互联网络信息中心. 第52次《中国互联网络发展状况统计报告》[R/OL]. (2023-08-23)[2023-09-01]. https:∥www.cnnic.net.cn/n4/2023/0828/c88-10829.html.
China Internet Network Information Center. The 52nd China statistical report on internet development[R/OL]. (2023-08-23)[2023-09-01]. https:∥www.cnnic.net.cn/n4/2023/0828/c88-10829.html.
[2] 梁兆君, 但志平, 罗衍潮, 等. 基于BERT模型的增强混合神经网络的谣言检测[J]. 计算机应用与软件, 2021, 38(3): 147-152, 189.
LIANG Z J, DAN Z P, LUO Y C, et al. Rumor detection of improved hybrid neural network based on BERT model[J]. Computer Applications and Software, 2021, 38(3)147-152, 189.
[3] LI J W, NI S W, KAO H Y. Meet the truth: leverage objective facts and subjective views for interpretable rumor detection[EB/OL]. (2021-07-21)[2023-09-01]. https:∥arxiv.org/abs/2107.10747.
[4] MA J, GAO W, MITRA P, et al. Detecting rumors from microblogs with recurrent neural networks[C]∥Twenty-Fifth International Joint Conference on Artificial Intelligence. New York: IJCAI, 2016: 3818-3824.
[5] MA J, GAO W, WONG K F. Rumor detection on twitter with tree-structured recursive neural networks[C]∥Proceedings of the 56th Annual Meeting of the Association for Computational Linguistics.Stroudsburg:ACL,2018:1980-1989.
[6] 胡斗, 卫玲蔚, 周薇, 等. 一种基于多关系传播树的谣言检测方法[J]. 计算机研究与发展, 2021, 58(7): 1395-1411.
HU D, WEI L W, ZHOU W, et al. A rumor detection approach based on multi-relational propagation tree[J]. Journal of Computer Research and Development, 2021, 58(7): 1395-1411.
[7] BIAN T, XIAO X, XU T Y, et al. Rumor detection on social media with bi-directional graph convolutional networks[J]. Proceedings of the AAAI Conference on Artificial Intelligence, 2020, 34(1): 549-556.
[8] 杨延杰, 王莉, 王宇航. 融合源信息和门控图神经网络的谣言检测研究[J]. 计算机研究与发展, 2021, 58(7): 1412-1424.
YANG Y J, WANG L, WANG Y H. Rumor detection based on source information and gating graph neural network[J]. Journal of Computer Research and Development, 2021, 58(7): 1412-1424.
[9] BAI N, MENG F R, RUI X B, et al. Rumour detection based on graph convolutional neural net[J]. IEEE Access, 2021, 9: 21686-21693.
[10] 孟青, 刘波, 张恒远, 等. 在线社交网络中群体影响力的建模与分析[J]. 计算机学报, 2021, 44(6): 1064-1079.
MENG Q, LIU B, ZHANG H Y, et al. Multi-relational group influence modeling and analysis in online social networks[J]. Chinese Journal of Computers, 2021, 44(6): 1064-1079.
[11] 张铭泉, 周辉, 曹锦纲. 基于注意力机制的双BERT有向情感文本分类研究[J]. 智能系统学报, 2022, 17(6): 1220-1227.
ZHANG M Q, ZHOU H, CAO J G. Dual BERT directed sentiment text classification based on attention mechanism[J]. CAAI Transactions on Intelligent Systems, 2022, 17(6): 1220-1227.
[12] MA J, GAO W, WEI Z Y, et al. Detect rumors using time series of social context information on microblogging websites[C]∥Proceedings of the 24th ACM International on Conference on Information and Knowledge Management. New York: ACM, 2015: 1751-1754.
[13] LIU Y H, JIN X L, SHEN H W, et al. Do rumors diffuse differently from non-rumors? a systematically empirical analysis in Sina Weibo for rumor identification[J]. Advances in Knowledge Discovery and Data Mining, 2017, 10234: 407-420.
[14] WU K, YANG S, ZHU K Q. False rumors detection on Sina Weibo by propagation structures[C]∥2015 IEEE 31st International Conference on Data Engineering. Piscataway: IEEE, 2015: 651-662.
[15] WANG Y H, WANG L, YANG Y J, et al. SemSeq4FD: integrating global semantic relationship and local sequential order to enhance text representation for fake news detection[J]. Expert Systems with Applications, 2021, 166: 114090.
[16] MA J, GAO W, WONG K F. Detect rumors on Twitter by promoting information campaigns with generative adversarial learning[C]∥WWW ′19: The World Wide Web Conference. New York: ACM, 2019: 3049-3055.
[17] SHARMA K, QIAN F, JIANG H, et al. Combating fake news: a survey on identification and mitigation techniques[J]. ACM Transactions on Intelligent Systems and Technology, 10(3): 1-42.
[18] PHAN H T, NGUYEN N T, HWANG D. Fake news detection: a survey of graph neural network methods[J]. Applied Soft Computing, 2023, 139: 110235.
[19] SONG C G, SHU K, WU B. Temporally evolving graph neural network for fake news detection[J]. Information Processing &Management, 2021, 58(6): 102712.
[20] CASTILLO C, MENDOZA M, POBLETE B. Information credibility on Twitter[C]∥International World Wide Web Conference Committee (IW3C2). New York: ACM, 2011: 1-10.
[21] LU Y J, LI C T. GCAN: graph-aware co-attention networks for explainable fake news detection on social media[EB/OL]. (2020-04-24)[2023-09-01]. https:∥arxiv.org/abs/2004.11648.
[22] 刘雅辉, 靳小龙, 沈华伟, 等. 社交媒体中的谣言识别研究综述[J]. 计算机学报, 2018, 41(7): 1536-1558.
LIU Y H, JIN X L, SHEN H W, et al. A survey on rumor identification over social media[J]. Chinese Journal of Computers, 2018, 41(7): 1536-1558.
[23] YANG J, COUNTS S, MORRIS M R, et al. Microblog credibility perceptions: comparing the USA and China[C]∥Proceedings of the 2013 conference on Computer Supported Cooperative Work. New York: ACM, 2013: 575-586.
[24] GONG S Z, SINNOTT R O, QI J Z, et al. Fake news detection through graph-based neural networks: a survey[EB/OL]. (2023-07-24)[2023-09-01]. https:∥arxiv.org/abs/2307.12639.
[25] LIU Y H, JIN X L, SHEN H W. Towards early identification of online rumors based on long short-term memory networks[J]. Information Processing &Management, 2019, 56(4): 1457-1467.
[26] DEVLIN J, CHANG M W, LEE K, et al. BERT: pre-training of deep bidirectional transformers for language understanding[EB/OL]. (2019-05-24)[2023-09-01]. https:∥arxiv.org/abs/1810.04805.