时间:2024-05-04
刘金硕 冯 阔 Jeff Z. Pan 邓 娟 王丽娜
1(空天信息安全与可信计算教育部重点实验室,武汉大学国家网络安全学院 武汉 430072)
2(阿伯丁大学 苏格兰阿伯丁 AB24 3FX)(liujinshuo@whu.edu.cn)
网络谣言因受众广大、易于传播等特点,能够轻易煽动群众焦虑、恐慌等情绪,引发各类群体性事件,严重危害社会治安.在互联网时代,迅速普及的各类社交媒体平台成为了谣言滋生和传播的温床.为了博取关注、引导转发,网络谣言逐步由单纯的文本向图像与文本信息联合等多模态谣言转型.由于图像比文本更具有欺骗性,且其来源和真实性难以考证,因此图文联合的网络谣言更具危害性.因此,准确及时地针对图文联合的多模态网络谣言进行检测有利于维护社交平台舆情稳定、捍卫国家网络话语权和保证社会秩序平稳发展,具有十分重要的现实意义.
目前针对网络谣言的图像内容进行理解从而判别谣言的方法较为少见,已有的工作集中于识别谣言中的文本内容.其中一部分工作[1-3]采用以文本内容和用户信息为主要特征的基于特征构造检测的方法,另一部分工作[4-5]以传播时间、传播结构、语言特征等方面因素作为考量,提出基于传播结构检测法以及时间序列检测法.仅有少部分工作[6-7]考虑了图像信息,利用深度神经网络提取图像特征,并联合文本特征进行谣言判别.然而这些工作忽略了图像内嵌文本的处理,如图1所示.该谣言信息包含消息文本、图像和图像内嵌文本3部分.图像中的文本信息往往由谣言传播者人为添加,用于增加谣言的可信度.目前的谣言检测工作中缺乏对图像内嵌文本信息的挖掘,该部分对谣言判别具有重要意义.然而如何有效定位图像内嵌文本区域,并对其文本内容进行识别成为主要挑战.另外,如何有效融合文本特征与图像特征进行谣言检测成为另一挑战.
Fig. 1 Multi-modal Web rumor
为了解决以上问题,本文提出了一种端到端的多模态融合网络谣言检测方法.该方法融合了消息文本特征、图像内嵌文本特征以及图像内容特征,通过谣言检测器进行谣言判别.
概括来说,本文的主要贡献有3个方面:
1) 提出了一个联合消息文本信息以及图像内嵌文本信息与图像信息的多模态谣言检测模型MSRD;
2) 提出了一种基于密集连接网络和空洞空间金字塔池化模型的图像文本定位方法;
3) 提出了一种融合文本特征与图像特征的共享特征表示方法.
目前国内外学者对图像内嵌文本定位工作的研究主要基于深度学习的方法.从技术路线角度主要分为2种:以连接文本提议网络(connectionist text proposal network,CTPN)[8]为代表的基于区域建议的文本检测方法,和以高效准确的场景文本检测器(efficient and accurate scene text detector,EAST)[9]为代表的基于图像分割的文本检测方法.CTPN框架的缺点在于对非水平排列的文本区域定位效果不佳;EAST检测器的缺点在于网络的感受野不够充足,导致对长文本区域定位效果不佳.以上工作为本文图像文本定位提供了新思路.
不同于文本定位的粗略二分类任务,图像文本识别任务需要进行更精确的分类.2016年牛津大学视觉几何组团队发表文献[10],使用卷积神经网络(convolutional neural network, CNN)率先在场景文本识别领域取得领先地位.2017年文献[11]提出了基于卷积循环神经网络(convolutional recurrent neural network, CRNN)的文本检测框架,使用CNN提取图像特征,使用双向长短时记忆神经网络(bidirectional long short-term memory, BLSTM)提取序列信息,通过对特征编码输出预测结果,是2017年文本检测结果最好的端到端模型之一.2018年众多研究者对已有模型的改进集中在应对任意方向排列的文本检测上,文献[12]提出了快速定向的文本识别系统(fast oriented text spotting, FOTS),文献[13]将“Textboxes”扩展成为“Textboxes++”以应对任意方向的文本区域.综上,目前基于深度学习的文本字符识别方法通用模式是使用CNN获取图像特征,使用LSTM获取序列特征,最后使用时序分类算法(connectionist temporal classification, CTC)输出识别结果.
已有的谣言检测工作从3个方面设计谣言检测模型:1)以文本内容和用户信息为主要特征的基于特征构造检测模型[1-3];2)以传播路径和传播节点为主要特征的基于传播结构检测模型;3)以文本信息随时间变化的统计特征为主要特征的基于时间序列检测模型[4-5].特征构造检测模型是谣言检测工作中应用最为广泛的典型模型.文献[1]提出了一种通过提取博文内容标签信息、外链信息和互相提及信息为主要特征的Twitter上误导性博文检测算法.文献[2]通过组合内容文本流行度、文本情感极性、用户影响力和博文转发率等特征构造微博谣言文本深层次特征来检测谣言.文献[3]基于博文文本内容的关键词汇来建立谣言检测模型.除特征构造检测模型之外,文献[4]认为谣言文本和非谣言文本在时间序列上变化的模式不同,并利用统计特征及特征在检测区间上的斜率变化等因素组成特征向量来检测谣言.文献[5]认为Twitter上谣言传播关键结构和语言差异的波动具有周期性,以传播时间、传播结构和语言特征3方面因素作为特征考量,建立周期时间序列模型用以识别谣言.
除了谣言文本信息,图像特征在谣言检测中起着非常重要的作用[14],文献[15]尝试提取图像的基本特征进行谣言检测,但是,手工提取的特征难以表示图像内信息的复杂分布.
与传统的特征工程相比,深度神经网络已被广泛应用于学习图像和文本的特征表示,并成功应用于各种工作,包括图像字幕[16-17]、多模态问题解答[18]和谣言检测[19-20]等.具体来说,卷积神经网络(CNN)广泛应用于图像的特征表示中[14-15],而递归神经网络(recurrent neural network, RNN)在编码文本信息中发挥强大的作用[21-22].文献[23]提出利用自编码器模型进行多模态网络谣言检测.文献[19]提出利用注意力模型来联合多模态特征进行谣言检测.然而,较少有工作考虑到图像中内嵌文本的特征提取问题,以及如何更加精确地联合文本与图像的多模态特征来进行谣言检测.
多模态网络谣言检测模型MSRD的总体框架示意图如图2所示:
Fig. 2 Overall framework of the multimodal web rumor detection method
谣言消息中的图像文本定位检测与自然场景图像中的文本定位检测工作是类似的,本文在文献[9]工作的基础上,提出了一种基于图像语义分割思想的文本定位检测方法,通过密集连接卷积网络(densely connected convolutional networks, DenseNet)DenseNet-121提取特征,在不同的层级上抽取特征图(feature map),并且在特定尺度上引入空洞空间金字塔池化层(atrous spatial pyramid pooling, ASPP)扩大模型的感受野,然后从网络的顶部向下合并特征图,最终在输出层输出当前像素对应于原图中像素为文字的概率值.如果当前像素属于文字区域,输出该像素相对文本框4个顶点的坐标偏移值,最后通过非极大值抑制(non-maximum suppression)算法得到最终的文本框.图3表示了本文所用的图像文本定位检测算法结构及流程图.
Fig. 3 Image text positioning algorithm structure and flow
2.1.1 空洞空间金字塔池化层的实现
ASPP通过并行采用卷积核皆为3×3大小的同尺度、不同间距的多个滤波器来感知多尺度的视野,从而提取Feature Map上的多尺度特征.然后,将这些并行提取的特征通过使用concat操作串联起来,再通过1×1的卷积操作融合成指定深度Feature Map输出,这样就实现了在不改变输入数据体的尺寸规模的前提下,扩大了该网络层的感受野.
2.1.2 特征图合并策略
谣言消息中图像的文本区域大小不固定,需要同时兼顾神经网络模型的高层特征和低层特征,才能同时对不同尺寸的文本区域实现定位,因此需要将不同层级的Feature Map进行融合.
由图3可知,经过ASPP层输出的Feature Map尺寸比为1∶16,由于在ASPP层已经经过concat操作,所以先使用1×1的卷积将Feature Map深度降维至128,再使用3×3的卷积融合该层Feature Map中的特征.
卷积操作完成后使用反池化操作,使该层Feature Map的宽度和高度值与Transition Layer(1)的输出数据体相匹配,并对这二者使用concat操作得到尺寸比为1∶8的Feature Map.
在尺寸比为1∶8的Feature Map中,先使用1×1的卷积将深度降维至64,再使用3×3的卷积融合特征后,经过反池化操作并与主干网络第一个Pooling层的输出concat串联起来得到1∶4的Feature Map.
最后将1∶4的Feature Map使用1×1的卷积将深度降维至32,并使用3×3的卷积得到深度为32的最终输出层.最终输出层的尺寸与原图像的尺寸比也为1∶4.
本节进行的文本识别任务在2.1节图像文字定位的基础上完成,即通过上节对图像中文字区域的检测,截取原图像中含有文本的区域,输入给本节提出的文本识别模型.与其他的基于卷积循环神经网络的文本识别模型不同,由于已经完成了文本区域的定位检测工作,因此只需关注识别任务.由于截取的文本区域中文本信息为主体部分,本文认为密集连接网络由于各隐藏层密集互联的特性,能够较好地完成全局特征的感知,不需要额外使用循环神经网络以兼顾文字序列前后信息.因此设计了本节基于密集连接网络的文本识别模型.
模型如图4所示.本节使用精简的密集连接网络,在DenseNet-121的基础上,去掉了第4个稠密块(dense block)以及最后的全局平均池化层,目的是尽可能保留中文汉字在垂直方向的笔画信息.由全连接层输出预测结果,将文本的识别任务视作分类任务,其类别数目等于预先构建的字典中字符数目.字典中字符经过排列预先编号,全连接层输出文字所属各类别的概率,通过softmax激活函数归一化后输出概率最大的类别编号,查阅字典即可得到预测的文本信息.由于CTC算法引入了空白标签,可以解决没有事先对齐的序列化数据训练问题,因此可加在密集连接网络后,对不定长的文本区域进行预测识别.
Fig. 4 Text recognition model
本文使用带有长短期记忆(long short-term memory, LSTM)单元的RNN来学习提出的模型中消息文本和图像中文本的联合表示.RNN是一种前馈神经网络,可用于对长度可变的顺序信息进行建模.给定输入序列(x1,x2,…,xM),基本的RNN模型更新隐藏状态(h1,h2,…,hM)并生成输出向量(y1,y2,…,yM).M取决于输入的长度.当前的隐藏状态是使用循环单元计算的,循环单元采用最后的隐藏状态和当前的输入以产生当前的隐藏状态.
为了在学习长距离时间相关性时处理梯度的消失或爆炸问题[24-25],LSTM通过将信息长时间存储在精心设计的存储单元中来扩展基本RNN.具体而言,LSTM中的读写存储单元c由一组sigmoid门控制:输入门i、输出门o和遗忘门f.对于每个时间步长m,LSTM单元从当前输入xm,先前的隐藏状态hm和先前的存储单元cm接收输入.这些门的更新为[26-27]:
im=σ(Wxixm+Whihm-1+bi),
(1)
fm=σ(Wxfxm+Whfhm-1+bf),
(2)
om=σ(Wxoxm+Whohm-1+bo),
(3)
gm=φ(Wxcxm+Whchm-1+bc),
(4)
cm=fm⊙cm-1+im⊙gm,
(5)
hm=om⊙φ(ct),
(6)
其中,W*是对应门的权重矩阵,b*是偏差项,可以从网络中获知.σ是sigmoid激活函数,σ(x)=1(1+exp(-x));φ是双曲正切函数,φ(x)=(exp(x)-exp(-x))(exp(x)+exp(-x)).⊙表示2个向量之间的逐元素乘法. 输入门i决定将新存储器添加到存储单元的程度.遗忘门f确定遗忘现有存储器的程度.通过忘记一部分现有存储器并添加新的存储器g来更新存储器单元c.
文本内容是消息中包含单词的集合:T={T1,T2,…,Tn}(n是文本中单词的数量).文本中的每个单词Tj∈T都表示为单词嵌入向量.每个单词的嵌入向量都是通过Word Embedding获得的,该网络在给定的数据集上进行了无监督预训练.
传统的多模态谣言检测往往只单独提取文本与图像特征,忽略了图像中的内嵌文本,本文认为该文本对谣言检测有一定的作用,因此本文通过2.1~2.2节中提到的图像文本定位与识别方法将图像中内嵌文本提取出来,同样采用Word Embedding形成初始的图像文本表示RE=(p1,p2,…,pk)T(k是图像文本中单词的数量).图像文本特征RE通过图2所示的ET-FC全连接层转换为与配文文本向量相同维度的表示形式:
(7)
视觉子网络(图2的上部分支)采用图像作为输入,并构造视觉神经元提取图像特征.该网络前面部分采用和VGG-19网络相同的结构,并添加2个全连接层,将每个图像表示为RV=(v1,v2,…,v32)T,共同训练整个谣言检测网络,挖掘消息图像中的视觉信息.其中视觉子网络VGG-19可以首先通过ImageNet数据集进行预训练,但是,在与LSTM子网络的联合训练过程中,冻结VGG网络的参数,只有最后的2个完全连接层的参数会更新,以提高训练效率,防止参数爆炸.
RV=Wvf2ψ(Wvf1RVp),
(8)
其中,RVp是从预训练的VGG网络得到的图像特征表示,Wvf1是具有ReLU激活函数的第1个完全连接层中的权重,Wvf2是具有softmax功能的第2个完全连接层中的权重,ψ表示ReLU激活函数.
在模型中直接使用图像特征与文本-图像文本特征进行训练的问题是:其中一种特征表示可能会压制另一种特征表示,这样便无法发挥多模态的融合作用,因此,在下面的部分,介绍一种特征的共享表示,以更好地融合文本与图像特征的联合表示.
将联合文本特征表示RTE和图像特征表示RV串接起来,通过图2中的完全连接层Latent-FC,从中获得2个向量μ和σ,它们可以分别视为共享表示的分布的均值和方差,从高斯分布中采样随机变量ε.用Rm表示最终重新参数化的多模态特征:
Rm=μ+σ∘ε.
(9)
本文将整个特征提取网络表示为Gfr(m,θfr),其中θfr表示特征提取网络中所有学习的参数,用m表示消息集合中一条待判别的消息,则:
Rm=Gfr(m,θfr).
(10)
谣言检测器将图像与文本特征的共享表示特征Rm作为输入,用来判别消息是否为谣言.它由具有激活函数的多个完全连接层组成,我们将谣言检测器表示为Grd(Rm,θrd),其中θrd表示谣言检测器中所有的参数,谣言检测器的输出是该消息是谣言的概率.
(11)
(12)
(13)
本节,首先介绍了实验中所用到的2种数据集;然后介绍了实验中网络模型的参数设置;最后,为了验证MSRD方法可行性和先进性,设计的实验包括:单文本检测方法Textual、单图像检测方法Visual、图像加图像中文字检测方法TVisual和当前的谣言检测方法对比的实验.
鉴于结构化多媒体数据的稀疏可用性,本文利用2个标准数据集来评估我们用于谣言检测的网络模型MSRD.这2个数据集包括从Twitter和微博收集的真实社交媒体信息.这些是仅有的具有成对的图像和文本信息的数据集.
3.1.1 Twitter数据集
作为MediaEval[21]的一部分,该数据集分为2部分:开发集(9 000条谣言tweet,6 000条真实消息tweet)和测试集(2 000条tweet).考虑到本文只关心图像和文本信息,本文会过滤掉所有带有视频的推文.本文将开发集用于训练,将测试集用于测试,以保持与基准相同的数据拆分方案.
3.1.2 微博数据集
在文献[19]中用于谣言检测的微博数据集包括从中国权威新闻来源新华社和中国网站微博收集的数据.数据集的使用及预处理类似于文献[19]的方法进行.初步步骤包括删除重复图像和低质量图像,以确保整个数据集的均匀性.然后,将数据集分成训练集和测试集,如Jin等人所述,数据比例约为4∶1[19].
对于文本特征,采用基于神经网络的分布式表示[29].对于这2个数据集,在标准文本预处理之后,使用默认参数设置,以无监督的方式对整个数据集进行Word2Vec模型的预训练.将数据集中的每个单词转化为32维嵌入向量.选择词嵌入表示而不是独热编码表示法的原因是,当独热编码表示法中的词汇量太大时,文本不足会导致文本特征差.
对于图像特征,使用在ImageNet集上预训练的19层VGGNet的第2层到最后一层的输出[30].从VGG-19获得的特征维度为4 096.冻结VGG网络的权重,不再进行调整.
文本特征提取子网络由LSTM组成,隐藏层的尺寸大小为32,使用的完全连接层的大小为32.图像特征提取子网络在VGG网络后由大小为1 024和32的2个完全连接层组成.最终的谣言检测器有2个完全连接层,大小分别为64和32.
在整个网络的训练中,我们使用128个实例的批处理大小.该模型训练了300个epoch,模型学习率为10-5,并使用了早停法.为了防止过度拟合,本文在模型的权重上使用L2正则.为了模型寻找最优参数,使用Adam[31]作为优化器.
为了验证本文所提出的多模态谣言检测模型MSRD的性能,本文在比对实验中选择了单文本检测方法Textual、单图像检测方法Visual、图像加图像中文字检测方法TVisual和3种较新的谣言检测方法.其中,Textual,Visual和TVisual这3种方法分别为本文所提出网络模型MSRD的子网络,结构不再赘述.下面介绍3种较新的用于对比实验的谣言检测方法.
1) VQA[18].VQA模型旨在回答有关给定图像的问题.本文将最初为多分类任务设计的Visual QA模型适应了我们的二分类任务.本文通过用二分类层替换最终的多分类层来完成,使用一层LSTM,隐藏单元数设置为32.
2) att-RNN[19].att-RNN使用注意力机制来组合文本、视觉和社交上下文特征.在此端到端网络中,图像特征被合并到使用LSTM网络获得的文本和社交环境的联合表示中.LSTM网络输出后,注意力模型是融合视觉特征必不可少的部分.为了公平比较,在本文的实验中删除了处理社交环境信息的部分.
3) EANN[20].事件对抗神经网络(EANN)由3个主要组件组成:多模式特征提取器、假新闻检测器和事件鉴别器.多模式特征提取器从帖子中提取文本和视觉特征.它与假新闻检测器一起使用,事件鉴别器负责删除任何特定于事件的功能.还可以仅使用2个组件(多模式特征提取器和假新闻检测器)来检测假新闻.因此,为了公平比较,在实验中使用EANN的变体,其中不包含事件鉴别器.
表1汇总了2个数据集的基线以及MSRD方法的结果.可以清楚地看到,MSRD的性能要优于基线方法.
Table1 Comparison of Experimental Results Between MSRD Model and Other Methods
在Twitter数据集上,单独检测图像判断谣言效果要优于单独检测文本,而检测图像及图像中的文本的效果略高于单独检测图像,这说明挖掘图像中文本信息是具有一定意义的,这可能会给整体的谣言检测器的准确率带来提升.在已有多模态谣言检测模型中,att-RNN模型优于EANN,其表明注意力机制可以通过考虑与文本相关的图像部分来帮助改善模型的性能.本文提出的MSRD模型更好地融合了文本与图像特征,使谣言检测结果优于基线模型,将准确性从66.4%提高到68.5%,并将F1分数从67.6%增加到67.8%.
在微博数据集上,由表1的结果中可以看到相似的趋势.多模态模型EANN和att-RNN的性能要优于单模态模型和VQA.MSRD模型的性能要优于所有基准,并且将准确性从78.2%提高到79.4%,并且与以前的最佳基准相比,F1分数从75.6%提高到77.9%.这验证了MSRD方法在检测社交媒体上的多模态网络谣言方面的有效性、先进性和鲁棒性.
本文提出了一种融合文本信息、图像信息以及图像中的文本信息的谣言检测模型MSRD,该模型采用密集连接网络和空洞空间金字塔池化方法对图像文本进行定位,采用共享特征方法将文本特征与图像特征进行了较好地融合表示用于谣言检测.在Twitter和微博两大数据集上进行了实验验证,实验结果表明:挖掘图像中的文本信息对谣言检测具有一定的作用,MSRD模型要优于基线模型.在未来的研究中,我们应考虑谣言信息传播过程中的机制以及用户特征信息等问题.
我们致力于保护作者版权,注重分享,被刊用文章因无法核实真实出处,未能及时与作者取得联系,或有版权异议的,请联系管理员,我们会立即处理! 部分文章是来自各大过期杂志,内容仅供学习参考,不准确地方联系删除处理!