分享

基于注意力机制的铁路巡检视频场景分类方法研究

 GXF360 2021-10-06

接触网安全巡检关系到高速铁路系统安全和国家经济发展,保证接触网系统的安全对于高速铁路可靠运行具有十分重要的意义。然而接触网设备露天设置、工作环境恶劣且没有备用[1],要杜绝安全隐患无疑是一个极大的挑战。为了保障高铁受电弓-接触网系统的运行安全,高速铁路部门广泛采用了6C系统(高速铁路供电安全检测监测系统)。其中2C系统[2](接触网安全巡检装置)采用便携设备对接触网的状态及外部环境进行视频采集,通过图像处理技术分析视频,以确定接触悬挂部件状态[3],然后优先检测易出现故障的接触网场景中的接触网部件。因此针对巡检视频中接触网所处场景的准确分类成为一个必要的任务。

目前的视频图像分类方法主要是逐帧分类,对单帧图像采用图像分割或特征提取算法得到特征表达向量,之后将视频的所有帧特征进行聚合输入到分类器中。文献[4]针对人体运动识别,根据3D可控滤波器估算时空定向能量生成具有高运动显著性的大量3D区域,使用HOE(时空定向能量直方图)、HOG(梯度直方图)表示视频帧的特征,再通过SVM(支持向量机)对人体运动进行分类。Wang等[5] 利用光流场获得视频序列的轨迹,沿着视频轨迹提取HOG、HOF(光流直方图)、MBH(光流梯度直方图)等多种特征,然后将特征编码后送入分类器进行视频分类,然而这些特征都是由人工设计的传统特征,较难捕捉高级语义信息。Karpathy等[6]首先训练CNN(卷积神经网络),然后从不同分辨率的视频中提取不同尺度的特征,从而构建了一个多分辨率的架构进行视频片段分类,但这个方法只适用于帧数固定的片段。Karen等[7]针对捕捉视频人体动作与静态背景的关系,在3D卷积神经网络中引入时间关系,但这种方法需要在网络训练之前对视频进行分段,难以处理时间序列较长的视频。在文本识别与自然处理领域,CRNN(Convolutiona Recurrent Neural Network)[8]将从CNN部分输出的特征图中提取的特征向量作为RNN(循环神经网络)部分的单元输入,每一个特征向量在特征图上按空间位置从左到右生成,这种方法可以利用RNN解决空间序列问题,但并不适用于视频场景分类这类时间序列问题。在机器翻译领域,对序列信息有着高效挖掘能力的注意力(Attention)机制被广泛应用于语音识别、文本分析中[9-12],但未被应用于视频场景分类领域。

针对铁路领域的场景分割,王洋等[13]采用卷积神经网络,基于单一图像帧对轨道区域、天空、接触网等多个区域进行分类;徐凡等[14]根据有砟、无砟场景的不同特征,由边缘检测绘出方向统计直方图来区分图像帧中的有砟、无砟场景;李家才等[15]针对铁路视频场景入侵目标的分类,根据相对背景差分法区分出视频中的运动目标与背景,提取目标特征进行跟踪,并实现对入侵运动目标的分类。然而这些方法均缺乏对图像时序特征的考虑,无法解决针对铁路场景下的对整个视频图像序列的分类任务。

为解决铁路视频场景的分类问题,本文根据铁路巡检视频的场景特点与场景帧之间的变化规律,采用深度学习技术,对巡检视频中4种不断交替变化场景的分类方法展开研究,提出针对性的图片预处理方式,在不损失关键信息的前提下缩小视频帧大小,采用预训练的Inception-v3网络[16]提取视频帧的图像特征,并结合注意力机制的双向GRU网络分类方法,通过引进帧与周围帧之间的相互联系及重要程度,以提高模型对帧的分类准确率,从而提高模型场景分类的准确率与召回率,为工作人员快速准确监测接触网零部件故障提供进一步的便利。

1 基于注意力机制的视频分类模型

基于注意力机制的视频场景分类模型架构见图1。

由图7分析可知,当氯酸钠用量为4 g/L时,溶液中金的浸出率仅为55.72%,说明有较多的金未被氧化成离子,从而未被浸出;当氯酸钠用量为8~12 g/L时,溶液中金的浸出率增幅较大,金的浸出率为85%~95%;当氯酸钠用量继续增加到为16 g/L时,溶液中金的浸出率进一步增加到98.64%,且曲线趋于平缓。由曲线分析可知,最佳氯酸钠用量为16 g/L,此时金的浸出率为98.64%。

图1 视频场景分类的模型架构

给定一个视频序列,首先按时间顺序从视频段中依次选取m个视频帧,根据视频帧的特点进行图片预处理,不仅能突出原帧的关键信息,还能减小帧的大小从而减小后续模型的计算量。随后依次将处理后的m个视频帧输入到预训练的Inception-v3网络中,以提取视频序列中每帧图像的特征信息。再依次将卷积神经网络输出的视频帧的特征信息输入到双向循环神经网络,加入注意力机制使模型关注到帧与相邻帧在时序与内容上的联系,从而找到与类别相关的有效特征,减少不相关区域对模型分类的影响。最后根据该帧属于每个类别的概率来决定该帧真正的类别归属。

1.1 基于Inception-v3网络的特征提取模型

预训练的卷积神经网络是将卷积神经网络在海量数据集上进行不断训练、调整网络参数而得到的。由于海量数据涵盖了日常所能见到的各种图片分类,因此在此基础上训练出来的模型可以用于提取图像特征。Inception-v3网络是谷歌公司提出的经典卷积神经网络,其预训练模型是图像提取特征的常用模型之一。

本文设计的Inception-v3网络模型的结构见图2。底层网络由传统的卷积神经网络组成,包含6个卷积层和2个池化层,在最后一个卷积层后接入堆叠的Inception块。该模型去除了原有预训练Inception-v3网络的一个全连接层以及一个softmax输出层,使其成为特征提取器。视频中的帧经过该特征提取器,最终得到一个2 048维向量,该向量即为Inception-v3网络提取到的帧特征。

图2 Inception-v3网络模型的特征提取

在图2所示的Inception-v3网络模型中,特殊的地方在于Inception块,这是一种网中网结构,即多个Inception块堆叠形成一个整体结构。Inception-v3网络模型包含3种不同类型的Inception块,分别为Inception1[16]、Inception2[17]和Inception3[17] ,网络结构见图3。

图3 Inception-v3网络结构

1.2.1 双向GRU编码网络

一本实际走访动物园的趣味“测量之书”,量测的不只是数据,更是乐趣。从生活日常开始的故事,开启孩子的好奇心,从寻常小事中出发,体会单纯,自然散发趣味的故事原味。

首先采用传统RNN模型的变种——GRU(传统门限循环单元)网络,按序列顺序处理由Inception网络输出的视频帧的特征向量。GRU网络由Cho等[18]于2014年提出,它能够有效地处理长序列,识别远距离的序列信息。提取视频序列信息之后采用注意力机制可以提升视频帧分类的效果。GRU单元结构见图4。

青少年是未来的希望,正确引导学生心理健康对学生未来的发展起着重要作用。随着社会信息技术的不断发展,大量的不良信息以及不正风气随时随地涌向青少年,网络的诱惑使学生越来越容易接触到各种消极的事情,并对青少年的心理产生一定影响。同时青少年正处在成长叛逆期,不能判断事物的好坏。因此,在教育教学中,一定要加强对学生心理健康问题的关注,及时对学生进行心理培养。

图4 GRU单元结构

GRU单元包含了重置门与更新门。重置门决定记忆的重组,即将上一时刻的记忆与新输入的重新组合形成新的记忆;更新门决定带入上一时刻记忆的比例。重置门值越小代表忽略上一时刻记忆的越多;更新门值越大代表上一时刻记忆占比越多[19]。这两个门控向量控制GRU的输出信息。GRU单元的结构与向前传播式为

采集患者接受治疗一段时间内的数据,对患者的急性生理学和慢性健康进行评分,对全身性感染相关性器官功能衰竭进行评分。根据计算机技术对记录的数据进行处理,以P<0.05为差异有统计学意义。采用百分制进行表示。

rt=σ(Wr×[ht-1,xt])

( 1 )

zt=σ(Wz×[ht-1,xt])

( 2 )

( 3 )

( 4 )

式中:为不同的权值矩阵;ht-1xt分别为上一时刻的输出、当前时刻的输入;ztrt分别为更新门、重置门;为当前时刻状态;ht为当前时刻的输出;σ、tanh为激活函数,激活函数能够增强神经网络的表达能力,便于保留特征,精简数据。

GRU编码网络是为了将图片特征序列压缩成一个固定维度的向量。在单向GRU编码网络中每个输入的隐含状态只压缩了其前面输入的信息。而对于许多序列建模任务而言,过去的信息固然很重要,但是未来信息的参与更可以使模型的准确率得到进一步提升。因此采用双向GRU网络可以实现同时整合过去与未来的信息。双向GRU神经网络单元结构见图5。

图5 双向GRU单元结构

一个双向GRU网络包含一个前向网络和一个后向网络。前向网络按照网络输入顺序(x1,x2,…,xT)依次压缩输入信息,并得到一系列隐层状态类似地,后向网络按照(xT,xT-1,…,x1)的顺序压缩输入信息,得到对第i个时刻的输入xi而言,它的隐层状态可以通过连接前向网络和后向网络的结果得到,即

纸浆洗涤过程是制浆造纸生产中非常重要的一环,其洗涤效果直接影响到后续工段的顺利进行。然而纸浆洗涤过程是一个高度复杂的非线性过程,纸浆洗涤过程的建模与自动控制问题一直困扰着制浆造纸生产企业。近年来,数据驱动建模得到了广泛的应用,该方法只利用已存储的大量输入输出数据,在线学习计算与当前状态相匹配的控制量,便可获得系统所需要的各种静态品质,用“数据为自身说话”[1]。在纸浆洗涤过程中,具有丰富的在线和离线测量数据,如温度、上浆浓度和出浆浓度、浆种和纸浆硬度、清水加入量和洗涤次数等数据[2]。

1.2.2 注意力机制

注意力机制最开始启发于人类观察图像的特点。人观察图像时,注意力不会放在每一个像素点上,而是放在图像中某一重要部分。由此Googlemind团队在应用循环神经网络时加入了注意力机制来学习一幅图像中的重要部分。注意力机制第一次在自然语言处理中的应用,是在机器翻译时使用注意力机制来将翻译和对齐同时进行[20]。实验证明,注意力机制的加入的确使得循环神经网络的效果得到大幅提升[21]

在一段连续的视频中,不同场景不断地交替变换。当判断其中的一帧属于哪个场景时,除了此时帧本身所含的信息外,还需要周围帧的信息。处于不同位置所含信息不同的周围帧对本帧所产生的影响是不同的,距离近的周围帧对此时帧影响大,距离远但是内容很重要的帧对此时帧的影响同样大。双向GRU网络编码得到的此时帧的隐含状态已包含了周围帧在位置上对此时帧的影响(离此时帧越近的帧信息影响越大)。此时在帧所包含信息上引入注意力机制,基于周围帧所包含的信息赋予周围帧不同权重来表达周围帧所含信息对于此时帧预测的重要程度,必定能提升分类器的性能。因此本文提出在双向GRU神经网络上应用基于帧级别的注意力机制来提升帧分类效果。注意力机制网络结构示意见图6。

图6 注意力机制网络结构示意

定义视频第i帧的类别概率向量为yi,则其中第i帧的类别j概率yij

(5)

ti=Ws·zi+bs

(6)

zi=f(zi-1,yi-1,ci)

(7)

式中:n为共有类别;zii时刻的隐层状态;ti为第i帧未经归一化的输出结果;f为GRU单元等效函数;yi-1i-1时刻图片的预测结果向量;cii时刻包含帧与周围帧信息的上下文向量;Ws为权重矩阵;bs为偏移向量。式(5)所示即为图6中所示的softmax函数。

在接触网安全巡检视频中,对不同时刻的帧而言,与它有关的周围帧信息是不同的,因此在模型中它是动态变化的。每个帧的上下文向量ci依赖于双向GRU网络得到的隐层状态集合(h1,…,hT),其中每个ht∈(h1,…,hT)压缩了输入端每个帧信息并且包含了它周围的帧信息。对ci可以通过各个隐层状态的加权平均得到:

估价机构应积极转变传统观念,强化数据建设和加快业务转型。大数据离不开数据建设,数据建设耗时耗资,估价机构应根据自身情况,决定独立建设数据库还是加入现有数据联盟,数据建设时应重点把握数据的全面性、真实性和及时性。在此基础上,强化数据的分析研究,提高对数据的“加工能力”,实现数据的增值服务和业务的转型,进而朝智慧评估与智慧管理方向发展。

( 8 )

( 9 )

( 10 )

式中:Wa为权重矩阵;为权重向量。由模型可知,对第i时刻的帧预测,不仅需要依靠本帧所含的信息,还要借助周围帧信息与上一帧的预测结果。这些额外的信息能更加有效地提高分类器的分类准确度。

2 数据集及参数设置

在铁路视频分类的研究工作中,没有可直接使用的图像数据库。本文数据集采集自6C系统总体技术规范中的2C系统所拍摄的成渝客专下行线路视频。该视频包含了各种情形的影像,从中截取图像的分辨率为2 560×2 160。根据视频的帧率,可以得到每小时有近4万幅的图像。在保证包含全部铁路场景的基础上,对视频的内容进行了图像采集。经过筛选后,成功对成渝客专线路数据集的74 000帧图片约8万幅的图像数据进行了逐一标注,建立了训练和测试所需的样本库。然后将它们分成4类,分别为单腕臂、锚段关节、隧道和硬横跨,见图7。

建筑行业作为市场经济化较早的行业,企业数量众多,截至2009 年底,中国建筑业企业数量为70 817 家,多数为小型企业,大型企业和中型企业比例相对偏低[2]。这导致了众多的市场参与者在一个较低的水平上进行过度竞争,压价也成为了常用竞争手段,越来越低的中标价,使得众多项目盈利水平逐步降低,甚至出现亏损。面对机遇与挑战,施工企业急需在投标阶段进行投标优化,以节约市场开拓成本,增加中标项目盈利能力。

图7 铁路场景视频帧示例

在以上常见的4种场景中,硬横跨场景包含的帧数最少,且同类别中帧之间差别小。为了避免训练时类别样本数量不均衡造成分类器性能下降,本文将其他场景的训练集数量与硬横跨场景训练集数量保持接近。挑选出训练集的场景帧后,将剩余的场景帧作为测试集。数据集场景类别及对应帧数量见表1。

表1 数据集场景类别及对应帧数量

类别号类别名称训练集/帧测试集/帧总帧数/帧1简单腕臂3 00042 00045 0002锚段关节2 5006 0008 5003隧道3 00015 00018 0004硬横跨2 0005002 500

注意力机制模型的基本参数设置见表2。

表2 模型设置参数

参数含义数值batch/个每批次使用的样本数16epoch/次训练时遍历训练集的次数20hidden_size/个隐藏层单元数128seq_len/帧每个样本包含的帧数量8

3 实验

3.1 2C图片预处理

由上文可知,每帧图像的尺寸为2 560×2 160,即每张图像的像素点为5 529 600个。根据对于2C系统所拍摄视频的先验知识,在整个2C视频中,所有类别片段中的图片下半部分都共同拥有场景,且下半部分对判断该图片属于哪一个类别片段并没有帮助。为了便于后续提取图像特征的有用信息,且减小后续模型的计算量,本文舍弃了图片的下半部分。且在图片的上半部分,只需要用到包含关键信息的部分,就足以判断出图片所处的片段种类,如此可以进一步缩小输入模型的图片的像素。视频帧图像示例见图8,其中红色区域为关键信息部分。

图8 代表场景视频帧关键信息的部分

在整条线路上,代表每一帧关键信息的部位可能位于左上1/4侧,也可能位于右上1/4侧,提取每张图片关键部位的处理流程见图9。

m时刻背景均值估计由m-1时刻的背景均值估计和m时刻的回波数据递归得到。随着探测时间的积累,该算法的背景估计值精度随之增高。但是对于探测场景中背景出现起伏的情况下,更新背景速度缓慢。这是由于在该算法中每个回波的权重值一样,无法重点突出最新回波数据,使得当前的回波数据对整个背景估计值影响贡献小,导致出现拖尾现象。

图9 视频帧图像预处理流程

根据图9计算流程得到的预处理后的输出结果见图10。

图10 图片预处理结果示例

3.2 检测实验评价标准

本文模型实际上是对视频进行场景分类,因此可以将其视作分类问题。与传统的图片分类问题不同的是,场景分类关注的是一个片段是否被分类正确。因此这里的评价单位是一个片段而非单帧图片,在得到帧分类结果后还需要进行进一步处理。本文定义类别同为i的连续帧称为i类的一个片段,Qi为模型类别i的片段集合,对于预测为i类的一个片段gi,其预测正确的规则为

pQi,使得pgi≠∅

(11)

对于模型而言,采用准确率P、召回率RF值来作为评价指标,计算式为

(12)

(13)

(14)

P值为预测正确的片段数除以整个测试集中预测为正确的样本总数;R值为预测正确的片段数除以真实为正确样本的数目。由于PR是相互矛盾的一对变量,故常采用F值综合考虑PR,以反映模型对分类的总体情况。

当学生步入大学校园后,就踏入了世界观、价值观、人生观形成的关键期。理工科学生自中学起,主要接受理科学习的思维训练,“重发展轻教育”〔7〕。进入大学以后,由于专业和学科特点,以及高强度的学习压力,使得理工科学生不得不面对课程数量多、学习任务重、专业性强、考核要求高等现实情况,在学好专业课程的同时,人文及思政类课程的学习就摆在了次要位置。“重科学精神,轻人文素养”〔8〕、“重学术轻思想”〔9〕,理工科学生人文素养相对偏低已是不争的事实。

3.3 实验结果及分析

本文提出的方法是在使用预训练的Inception-v3模型提取帧特征后,利用结合注意力机制的双向GRU网络对帧进行分类,模型训练过程中的损失曲线见图11。

列车奔驰在秋季的松嫩平原。夕阳悬在车头前方,似乎在勾引列车吻到它。而对于列车,那是不可能的,尽管看起来车头与夕阳的距离近在咫尺;这情形使人联想到“夸父追日”的神话。车头气急败坏地喷吐浓烟,混沌了天地。而于那混沌之中,夕阳将车身映成平原上一道长长的剪影。

图11 模型训练过程的损失曲线

由图11可见,损失曲线可在迭代50次后趋于平稳;验证集上的损失比训练集上的损失稍高但是没有出现过拟合现象,证明网络训练过程有效。根据对单帧的分类预测结果,可以画出模型的ROC(Receiver Operating Characteristic)曲线,见图12。

图12 单帧分类结果的ROC曲线

由图12可以看出,本文模型的AUC值(ROC曲线下方的面积)为0.93,并且模型能在假阳率很低的同时取得十分高的真阳率,代表模型在该单帧分类问题上整体性能良好。视频帧根据每个类别的预测概率确定最终的分类后,再按照式(11)确定片段的预测结果。其结果显示本文模型在2C视频场景分类问题上准确率为95.2%,召回率为97.5%。

定义3 对随机过程{X(t),t∈T}在参变量为tk(k=1,2,…)时的过程元A(tk)和随机过程{X(t),t∈T}在参变量为tj(j=1,2,…)(j≠k)时的过程元A(tj),如果A(tk)与A(tj)之间存在某种制约和依赖关系,则称过程元A(tk)与A(tj)是相关的,记为A(tk)~A(tj).

为了比较本文提出模型的有效性,将本文的方法与单独使用CNN(即不考虑帧之间的联系,基于单帧进行图像分类)和不含注意力机制的双向GRU网络方法做了对比实验,实验结果见表3。

表3 实验结果对比

模型准确率/%召回率/%F值预测类别段数Inception-v391.896.30.9402 416Inception-v3+双向GRU91.397.80.9442 381Inception-v3+双向GRU+注意力机制95.297.50.9622 170

由表3可见:3个模型的召回率都能达到95%以上,其中循环神经网络表现要比卷积网络稍强,这归功于循环神经网络结合时序关系的原因;在准确率上,结合注意力机制的双向GRU网络表现要远远强于其他两个模型,由此证明关注周围帧所包含信息的重要程度可以提高片段分类的准确率。结合注意力机制后的模型会使得片段的预测结果更加具有连贯性,使其预测的片段数量更少,这个特性更有助于贴近实际的应用。同时由于连贯性更强,在长短片段交替时会导致一些短片段的帧在第一步预测时会被判定为前方长片段的分类,从而导致双向GRU网络在结合注意力机制后的召回率会稍低。

4 结论

本文提出将加入注意力机制的双向GRU神经网络模型用于接触网2C系统视频的场景分类。该模型采用预训练好的Inception-v3模型提取帧的特征作为输入,对输入的帧信息采用双向GRU网络进行编码建模,同时加入帧级别的注意力机制,利用周围帧的有效信息来提升分类器的精度。通过与Inception-v3网络及未结合注意力机制的双向GRU网络进行对比实验,验证了结合注意力机制的2C视频场景分类模型效果要优于普通的神经网络模型,具有较好的适用性和鲁棒性。

参考文献:

[1] 张万里. 接触网工技术问答350题[M]. 北京:中国铁道出版社, 1995.

[2] 张平, 张建辉, 李平芳. 高速铁路接触网安全巡检系统[J].铁路计算机应用, 2016,25(3):34-36.

ZHANG Ping, ZHANG Jianhui, LI Pingfang. Catenary Safety Inspection System for High-speed Railway[J]. Railway Computer Application, 2016,25(3): 34-36.

[3] 钱清泉, 高仕斌, 何正友, 等. 中国高速铁路牵引供电关键技术[J]. 中国工程科学, 2015, 17(4):9-20.

QIAN Qingquan, GAO Shibin, HE Zhengyou, et al. Study of China High-speed Railway Traction Power Supply Key Technology[J]. Engineering Science, 2015,17(4): 9-20.

[4] WANG L M, QIAO Y, TANG X. Motionlets: Mid-level 3D Parts for Human Motion Recognition[C]//IEEE Conference on Computer Vision and Pattern Recognition. New York:IEEE, 2013: 2674-2681.

[5] WANG H, SCHMID C. Action Recognition with Improved Trajectories[C]//Proceedings of the IEEE International Conference on Computer Vision. New York: IEEE, 2013: 3551-3558.

[6] KARPATHY A, TODERICI G, SHETTY S, et al. Large-scale Video Classification with Convolutional Neural Networks[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2014: 1725-1732.

[7] SIMONYAN K, ZISSERMAN A. Two-stream Convolutional Networks for Action Recognition in Videos[C]//Advances in Neural Information Processing Systems. Montreal: NIPS, 2014: 568-576.

[8] SHI B, BAI X, YAO C. An End-to-end Trainable Neural Network for Image-based Sequence Recognition and Its Application to Scene Text Recognition[J]. IEEE Transactions on Pattern Analysis and Machine Intelligence, 2017, 39(11): 2298-2304.

[9] 卢健, 马成贤, 杨腾飞, 等. Text-CRNN+Attention架构下的多类别文本信息分类[J]. 计算机应用研究,2020,37(6):1693-1696,1701.

LU Jian, MA Chengxian, YANG Tengfei, et al. Multi-Category Text Information Classification with Text-CRNN+Attention Architecture [J]. Application Research of Computers,2020,37(6): 1693-1696, 1701.

[10] PENG X, WANG L, WANG X, et al. Bag of Visual Words and Fusion Methods for Action Recognition: Comprehensive and Good Practice[J]. Computer Vision and Image Understanding, 2016, 150: 109-125.

[11] 田生伟, 胡伟, 禹龙, 等. 结合注意力机制的Bi-LSTM维吾尔语事件时序关系识别[J]. 东南大学学报(自然科学版), 2018, 48(3): 393-399.

TIAN Shengwei, HU Wei, YU Long, et al. Temporal Relation Identification of Uyghur Event Based on Bi-LSTM with Attention Mechanism[J]. Journal of Southeast University(Natural Science Edition), 2018,48(3):393-399.

[12] CHEN P, SUN Z, BING L, et al. Recurrent Attention Network on Memory for Aspect Sentiment Analysis[C]//Proceedings of the 2017 Conference on Empirical Methods in Natural Language Processing. Copenhagen:ACL, 2017: 452-461.

[13] 王洋, 余祖俊, 朱力强, 等. 基于CNN的高速铁路侵限异物特征快速提取算法[J]. 仪器仪表学报, 2017,38(5):1267-1275.

WANG Yang, YU Zujun, ZHU Liqiang, et al. Fast Feature Extraction Algorithm for High-speed Railway Clearance Intruding Objects Based on CNN[J]. Chinese Journal of Scientific Instrument, 2017,38(5):1267-1275.

[14] 徐凡. 基于计算机视觉的铁路场景识别和扣件定位方法研究[D]. 北京:北京交通大学, 2018.

[15] 李家才, 陈治亚, 王梦格. 铁路入侵运动目标实时检测技术[J].铁道科学与工程学报, 2013,10(6):116-120.

LI Jiacai, CHEN Zhiya, WANG Mengge. Moving Target Real-time Detection of Railway Intrusion[J]. Journal of Railway Science and Engineering, 2013,10(6):116-120.

[16] SZEGEDY C, LIU W, JIA Y, et al. Going Deeper with Convolutions[C]//Proceedings of IEEE Conference on Computer Vision And Pattern Recognition. New York:IEEE, 2015: 1-9.

[17] SZEGEDY C, VANHOUCKE V, IOFFE S, et al. Rethinking the Inception Architecture for Computer Vision[C]//Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. New York: IEEE, 2016: 2818-2826.

[18] CHO K, VAN Merrienboer B, GULCEHRE C, et al. Learning Phrase Representations Using RNN Encoder-decoder for Statistical Machine Translation[C]//Proceedings of the 2014 Conference on Emprical Methods in Natural Language Proceesing. Association for Computational Linguistics, 2014: 1724-1734.

[19] 张兰霞, 胡文心. 基于双向GRU神经网络和双层注意力机制的中文文本中人物关系抽取研究[J].计算机应用与软件, 2018, 35(11): 130-135,189.

ZHANG Lanxia, HU Wenxin. Character Relation Extraction in Chinese Text Based on Bidirectional GRU Neural Network and Dual-attention Mechanism[J]. Computer Applications and Software, 2018, 35(11): 130-135,189.

[20] YAN X, MOU L, LI G, et al. Classifying Relations via Long Short Term Memory Networks along Shortest Dependency Path[C]//Proceedings of the 2015 Conference on Empirical Methods in Natural Language Processing. Lisboa: ACL, 2015: 1785-1794.

[21] ZHANG S, ZHENG D, HU X, et al. Bidirectional Long Short-Term Memory Networks for Relation Classification[C]//Proceedings of the 29th Pacific Asia conference on language, Information and Computation. Shanghai: CIPSC, 2015: 73-78.

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多