哈尔滨工业大学提出 RISTDnet:强鲁棒性的红外小目标检测网络

在这里插入图片描述
哈工大提出***RISTDnet***:强鲁棒性的红外小目标检测网络

RISTDnet: Robust Infrared Small Target Detection Network
在这里插入图片描述
作者单位:哈尔滨工业大学空间光学工程研究中心
论文下载链接:https://sci-hub.yncjkj.com/10.1109/lgrs.2021.3050828
引用格式:Q. Hou, Z. Wang, F. Tan, Y. Zhao, H. Zheng and W. Zhang, “RISTDnet: Robust infrared small target detection network”, IEEE Geosci. Remote Sens. Lett., pp. 1-5, 2021.

复杂背景中的红外小目标具有低对比度和低信噪比(SNR)。因此,小目标检测更加困难。传统的红外小目标检测一般通过局部对比方法(LCM)、非局部自相关方法(NAM)和自适应分割来实现。在本论文中,提出了一种基于深度学习的强鲁棒性的红外小目标检测网络(RISTDnet)。在RISTDnet中,构建了结合手工特征方法和卷积神经网络的特征提取框架,建立了特征图与图像中小目标似然的映射网络,并在似然图上应用阈值来分割真实目标。实验结果表明,RISTDnet可以检测复杂背景下不同尺寸、低信噪比的小目标,比现有算法具有更好的有效性和鲁棒性。

1、 网络框架

RISTDnet整体框架如下,由一个基于固定权重卷积核的特征提取网络(FENetwFW)、一个基于变权重卷积核的特征提取网络(FENetwVW)和一个特征映射网络(FMNet)组成。
在这里插入图片描述

FENetwFW 使用五种尺寸的卷积核:3×3、5×5、7×7、9×9 和 11×11。卷积核数分别为1、2、3、4、5。结构如图2所示,每个卷积核的结果是红色网格中像素的平均值减去蓝色网格中像素的平均值。这组卷积核的目的是提取小目标的对比度信息。

在这里插入图片描述

FENetwFW 包含 15 个上述固定权重的卷积核,对于大小为 1×1、3×3、5×5 的目标,高响应的固定权重卷积核的数量为 5、4、3、2 和 1 、7×7、9×9,对应的特征图个数分别为5、4、3、2、1。最后,这15个特征图和原图构成了16个通道的特征图。可以看出,该策略可以为较小的目标获得足够数量的特征通道,进而保证对较小目标的可检测性。
将五组卷积核形成的输入图像和特征图连接起来作为FENetwVW的输入,FENetwVW的结构如表I所示。FCsubnet在对高分辨率特征图进行拆分和重新排列后,将结果与低分辨率特征图连接起来,形成多尺度特征图,更有利于检测不同大小的小目标。FCsubnet的详细结构如图3所示。
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

FMNet用于将特征图映射到目标/背景似然图。计算过程如图4所示。设pi,j,z表示特征图中的一个元素,大小为64×80×128,其中,i=1,2,…,64;j = 1,2,…,80;并且z = 1,2,…,128。目标似然图pT(x, y)与背景似然图pB(x, y) (x = 1,2,…,512, y = 1,2,…,640)和pi,j,z可以表示为:

在这里插入图片描述

FENetwFW在RISTDnet中提取手工制作的多尺度特征,FENetwVW在手工制作的特征的基础上进行深度特征提取。因此,RISTDnet是适用于小目标检测的手工特征和深度特征的融合提取框架。

2、网络训练

网络训练的输入是归一化的红外图像。损失函数由目标/背景似然图和训练数据集的标签计算。网络训练实现了基于梯度下降算法和FENetwVW中所有卷积核权重求解的损失函数优化。概率损失函数如下:

在这里插入图片描述

3、实验结果分析

选取了5种算法与RISTDnet进行对比,结果如图7所示,可以明显看出RISTDnet的检测率高,虚警点少。

在这里插入图片描述

此外,还主要比较低信噪比目标的检测性能。图8(b)-(e)中的第一排表示相应场景下目标信噪比分别为1、1.5、2和2.5时的ROC曲线;图 8(b)-(e)中的第二排和第三排分别代表相应场景下目标的 SNR 为 0.5、1、1.5 和 2 时的 ROC 曲线。不同算法对这些图像得到的ROC曲线如图8所示。从图8中可以看出,本文算法在低信噪比上有较好的表现,说明了RISTDnet在低信噪比目标检测中的优势。
在这里插入图片描述

4、结论:

论文提出了一种基于深度学习方法的用于红外小目标检测的RISTDnet。RISTDnet将输入图像转换为目标/背景似然图,并应用阈值分割来提取真实目标。实验结果表明,所提出的RISTDnet可以处理复杂背景下大小不一、信噪比低的小目标,并且与现有算法相比,所提出的RISTDnet也具有更好的有效性和实时性。

  • 3
    点赞
  • 21
    收藏
    觉得还不错? 一键收藏
  • 13
    评论
基于神经网络红外弱小目标检测方法已经被广泛研究和应用。其中,卷积神经网络(CNN)是一种常用的神经网络模型,它可以自动从数据中学习特征,并在图像分类和目标检测等任务中取得了很好的效果。以下是一个基于CNN的红外弱小目标检测方法的简要步骤: 1. 数据准备:收集并标注红外图像数据集,包括弱小目标和背景图像。 2. 数据增:对数据集进行增操作,如旋转、翻转、缩放等,以扩充数据集并提高模型的鲁棒性。 3. 神经网络设计:设计一个适合红外弱小目标检测的CNN模型,包括卷积层、池化层、全连接层等。 4. 神经网络训练:使用数据集对CNN模型进行训练,以学习红外弱小目标的特征。 5. 目标检测:使用训练好的CNN模型对新的红外图像进行目标检测,输出弱小目标的位置和类别。 6. 模型评估:对模型进行评估,包括准确率、召回率、F1值等指标。 以下是一个基于TensorFlow的CNN模型的代码示例: ```python import tensorflow as tf # 定义CNN模型 def cnn_model(features, labels, mode): input_layer = tf.reshape(features["x"], [-1, 28, 28, 1]) conv1 = tf.layers.conv2d(inputs=input_layer, filters=32, kernel_size=[5, 5], padding="same", activation=tf.nn.relu) pool1 = tf.layers.max_pooling2d(inputs=conv1, pool_size=[2, 2], strides=2) conv2 = tf.layers.conv2d(inputs=pool1, filters=64, kernel_size=[5, 5], padding="same", activation=tf.nn.relu) pool2 = tf.layers.max_pooling2d(inputs=conv2, pool_size=[2, 2], strides=2) pool2_flat = tf.reshape(pool2, [-1, 7 * 7 * 64]) dense = tf.layers.dense(inputs=pool2_flat, units=1024, activation=tf.nn.relu) dropout = tf.layers.dropout(inputs=dense, rate=0.4, training=mode == tf.estimator.ModeKeys.TRAIN) logits = tf.layers.dense(inputs=dropout, units=10) # 预测 predictions = { "classes": tf.argmax(input=logits, axis=1), "probabilities": tf.nn.softmax(logits, name="softmax_tensor") } # 预测模式 if mode == tf.estimator.ModeKeys.PREDICT: return tf.estimator.EstimatorSpec(mode=mode, predictions=predictions) # 计算损失 loss = tf.losses.sparse_softmax_cross_entropy(labels=labels, logits=logits) # 训练模式 if mode == tf.estimator.ModeKeys.TRAIN: optimizer = tf.train.GradientDescentOptimizer(learning_rate=0.001) train_op = optimizer.minimize(loss=loss, global_step=tf.train.get_global_step()) return tf.estimator.EstimatorSpec(mode=mode, loss=loss, train_op=train_op) # 评估模式 eval_metric_ops = { "accuracy": tf.metrics.accuracy(labels=labels, predictions=predictions["classes"]) } return tf.estimator.EstimatorSpec(mode=mode, loss=loss, eval_metric_ops=eval_metric_ops) # 加载数据集 mnist = tf.contrib.learn.datasets.load_dataset("mnist") train_data = mnist.train.images train_labels = np.asarray(mnist.train.labels, dtype=np.int32) eval_data = mnist.test.images eval_labels = np.asarray(mnist.test.labels, dtype=np.int32) # 创建Estimator mnist_classifier = tf.estimator.Estimator(model_fn=cnn_model, model_dir="/tmp/mnist_convnet_model") # 训练模型 train_input_fn = tf.estimator.inputs.numpy_input_fn(x={"x": train_data}, y=train_labels, batch_size=100, num_epochs=None, shuffle=True) mnist_classifier.train(input_fn=train_input_fn, steps=20000) # 评估模型 eval_input_fn = tf.estimator.inputs.numpy_input_fn(x={"x": eval_data}, y=eval_labels, num_epochs=1, shuffle=False) eval_results = mnist_classifier.evaluate(input_fn=eval_input_fn) print(eval_results) ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 13
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值