神经网络算法用于目标检测领域

convolution:卷积;

一般缩写为conv,如:keras中有 conv2D、conv3D等

dense层:全连接层

在Keras中,FC(Fully Connection)层在keras中叫做Dense层,在pytorch中叫Linear层。

iteration:迭代

“14,000 iterations were performed”:进行了14000次迭代。

parameter:参数

normalization:标准化;规范化

batch normalization:批量规范化处理、批量归一化

 residual:剩余的;残留的

残差网络 :ResNets。ResNet论文提出了 residual结构(残差结构)

CNN:卷积神经网络

非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。最终目的就是去除冗余的检测框,保留效果最好的一个。
原文: https://www.cnblogs.com/makefile/p/nms.html © 康行天下

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值