convolution:卷积;
一般缩写为conv,如:keras中有 conv2D、conv3D等
dense层:全连接层
在Keras中,FC(Fully Connection)层在keras中叫做Dense层,在pytorch中叫Linear层。
iteration:迭代
“14,000 iterations were performed”:进行了14000次迭代。
parameter:参数
normalization:标准化;规范化
batch normalization:批量规范化处理、批量归一化
residual:剩余的;残留的
残差网络 :ResNets。ResNet论文提出了 residual结构(残差结构)
CNN:卷积神经网络
非极大值抑制(Non-Maximum Suppression,NMS),顾名思义就是抑制不是极大值的元素,可以理解为局部最大搜索。最终目的就是去除冗余的检测框,保留效果最好的一个。
原文: https://www.cnblogs.com/makefile/p/nms.html © 康行天下