![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
boboluotou
前端小白的进阶之路。
展开
-
目标检测 IoU
IoU 是一个目标检测算法参考链接IoU的简介及原理解析IoU 的全称为交并比(Intersection over Union),通过这个名称我们大概可以猜到 IoU 的计算方法。IoU 计算的是 “预测的边框” 和 “真实的边框” 的交集和并集的比值。开始计算之前,我们首先进行分析下交集和并集到底应该怎么计算:我们首先需要计算交集,然后并集通过两个边框的面积的和减去交集部分即为并集,因此 IoU 的计算的难点在于交集的计算。我们重新思考一下两个框交集的计算。两个框交集的计算的实质是两个集合交集原创 2020-08-31 17:19:00 · 197 阅读 · 0 评论 -
ROI (Region of interest pooling) Pooling 层详解
感兴趣区域(Region of interest)原文链接目标检测典型结构通常分为两个阶段:1)region proposal:给定一个输入图像,找出可找到对象的所有可能位置。这个阶段的输出应该是bounding box列表,这些通常被称为region proposal,或感兴趣的地区。2)final classification:对于每一阶段的region proposal,决定属于目标类别还是背景,这里我们使用深度卷机网络。如果在第一阶段不被检测到的话,那么就没有可能再成功的分类了,这也是原创 2020-08-31 16:52:32 · 744 阅读 · 1 评论 -
pytorch之scatter() 函数
PyTorch笔记之 scatter() 函数参考链接scatter() 和 scatter_() 的作用是一样的,只不过 scatter() 不会直接修改原来的 Tensor,而 scatter_() 会PyTorch 中,一般函数加下划线代表直接在原来的 Tensor 上修改一 函数介绍scatter_(input, dim, index, src):将src中数据根据index中的索引按照dim的方向填进input。可以理解成放置元素或者修改元素dim:沿着哪个维度进行索引 0:行原创 2020-08-30 21:26:30 · 1111 阅读 · 0 评论 -
卷积神经网络中各个卷积层的详细讲解
卷积神经网络中各个卷积层的设置及输出大小计算的详细讲解原创 2020-08-28 16:28:15 · 850 阅读 · 0 评论 -
pytorch nn.Conv2d 参数
nn.Conv2d(self, in_channels, out_channels, kernel_size, stride=1, padding=0, dilation=1, groups=1, bias=True))参数: in_channel: 输入数据的通道数,例RGB图片通道数为3; out_channel: 输出数据的通道数,这个根据模型调整; kennel_size: 卷积核大小,可以是int,或tuple;kennel_size=2,意味着卷积大小(2,2), kennel_s原创 2020-08-28 13:11:46 · 376 阅读 · 0 评论 -
python各种文件读取
**python各种文件读取**.pkl文件.hdf5文件.json文件.csv文件.txt文件1.pkl文件pkl文件是python里面保存文件的一种格式,如果直接打开会显示一堆序列化的东西。正确的操作方式是使用Pickle模块。Pickle模块将任意一个Python对象转换成一系统字节,这个操作过程叫做串行化对象。import picklefile_name='文件路径/文件名.pkl'f=open(file_name,'rb')p2=pickle.lo原创 2020-08-24 20:32:35 · 1340 阅读 · 0 评论 -
ResNet
ResNet详细解读ResNet解析“高速网络” 残差网络如何解决网络退化问题原创 2020-08-06 17:03:55 · 74 阅读 · 0 评论 -
梯度消失和梯度爆炸原因及其解决方案
梯度消失和梯度爆炸原因及其解决方案1梯度消失和梯度爆炸原因及其解决方案2原创 2020-08-06 17:00:31 · 80 阅读 · 0 评论 -
深度学习的激活函数 :sigmoid、tanh、ReLU 、Leaky Relu、RReLU
深度学习的激活函数 :加粗样式sigmoid、tanh、ReLU 、Leaky Relu、RReLU激活函数可以分为两大类 :饱和激活函数: sigmoid、 tanh非饱和激活函数: ReLU 、Leaky Relu 、ELU【指数线性单元】、PReLU【参数化的ReLU 】、RReLU【随机ReLU】相对于饱和激活函数,使用“非饱和激活函数”的优势在于两点:1.首先,“非饱和激活函数”能解决深度神经网络【层数非常多!!】的“梯度消失”问题,浅层网络【三五层那种】才用sigmoid 作为激原创 2020-08-06 16:29:50 · 1018 阅读 · 0 评论 -
Seq2Seq详解分析
Seq2Seq模型简介Seq2Seq模型是输入输出长度不确定的模型。例如将一句中文翻译成英文,那么这句英文的长度有可能会比中文短,也有可能会比中文长,所以输出的长度就不确定了。在网络结构中,输入一个中文序列,然后输出它对应的中文翻译,输出的部分的结果预测后面,根据上面的例子,也就是先输出“machine”,将"machine"作为下一次的输入,接着输出"learning",这样就能输出任意长的...原创 2020-04-24 15:54:40 · 1902 阅读 · 0 评论 -
LSTM 长短期记忆网络
转载自:https://www.jianshu.com/p/95d5c461924cLSTM长短期记忆网络(LSTM,Long Short-Term Memory)是一种时间循环神经网络,是为了解决一般的RNN(循环神经网络)存在的长期依赖问题而专门设计出来的,所有的RNN都具有一种重复神经网络模块的链式形式。循环神经网络(下面简称RNNs)可以通过不停的将信息循环操作,保证信息持续存在,从...原创 2020-04-23 14:35:45 · 1041 阅读 · 0 评论