![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
DL
文章平均质量分 52
Ydon?tkwhmeIS
这个作者很懒,什么都没留下…
展开
-
pytorch:R-CNN的pytorch实现
作者说,使用了Softmax反而造成了性能的下降,他们推断可能是因为正负样本的划分不同导致的(SVM正样本只有真实边界框,负样本要求IoU小于0.3与真实边界框)。做上一点说明,R-CNN使用的分类器是SVM,原文将AlexNet最后一层去掉只用网络提取了4096维的向量然后使用已经训练好的SVM进行分类,本篇的实现则直接用了Softmax做分类,相当于没有改变网络结构。R-CNN可以说是使用CNN进行目标检测任务的始祖,而且取得了不错的成绩。对后续的算法,例如现在经常使用的Yolo系列有很大的影响。原创 2023-10-30 19:36:13 · 273 阅读 · 0 评论 -
Pytorch:cat、stack、squeeze、unsqueeze的用法
在指定上链接传入的张量,所有传入的张量都必须是相同形状tensor:相同形状的tensordim:链接张量的维度,不能超过传入张量的维度。原创 2023-10-17 17:06:34 · 837 阅读 · 0 评论 -
NN:最小二乘法与梯度下降法的Python实现
NN:最小二乘法与梯度下降法的Python实现说明:仅为个人学习笔记,请适量参考。代码是参考其他博主修改而来,因为忘记收藏了所以不放连接了。最小二乘法# least square error 最小二乘法# 理论上最小二乘法可以拟合任何函数# 使用不同的拟合方法可以拟合不同的函数类型,采用了线性回归的方法拟合了一条曲线class least_square_error(): def __init__(self, n): self.w = 0 self.b =原创 2021-09-19 09:01:32 · 331 阅读 · 0 评论 -
NN:神经网络学习,常见激活和损失函数的Python实现
NN:神经网络学习,常见激活和损失函数的Python实现激活函数1、sigmoid# sigmoid# sigmoid输出总是大于零,因此前一层对后一层的神经元输入也总是大于零出现了漂移def sigmoid(x): # exp()自然常数e的x次方 y = 1 / (1 + math.exp(-x)) return y# 生成随机数集# 生成高斯(正太)分布的随机数,loc:中心点# scl:高度#原创 2021-08-25 01:03:17 · 509 阅读 · 0 评论 -
Keras: AlexNet代码分享
Keras: AlexNet代码分享from keras.models import Sequentialfrom keras.layers import Convolution2D, MaxPool2D, Flatten, Dense, Dropoutfrom keras.layers.normalization import BatchNormalizationfrom keras.models import load_modelfrom keras.preprocessing.image i原创 2021-06-13 00:09:25 · 186 阅读 · 0 评论