![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
神经网络
文章平均质量分 84
半个女码农
别人说你不行,你就真的不行。。。。吗
展开
-
《Pytorch新手入门》第二节-动手搭建神经网络
使用Pytorch深度学习框架从0到1动手搭建LeNet实现CIFAR-10图像分类原创 2023-11-02 11:29:16 · 1201 阅读 · 1 评论 -
pytorch中的model.named_parameters()与model.parameters()
参考链接:https://www.cnblogs.com/yqpy/p/12585331.htmlmodel.named_parameters()迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param。for name, param in net.named_parameters(): print(name,param.requires_grad) param.requires_grad = False输出结果为conv_1_原创 2021-05-21 17:14:15 · 12143 阅读 · 1 评论 -
darknet 框架中YOLO权重文件的种类及存储结构
darknet 框架下的YOLO权重文件种类及存储结构参考链接:darknet 框架中YOLO权重文件的种类及存储结构https://www.codenong.com/cs106583770/ Darknet模型与Tensorflow模型相互转换https://blog.csdn.net/weixin_42754237/article/details/87534092目录darknet 框架下的YOLO权重文件种类及存储结构权重文件类型第一类:后缀“.weight”和“.b...原创 2021-05-21 11:34:03 · 1218 阅读 · 1 评论 -
为什么使用非线性激活函数?常见的非线性激活函数及优缺点对比
为何使用非线性激活函数? 如上图的神经网络,在正向传播过程中,若使用线性激活函数(恒等激励函数),即令,则隐藏层的输出为即可以看到使用线性激活函数神经网络只是把输入线性组合再输出,所以当有很多隐藏层时,在隐藏层使用线性激活函数的训练效果和不使用影藏层即标准的Logistic回归是一样的。故我们要在隐藏层使用非线性激活函数而非线性的。通常只有一个地方...原创 2019-12-12 20:27:17 · 3782 阅读 · 0 评论 -
使用numpy构造向量时容易忽略的地方
#参考吴恩达深度学习2.16节内容(http://www.ai-start.com/dl2017/html/lesson1-week2.html) 可以看到a的shape(形状)是一个(5,)的结构,这在Python中被称作一个一维数组,要注意的是它既不是一个行向量也不是一个列向量,其转置和本身一样,如果计算a与其转置点乘,得到的是一个数而不是一个矩阵,为了避免与矩阵或向量弄混,要少...原创 2019-08-18 20:29:46 · 347 阅读 · 0 评论 -
终于弄懂tf.reduce_sum()函数和tf.reduce_mean()函数
参考博客:1.https://www.zhihu.com/question/51325408/answer/1254266422.https://www.w3cschool.cn/tensorflow_python/tensorflow_python-5y4d2i2n.html3.https://blog.csdn.net/dcrmg/article/details/79797826在学习...原创 2019-08-07 16:54:31 · 16235 阅读 · 9 评论 -
吴恩达深度学习第一课第二周作业---解决了原作业由于低版本产生的各种bug(附修改后的完整代码及作业数据集)
C1W2-Logistic Regression with a Neural Network mindset参考文章链接:https://github.com/Kulbear/deep-learning-coursera/blob/master/Neural%20Networks%20and%20Deep%20Learning/Logistic%20Regression%20with%20a%...原创 2019-08-21 09:01:37 · 1652 阅读 · 2 评论 -
吴恩达深度学习第一门课学习总结
吴恩达老师深度学习第一门课的核心就是理解前向传播,计算cost,反向传播三个步骤(其实只要静下心来把教程里的公式在草稿纸上推一遍,也不会很难),吴恩达老师主要是通过逻辑回归来讲解这些概念首先是如何处理输入样本,对于一张彩色图片,具有RGB三个通道,在计算机上就是通过三个矩阵来存储通道里的像素值,如上图中dpi的彩图,其像素个数就有,我们需要用一个特征向量x来表示这张图片,特征向量的...原创 2019-08-29 09:36:40 · 401 阅读 · 0 评论 -
吴恩达深度学习第二门课第一周总结
吴恩达深度学习第二门课第一周总结一、梯度消失/爆炸及解决办法二、正则化方法先上目录:从目录可以看到第一周主要解决了两个问题:过拟合,预防梯度消失/梯度爆炸。现在分别来讨论并进行代码实现。一、梯度消失/爆炸及解决办法在训练神经网络时,有时候会遇到导数或坡度(dW,db)变得特别大或特别小,即我们说的梯度爆炸或梯度消失,结果使得梯度下降算法花费更长的时间甚至训练失败。为了避免产生这种情况,...原创 2019-09-04 22:05:59 · 459 阅读 · 0 评论