![](https://img-blog.csdnimg.cn/20201014180756754.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
文章平均质量分 77
半个女码农
别人说你不行,你就真的不行。。。。吗
展开
-
《Pytorch新手入门》第二节-动手搭建神经网络
使用Pytorch深度学习框架从0到1动手搭建LeNet实现CIFAR-10图像分类原创 2023-11-02 11:29:16 · 1201 阅读 · 1 评论 -
《Pytorch新手入门》第一节-认识Tensor
重新系统学一遍Pytorch,查漏补缺,参考书籍《深度学习框架Pytorch:入门与实践》原创 2023-11-01 09:59:51 · 336 阅读 · 0 评论 -
解决Opencv dnn模块无法使用onnx模型的问题(将onnx的动态输入改成静态)
最近做人脸识别项目,想只用OpenCV自带的人脸检测和识别模块实现,使用OpenCV传统方法:Haar级联分类器人脸检测+LBPH算法人脸识别的教程已经有了,于是想着用OpenCV中的dnn模块来实现,dnn实现人脸检测也有(详细教程可见我的这篇博客https://blog.csdn.net/weixin_42149550/article/details/131474284),问题就是基于cnn的人脸识别咋用opencv的dnn模块实现?一番搜索,发现OpenCV的dnn模块在加载YuNet模型时会报错。原创 2023-10-10 21:38:08 · 5916 阅读 · 5 评论 -
pytorch训练模型时,因为broadcast机制踩的坑:loss无法收敛
在训练一个非常简单的拟合曲线的模型时,遇到下面的报错:C:/Users/user/Desktop/test/test.py:58: UserWarning: Using a target size (torch.Size([30000])) that is different to the input size (torch.Size([30000, 1])). This will likely lead to incorrect results due to broadcasting. Please原创 2021-05-28 20:38:59 · 2222 阅读 · 3 评论 -
pytorch中的model.named_parameters()与model.parameters()
参考链接:https://www.cnblogs.com/yqpy/p/12585331.htmlmodel.named_parameters()迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param。for name, param in net.named_parameters(): print(name,param.requires_grad) param.requires_grad = False输出结果为conv_1_原创 2021-05-21 17:14:15 · 12143 阅读 · 1 评论 -
darknet 框架中YOLO权重文件的种类及存储结构
darknet 框架下的YOLO权重文件种类及存储结构参考链接:darknet 框架中YOLO权重文件的种类及存储结构https://www.codenong.com/cs106583770/ Darknet模型与Tensorflow模型相互转换https://blog.csdn.net/weixin_42754237/article/details/87534092目录darknet 框架下的YOLO权重文件种类及存储结构权重文件类型第一类:后缀“.weight”和“.b...原创 2021-05-21 11:34:03 · 1218 阅读 · 1 评论 -
UBuntu安装Anaconda3后创建虚拟环境后无法使用activate命令激活环境(解决)
在我看的教程里创建虚拟环境的命令都是:conda create –n [虚拟环境名] python=[版本号] numpy scipy matplotlib jupyter[软件包]但是没办法创建,虽然不知道为什么,于是换成了下面的命令:conda create --p tensorflow python=3.8 anaconda后面加上anaconda会自动将常用的包下载好,不用一个一个指定,--p和--prefix等同,这时创建的环境和原环境在同一目录下可以在--p后面加上=原创 2020-12-08 15:09:43 · 3306 阅读 · 1 评论 -
Ubuntu16.04成功安装Nvidia驱动(解决禁用默认第三方驱动Nouveau后无法进入系统的问题)
在Ubuntu系统里安装Nvidia驱动,刚开始在网上找了教程,基本过程都是这样的:#1. ubuntu 16.04默认安装了第三方开源的驱动程序nouveau,安装nvidia显卡驱动首先需要禁用nouveau,不然会碰到冲突的问题,导致无法安装nvidia显卡驱动。#编辑文件blacklist.confsudo vim /etc/modprobe.d/blacklist.conf#若未安装vim则sudo apt-get install vim安装或使用vi#在文件最后部分插入以下原创 2020-12-07 22:26:56 · 5855 阅读 · 2 评论 -
为什么使用非线性激活函数?常见的非线性激活函数及优缺点对比
为何使用非线性激活函数? 如上图的神经网络,在正向传播过程中,若使用线性激活函数(恒等激励函数),即令,则隐藏层的输出为即可以看到使用线性激活函数神经网络只是把输入线性组合再输出,所以当有很多隐藏层时,在隐藏层使用线性激活函数的训练效果和不使用影藏层即标准的Logistic回归是一样的。故我们要在隐藏层使用非线性激活函数而非线性的。通常只有一个地方...原创 2019-12-12 20:27:17 · 3782 阅读 · 0 评论 -
经典网络论文讲解链接(持续更新~~)
ResNethttps://blog.csdn.net/weixin_43624538/article/details/85049699CNNhttps://my.oschina.net/u/876354/blog/1634322YoloV2https://blog.csdn.net/shanlepu6038/article/details/84778770https://...原创 2019-10-24 21:09:45 · 262 阅读 · 0 评论 -
吴恩达深度学习第二门课第一周总结
吴恩达深度学习第二门课第一周总结一、梯度消失/爆炸及解决办法二、正则化方法先上目录:从目录可以看到第一周主要解决了两个问题:过拟合,预防梯度消失/梯度爆炸。现在分别来讨论并进行代码实现。一、梯度消失/爆炸及解决办法在训练神经网络时,有时候会遇到导数或坡度(dW,db)变得特别大或特别小,即我们说的梯度爆炸或梯度消失,结果使得梯度下降算法花费更长的时间甚至训练失败。为了避免产生这种情况,...原创 2019-09-04 22:05:59 · 459 阅读 · 0 评论 -
吴恩达深度学习第一门课学习总结
吴恩达老师深度学习第一门课的核心就是理解前向传播,计算cost,反向传播三个步骤(其实只要静下心来把教程里的公式在草稿纸上推一遍,也不会很难),吴恩达老师主要是通过逻辑回归来讲解这些概念首先是如何处理输入样本,对于一张彩色图片,具有RGB三个通道,在计算机上就是通过三个矩阵来存储通道里的像素值,如上图中dpi的彩图,其像素个数就有,我们需要用一个特征向量x来表示这张图片,特征向量的...原创 2019-08-29 09:36:40 · 401 阅读 · 0 评论 -
吴恩达深度学习第一课第二周作业---解决了原作业由于低版本产生的各种bug(附修改后的完整代码及作业数据集)
C1W2-Logistic Regression with a Neural Network mindset参考文章链接:https://github.com/Kulbear/deep-learning-coursera/blob/master/Neural%20Networks%20and%20Deep%20Learning/Logistic%20Regression%20with%20a%...原创 2019-08-21 09:01:37 · 1652 阅读 · 2 评论