深度学习
文章平均质量分 69
锦鲤AI幸运
---2016年---,初来乍到,冲鸭~~~~~
---2020年---,第一次记录博客,好活当赏O(∩_∩)O哈哈~
展开
-
如何调整一个不收敛的神经网络模型--经验之谈
调整一个不收敛的神经网络是深度学习中常见的问题。原创 2023-09-25 15:06:23 · 361 阅读 · 0 评论 -
梯度下降算法手推简单实例----10分钟看完秒懂系列,附上代码更清晰易懂
梯度下降算法,手推梯度下降算法,线性回归,正向传播,反向传播原创 2022-09-26 16:10:06 · 2707 阅读 · 5 评论 -
解决 error: (-215:Assertion failed) _src.empty() in function ‘cv::cvtColor‘
解决 error: (-215:Assertion failed) _src.empty() in function 'cv::cvtColor'cv2.error: OpenCV(4.5.5) D:\a\opencv-python\opencv-python\opencv\modules\imgproc\src\color.cpp:182: error: (-215:Assertion failed) !_src.empty() in function 'cv::cvtColor'原创 2022-05-13 17:50:51 · 10167 阅读 · 4 评论 -
解决tensorflow.python.framework.errors_impl.NotFoundError: Could not find valid device for node.
tensorflow.python.framework.errors_impl.NotFoundError: Could not find valid device for node.Node:{{node Minimum}}All kernels registered for op Minimum : device='CPU'; T in [DT_FLOAT] device='CPU'; T in [DT_HALF] device='CPU'; T in [DT_B原创 2022-05-12 15:53:45 · 4333 阅读 · 0 评论 -
服务器与本机上使用anaconda安装CUDA与cudnn方法
服务器与本机上使用anaconda安装CUDA与cudnn方法, 所有CUDA与cudnn的版本对应。原创 2022-05-05 13:18:12 · 2817 阅读 · 2 评论 -
ValueError: DistributedDataParallel device_ids and output_device arguments only work ...单机多卡训练解决
ValueError: DistributedDataParallel device_ids and output_device arguments only work with single-device/multiple-device GPU modules or CPU modules, but got device_ids [1], output_device 1, and module parameters {device(type='cpu')原创 2022-03-24 15:25:35 · 7154 阅读 · 0 评论 -
cuda官网下载,本机显卡驱动与cuda、cudnn、pytorch、torchvision安装版本对应表,以及完全卸载CUDA方法
第一 : 根据本机NVIDIA显卡 Driver Version找到适合本机的CUDA首先Win+R,输入powershell,然后输入nvidia-smi指令既可查看本机Driver Version。也可以用其他方法查看本机的驱动版本,然后对应这下图下载所需要的CUDA版本防止时效性不能及时更新本文,点我进入本机与需要下载CUDA版本选择的官网第二步 : CUDA与cuDNN版本对应防止时效性不能及时更新本文,点我进入CUDA与cuDNN的版本对应官网第三步 : 根据CUDA选择原创 2021-10-05 19:46:05 · 5449 阅读 · 0 评论 -
ERROR: Failed building wheel for pycocotools,解决pip导入pycocotools报错,无需下载Microsoft Visual C++
解决:ERROR: Command errored out with exit status 1:creating build\lib.win-amd64-3.8creating build\lib.win-amd64-3.8\pycocotoolscopying pycocotools\coco.py -> build\lib.win-amd64-3.8\pycocotoolscopying pycocotools\cocoeval.py -> build\lib.win-amd6.原创 2021-10-05 16:18:52 · 9501 阅读 · 18 评论 -
导入pytorch时间太长且超时,解决办法
深度学习pytorch一般都会要你到这个网站下载,点我进入网址,无论是anaconda导入pytorch-gpu版本还是pip指令。这时就会遇见一个问题,因为torch是很大的大约2.5–3G,这时候在官方下载就会很慢,就有人去换国内镜像源下载,但是这个指令后面是: -f https://download.pytorch.org/whl/torch_stable.html,指定了网址。下载就会特别慢而且还会报超时错误就得重新下,非常的影响心情和浪费时间。pip3 install torch==1.9.原创 2021-09-23 16:37:46 · 2063 阅读 · 0 评论 -
SimpleDataSet转为LMDB数据格式,txt转LMDB数据集格式
训练深度学习时,遇见所需要的数据集格式时LMDBDataSet 比较常见的好用的标注用于训练OCR模型的数据标注工具不多,很少有标注出来就是LMDB格式的。比如半自动标注工具PPOCRLabel。输出来的格式就是如下txt文件(训练集路径, 所对应的标签)这样的格式就是SimpleDataSet。只要做到这一步,后续转为LMDB就简单一些了。项目结构如下:代码如下import lmdbimport cv2import numpy as npimport osOUT原创 2021-09-22 11:23:57 · 1831 阅读 · 9 评论 -
自组网训练生成模型并推理模型完整流程,代码展示LeNet -> AlexNet -> VGGNet -> InceptionNet -> ResNet优化过程
项目简介本项目基于20种蝴蝶分类基础上做一个深入浅出的代码理解,及其对数据预处理,自定义数据读取器Reader(Dataset),及其输出final.pdparams,final.pdopt模型,利用20分类的蝴蝶数据集,自组网,输入网络结构,训练出模型并保存。观察从LeNet -> AlexNet -> VGGNet -> InceptionNet -> ResNet优化过程,以及用自己的组的网输出的模型进行推理与部署到手机端,实现飞桨框架深度学习模型的落地。模型训练:LeN原创 2021-07-24 20:59:22 · 1264 阅读 · 0 评论 -
多行人追踪至落地部署项目,Deepsort、JDE、Fair-MOT三种算法简介及其核心卡尔曼滤波器与匈牙利算法简介
项目简介本项目基于单镜头多行人追踪模型实现对行人的追踪。该项目使用PaddleDetection快速训练分类模型,然后通过PaddleLite部署到安卓手机上,实现飞桨框架深度学习模型的落地。模型训练:Fair-MOT、JDE、Deep sort三种由PaddleDetection2.1提供的模型模型转换:Paddle-LiteAndroid开发环境:Android Studio on Ubuntu 18.04 64-bit移动端设备:安卓9.0以上的手机设备关于本项目本项目基于单镜头多原创 2021-07-24 20:40:35 · 3194 阅读 · 9 评论 -
将文件夹的所有图片路径用pandas写入txt内,可排序
import pandas as pdimport osdef getfile(photo_path): filelist = os.listdir(photo_path) num_jpg = len(filelist) print("该文件夹下一共有{}张".format(num_jpg)) #--------------排序------------- allTestDataName = [] #不需要排序可以注释 for filename in原创 2021-05-31 10:27:14 · 124 阅读 · 0 评论 -
中国软件杯---基于百度飞桨的单/多镜头行人追踪Baseline,deepsort实现行人追踪
项目简介本项目基于2021年的“中国软件杯针”的《单/多镜头行人追踪模型》赛题做的一个非官方的baseline。该项目使用PaddleDetection快速训练分类模型,然后通过PaddleLite部署到安卓手机上,实现飞桨框架深度学习模型的落地。模型训练:PaddleDetection,PPYolo的backbone使用MobileNetV3_large和YOLOv3Head模型转换:Paddle-LiteAndroid开发环境:Android Studio on Ubuntu 18.04 64原创 2021-05-09 20:49:21 · 1625 阅读 · 2 评论 -
树莓派重启WiFi、创建超级管理员、安装Vim编辑器、中文拼音输入法等常用命令与复制粘贴快捷方式
树莓派常用命令重启网络: sudo service networking restart设置管理员密码: sudo passwd root普通用户下输入安装Vim: sudo apt-get install vim-gtk安装中文拼音输入法: sudo apt-get install fcitx fcitx-googlepinyin fcitx-module-cloudpinyin fcitx-sunpinyin显示cpu信息: lscpu &原创 2021-04-02 14:09:32 · 632 阅读 · 0 评论 -
初学图像处理——百度笔记
1.感知机神经网络与LeNet卷积神经网络 我们要用计算机模仿神经网络连接关系,让计算机具备感性思维。 首先,需要准备数据,数据量越大越好,要构成特征和标签对。如要识别猫, 就要有大量猫的图片和这个图片是猫的标签,构成特征标签对。 随后,搭建神经网络的网络结构,并通过反向传播,优化连线的权重,直到模型的识别准确率达到要求,得到最优的连线权重,把这个模型保存起来。 最后,用保存的模型,输入从未见过的新数据,它会通过前向传播,输出概率值,概率值最大的一个,就是分类或预测的结果。图 2.1 展原创 2021-03-08 10:25:29 · 147 阅读 · 0 评论 -
Anaconda无法导入 from PIL import Image
使用清华的镜像,输入指令:pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pillow 假如没有清华的镜像配置,可以直接点击这里复制即可,内部有详细步骤~原创 2020-12-04 12:03:08 · 505 阅读 · 0 评论 -
Anaconda无法成功添加新的环境且无法导入TensorFlow的问题解决方法
问题一:很多初学者在下载完Anaconda会出现CondaHTTPError: HTTP 000 CONNECTION FAILED for url这个错误,解决这个错误的方法如下: 选择open Terminal,打开命令行(参考下图)执行命令:(注意我这里是64位操作系统,根据自己系统而定)conda config --add channels http://mirrors.tuna.tsinghua.edu.cn/anaconda/pkgs/main/win-64原创 2020-12-02 16:51:10 · 908 阅读 · 0 评论 -
优化器 简述公式及其如何选择
优化器 神经网络参数优化器 待优化参数w,损失函数loss,学习率lr,每次迭代一个batch,t表示当前batch迭代的总次数! 1.计算时刻损失函数关于当前参数的梯度:~ 2.计算t时刻一阶动量mt和二阶动量Vt 3.计算时刻下降梯度:~ 4.计算t+1时刻参数:一阶动量:与梯度相关的函数二阶动量:与梯度平方相关的函数~优化器演化流程: SGD -> SGDM -> NAG ->AdaGrad -> RMS原创 2020-11-07 15:32:08 · 756 阅读 · 0 评论 -
感知机——鸢尾花 包含代码
1 人工智能三学派我们常说的人工智能,就是让机器具备人的思维和意识。人工智能主要有三个学派,即行为主义、符号主义和连接主义。行为主义:是基于控制论的,是在构建感知、动作的控制系统。单脚站立是行为主义一个典型例子,通过感知要摔倒的方向,控制两只手的动作,保持身体的平衡。这就构建了一个感知、动作的控制系统,是典型的行为主义。符号主义:基于算数逻辑表达式。即在求解问题时,先把问题描述为表达式,再求解表达式。例如在求解某个问题时,利用 if case 等条件语句和若干计算公式描述出来,即使用了符号主义的方法,原创 2020-11-06 14:51:32 · 1208 阅读 · 3 评论 -
Batch简介
Batch在某课程deep Learning中,提出过选择2的次幂可以加快二进制的计算,但没说具体的原因。2的次幂只有在做乘除运算的时候,比较快。好比10进制乘除,最简单的是什么?x10和/10吧。只要移动小数点或者加减尾数的0即可。二进制也一样,x2 /2就是移位。但是这个并不意味着batch size必须是2次幂。Batch Normalization 批标准归一化BN的基本思想其实相当直观:因为深层神经网络在做非线性变换前的激活输入值,随着网络深度加深或者在训练过程中,其分布逐渐发生偏移或者变原创 2020-11-06 13:24:33 · 859 阅读 · 0 评论