![](https://img-blog.csdnimg.cn/20201014180756918.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
ydestspring
这个作者很懒,什么都没留下…
展开
-
mmdet框架理解
mmdet框架顶层简易理解。原创 2023-02-16 09:55:09 · 733 阅读 · 0 评论 -
map理解
map总结概要原创 2022-09-15 15:46:30 · 154 阅读 · 0 评论 -
mmdet训练中数据集导入
mmdet训练中数据集导入原创 2022-08-26 17:27:26 · 654 阅读 · 0 评论 -
mmdet新建个人数据集
mmdet新建sixray数据集原创 2022-08-25 16:36:15 · 768 阅读 · 0 评论 -
numpy数组和图片
cv2.imread读取进来的图片为numpy类型数组,数组中的数据类型为np.uint8类型在tensorflow中,计算时的数据变量通常为np.float32类型注意数据类型转换,若cv2.imshow的数组为float32类型,图像就会基本全白data_val = np.zeros([l_val, IMG_HEIGHT, IMG_WIDTH, IMG_DEPTH], dtype='float32')data_val = data_val.astype(np.uint8)数组中数据类原创 2021-03-24 14:25:12 · 223 阅读 · 0 评论 -
numpy常用操作记录
1.数组维度import tensorflow as tfimport numpy as npa = np.arange(36)print (a)b = np.reshape(a,[2,2,3,3])print (b)print('b[0,0,0,0]:',b[0,0,0,0])print('b[0,0,0,:]:',b[0,0,0,:])print('b[0,0,:,0]:',b[0,0,:,0])print('b[0,:,0,0]:',b[0,:,0,0])print('b[原创 2021-03-11 11:23:50 · 81 阅读 · 0 评论 -
Faster-rcnn代码python2转换python3的KeyError: b‘TEST‘问题
一直用的一个faster-rcnn代码是python2的,决定把它改为python3。很多报错都是print函数,xrange函数,较好解决。解决到最后被一个报错,卡了一天,在网上也无法找到解决方案,记录一下:报错如下:Caused by op 'PyFunc', defined at: File "/home/q/yd/Faster-RCNN-21/tools/demo.py", line 118, in <module> net = get_network(arg...原创 2020-09-23 15:45:12 · 421 阅读 · 0 评论 -
python环境管理
不论linux、windows,用conda实现环境管理为最优策略。安装conda后,conda list可查看现有环境初始只有一个可以按需创造多个环境,新建环境在conda的env目录下新环境需要添加包,conda install可添加,但通常conda install里的包会少这时,最优策略是,在该环境下安装一个pip在该环境下执行pip install ,便可以用pip来安装包如果多个pip很混乱,可以直接用路径指明具体是哪一个pip,这样就不会混乱无论conda,还是原创 2020-08-09 17:29:58 · 130 阅读 · 0 评论 -
python深度学习环境配置扫盲
ubuntu系统下,基于gpu和python做深度学习,需要安装的内容及作用:1.显卡驱动:调用显卡的基础,安装成功后,可以调用nvidia-smi指令,查看显卡驱动版本2.cuda和cudnn:nvidia为显卡加速计算提供的库,cuda和显卡驱动是有对应关系的为了便于多个不同代码的调试,我们可能需要多个版本的cuda,只要将多个cuda都解压到/usr/local目录即可,具体使用哪个,可以通过用户的环境变量配置,使不同的文件夹(用户/环境)使用不同的cuda版本。用户环境变量修原创 2020-06-17 18:01:48 · 434 阅读 · 0 评论 -
网络剪枝
1.全连接层剪枝2.卷积核剪枝卷积核剪枝的学习可参考这篇论文《Pruning Filters For Efficient ConvNets》解决如下问题:前人工作只对全连接层进行了剪枝,未处理卷积层解决思路:对卷积核计算所有项的绝对值和,剪除绝对值和小的。结论:在CIFAR10上,VGG-16的推理成本可降低高达34%,ResNet-110最高可降低38%,同时通过重新训练网络恢复接近原始精度。具体结果对比如下:...原创 2020-06-05 11:31:17 · 1057 阅读 · 0 评论 -
Faster-RCNN基于tensorflow的训练理解
深度学习的训练的理论是梯度下降,这个理论推导很复杂。发展历程中,起源是hinton于1986年提出的BP算法,后续在卷积神经网络和激活函数变为ReLU函数后,梯度下降的算法又有所变化。对梯度下降训练深度网络的理论的学习,重点关注hinton的论文《Learning internal representations by error propagation》。深度学习中,各个框架的使用,如tf,pytorch等,很重要的一点,就是解决了训练问题。训练的本质是,另损失函数,对各个待训练参数求偏导,寻找梯度下原创 2020-05-29 18:29:14 · 345 阅读 · 0 评论 -
keras例程学习与神经网络理解(一)
keras的example文件夹中有很多例程,学习mnist_mlp.py例程该例程实现功能为,从mnist数据集获取60000个训练样本和10000个测试样本,样本为0-9十个数字,用全连接神经网络进行训练,并测试结果。例程采用60000个数据样本进行训练,对于一般的电脑来说,这样训练会比较费时间,学习测试较慢所以,可以加入以下几行代码:# mnist has 60000 datas,down ...原创 2018-03-19 17:15:39 · 2373 阅读 · 4 评论