深度学习
文章平均质量分 72
神经网络,迁移学习,移动深度学习,CV、NLP等
Kieven2oo8
机器视觉、深度学习、机器学习研究者
QQ:58822078
邮件联系:kieven04@126.com
展开
-
window10 paddle-gpu环境安装错误
最烦的就是开发环境的配置,经常掉进坑里弄个一两天时间。W0922 10:00:26.824364 14340 device_context.cc:404] Please NOTE: device: 0, GPU Compute Capability: 7.5, Driver API Version: 11.4, Runtime API Version: 10.2W0922 10:00:26.830348 14340 dynamic_loader.cc:238] Note: [Recommend] co原创 2021-09-22 10:54:14 · 8370 阅读 · 10 评论 -
RuntimeError: CUDA out of memory. Tried to allocate 3.47GiB (GPU 0; 8 GiB total capacity;
使用Pytorch训练模型出现RuntimeError: CUDA out of memoryTried to allocate 3.47GiB (GPU 0; 8 GiB total capacity; ....训练: 由于GPU显存资源有限,训练输入的batchsize不能过大,过大会导致out of memory错误。方案一: 将batch_size减小 显卡RTX2080,8G内存,发现将batch_size从16--->8-->...原创 2021-03-19 05:39:55 · 3258 阅读 · 7 评论 -
分类评价指标mAP、ROC、AUC
一、mAP1.1 mAP是一个用来量度物体检测(如Faster R-CNN, SSD,Yolo等)精度时的一个重要性能度量标准。mAP is the metric to measure the accuracy of object detectors like Faster R-CNN, SSD, etc.It is the average of the maximum precisions at different recall values.若一个待检测的物体为狗,我们将被正确...原创 2021-03-14 23:37:41 · 1043 阅读 · 0 评论 -
移动深度学习的几个问题
移动深度学习的几个问题 本文主要概括了在移动端深度学习与服务端深度学习的几个重要差异。一、在移动端和服务器应用深度学习的难点对比 对比点 服务器端 移动端 内存 内存较大,一般不构成限制 内存有限 耗电量 不构成限制 移动设备的耗电量是一个很重要的限制因素 依赖库体积 不构成限.原创 2020-05-18 05:54:09 · 346 阅读 · 0 评论 -
图像分类----思维导图
计算机视觉的深度学习实践,发现知识点太多了,决定后面所有的学习采用思维导图的形式整理下来。第六课 《图像分类》原创 2018-08-12 16:56:39 · 2003 阅读 · 0 评论 -
使用RecordIO创建数据集
RecordIO是一种顺序记录文件. MXNET推荐将图像文件打包在一起,并将图片存储为记录.其优势是包括:Storing images in a compact format--e.g., JPEG, for records--greatly reduces the size of the dataset on the disk. Packing data together allows...原创 2019-11-15 06:47:17 · 1293 阅读 · 0 评论 -
MXNET
mxnet同时支持Imperative Programming及Symbolic Programming一、为什么mxnet不像其它深度学习框架那样使用numpy的多维数据,而使用mxnet.NDArray多维数据?答: 其它深度学习库只有在执行symblic符号函数时,才会使用到GPU计算,而mxnet.NDArray可以在命令式编程中指定任意的计算设备。二、符号s...原创 2019-11-14 22:53:56 · 145 阅读 · 0 评论 -
AlexNet模型及迁移学习
一、CNN卷积神经网络结构的演化 二、AlexNet 网络结构三、AlexNet迁移学习 迁移学习可以把为一个任务开发的模型重新用在另一个不同的任务中,作为另一个任务模型的起点,并节约训练神经网络需要的大量计算和时间资源。 例如采用在计算机视觉挑战赛通过ImageNet数据(源数据)集训练出来的AlexNet 模型迁移应用到另一个新的数据集(目标数据集)重新进...原创 2018-08-12 17:28:44 · 6444 阅读 · 2 评论 -
池化层的反向传播及全连接层(等效1*1卷积)
一、池化层没有需要学习的参数 池化层一般对应在卷积层的后面,属于一对一的关系(它只影响当前深度的一个节点),不与其它卷积核做连接,所以没有权重参数需要学习。所以反向传播的时候,只需对输入参数求导,不需要进行权值更新。 图1二、池化层的反向计算在池化层进行反向传播时,max-poo...原创 2018-08-12 11:01:52 · 4050 阅读 · 0 评论