![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Deep Learning
文章平均质量分 85
Nicola-Zhang
0
展开
-
西瓜书课后答案汇总
西瓜书电子版课后答案汇总:https://blog.csdn.net/icefire_tyh/article/details/52064910?utm_source=app转载 2020-06-03 14:54:42 · 11208 阅读 · 1 评论 -
深度学习之(一):训练集,验证集,测试集
ML基础 : 训练集,验证集,测试集关系及划分 Relation and Devision among training set, validation set and testing sethttps://www.cnblogs.com/jokerjason/p/9397253.html转载 2019-04-19 17:37:44 · 2461 阅读 · 0 评论 -
深度学习之(七):Batch Normalization批标准化
深入理解Batch Normalization批标准化(BN算法)https://www.cnblogs.com/guoyaohua/p/8724433.html注意:此问题对应于cs231n assignment2转载 2019-04-29 21:55:24 · 153 阅读 · 0 评论 -
深度学习之(六):Mini-batch 梯度下降
为什么需要 Mini-batch 梯度下降,及 TensorFlow 应用举例https://www.imooc.com/article/details/id/48566转载 2019-04-29 22:02:25 · 1094 阅读 · 0 评论 -
深度学习之(五):附1-梯度消失问题与如何选择激活函数
梯度消失问题与如何选择激活函数描述了梯度消失的原理与激活函数对应作用https://www.imooc.com/article/44259转载 2019-04-29 23:05:28 · 108 阅读 · 0 评论 -
深度学习之(二):附1-激活函数含义解释
关于激活函数,首先要搞清楚的问题是,激活函数是什么,有什么用?不用激活函数可不可以?答案是不可以。激活函数的主要作用是提供网络的非线性建模能力。如果没有激活函数,那么该网络仅能够表达线性映射,此时即便有再多的隐藏层,其整个网络跟单层神经网络也是等价的。因此也可以认为,只有加入了激活函数之后,深度神经网络才具备了分层的非线性映射学习能力。那么激活函数应该具有什么样的性质呢?可微性: 当优化方法...转载 2019-04-29 23:23:28 · 224 阅读 · 0 评论 -
深度学习之(四):附1-Momentum算法详解
Momentum算法详解https://www.cnblogs.com/jiaxblog/p/9695042.html转载 2019-04-30 10:22:56 · 1251 阅读 · 0 评论 -
深度学习之(三):附1-神经元基本概念权重weights和偏移bias解释
转载 2019-04-25 15:06:08 · 2941 阅读 · 0 评论 -
深度学习之(十一):编码-one-hot
原文链接:https://blog.csdn.net/pipisorry/article/details/61193868原创 2019-05-05 22:40:22 · 725 阅读 · 0 评论 -
深度学习:Bagging 和 Boosting算法
改日补充:现有参考博客:https://www.cnblogs.com/earendil/p/8872001.html原创 2019-04-30 16:28:25 · 1071 阅读 · 0 评论 -
深度学习之(八):dropout理解
深度学习之(八):dropout理解inverted dropout代码示例,以代码来理解原理if mode == 'train': ########################################################################### # TODO: Implement the training phase forward...原创 2019-04-30 17:47:42 · 357 阅读 · 0 评论 -
深度学习:卷积可视化图像
深度学习中的卷积过程可视化转载 2019-07-16 08:12:21 · 1056 阅读 · 0 评论 -
torch之optimizer.step() 和loss.backward()和scheduler.step()的关系与区别
torch之optimizer.step() 和loss.backward()和scheduler.step()的关系与区别由于接触torch时间不久,所有对此比较困惑,遇到如下博文解释十分详细,故转载至此。(原文地址)因为有人问我optimizer的step为什么不能放在min-batch那个循环之外,还有optimizer.step和loss.backward的区别;那么我想把答案记...转载 2019-07-12 15:32:58 · 23574 阅读 · 3 评论 -
浅谈深度学习:如何计算模型以及中间变量的显存占用大小
如何计算深度学习中显存占用大小转载 2019-08-20 21:09:48 · 396 阅读 · 1 评论 -
深度学习之边框回归(Bounding Box Regression)详解
原文链接:https://blog.csdn.net/zijin0802034/article/details/77685438转载 2019-05-03 17:55:39 · 4714 阅读 · 0 评论 -
deep learning- paper整理
https://blog.csdn.net/chenriwei2/article/details/38064555转载 2019-05-03 17:20:31 · 271 阅读 · 0 评论 -
深度学习之(十):fine-tuning
在实践中,由于数据集不够大,很少有人从头开始训练网络。常见的做法是使用预训练的网络(例如在ImageNet上训练的分类1000类的网络)来重新fine-tuning(也叫微调),或者当做特征提取器。以下是常见的两类迁移学习场景:1 卷积网络当做特征提取器。使用在ImageNet上预训练的网络,去掉最后的全连接层,剩余部分当做特征提取器(例如AlexNet在最后分类器前,是4096维的特征向量)...转载 2019-05-03 16:17:47 · 1386 阅读 · 0 评论 -
【转】convolution(卷积)理解
最容易理解的对卷积(convolution)的解释2017年01月25日 15:14:49 bitcarmanlee 阅读数:128266版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/bitcarmanlee/article/details/54729807啰嗦开场白读本科期间,信号与系统里面经常讲到卷积(convolution),自动控...转载 2019-04-04 11:54:34 · 151 阅读 · 0 评论 -
2017CS231n李飞飞深度视觉识别笔记(转载&原创,转载部分全部以链接形式给出)
2017CS231n李飞飞深度视觉识别笔记(一)——计算机视觉概述和历史背景2018年07月09日 20:26:35 献世online 阅读数:1651更多所属专栏: 机器学习与深度学习版权声明:本文为博主原创文章,未经博主允许不得转载。 https://blog.csdn.net/qq_34611579/article/details/80976671第一章 计算机视觉概述和历史背景课...原创 2019-04-05 09:01:30 · 560 阅读 · 0 评论 -
深度学习之(二)神经网络基础知识
1.人工神经网络基本原理:https://blog.csdn.net/tyhj_sf/article/details/54134210#t12.常用激活函数(激励函数)理解与总结:https://blog.csdn.net/tyhj_sf/article/details/79932893...转载 2019-04-05 23:32:27 · 139 阅读 · 0 评论 -
【转】深度学习:图像检测概述rcnn, fastrcnn, fasterrcnn,yolo,ssd
深度学习:图像检测概述rcnn, fastrcnn, fasterrcnn,yolo,ssdhttps://blog.csdn.net/weixin_41108334/article/details/82897572转载 2019-04-16 23:35:41 · 179 阅读 · 0 评论 -
【转】降维算法之PCA
【转】降维算法之PCAhttp://blog.codinglabs.org/articles/pca-tutorial.html转载 2019-04-26 08:40:14 · 94 阅读 · 0 评论 -
深度学习之(四):梯度下降算法综述
梯度下降综述(译文):https://blog.csdn.net/google19890102/article/details/69942970原文:http://ruder.io/optimizing-gradient-descent/转载 2019-04-26 23:45:44 · 165 阅读 · 0 评论 -
【转】机器学习之(一):SVM
支持向量机SVM :https://blog.csdn.net/v_july_v/article/details/7624837转载 2019-04-27 00:13:11 · 87 阅读 · 0 评论 -
深度学习之(三):附3-DNN损失函数和激活函数选择
深度神经网络(DNN)损失函数和激活函数的选择https://www.cnblogs.com/pinard/p/6437495.html转载 2019-04-27 00:19:52 · 253 阅读 · 0 评论 -
深度学习之(三):附4-DNN正则化
深度神经网络DNN的正则化https://www.cnblogs.com/pinard/p/6472666.html转载 2019-04-27 00:22:06 · 114 阅读 · 0 评论 -
深度学习之(三):附5-softmax等常用函数反向梯度求解
改天补充:原创 2019-04-27 00:42:36 · 205 阅读 · 0 评论 -
深度学习之(九):CNN
改日补齐:原创 2019-05-01 22:13:33 · 194 阅读 · 0 评论 -
深度学习之(三):附2-神经网络中的矩阵梯度求导
神经网络中的矩阵梯度求导https://blog.csdn.net/ppp8300885/article/details/78492166转载 2019-04-23 17:18:07 · 589 阅读 · 0 评论 -
深度学习之(三)DNN模型原理简介
DNN讲解:https://www.cnblogs.com/pinard/p/6418668.html转载 2019-04-19 09:35:38 · 8383 阅读 · 0 评论 -
【转】卷积神经网络
【转】卷积神经网络别怕,"卷积"其实很简单2018年01月17日 13:15:52 刺客五六柒 阅读数:110745更多所属专栏: 机器学习与数据挖掘版权声明:博文千万条,版权第一条。转载不规范,博主两行泪 https://blog.csdn.net/qq_39521554/article/details/79083864相信很多时候,当我们在看到“卷积”时,总是处于一脸懵逼的状态,不但...转载 2019-04-04 10:07:12 · 144 阅读 · 0 评论