深度学习
sunshinefcx
主要从事单片机开发、机器人、SLAM、计算机视觉等方向
展开
-
TensorFlow中关于pad函数的详细理解
主要参照 下面的这个博客https://blog.csdn.net/u011012422/article/details/77948084转载 2019-01-03 20:26:48 · 314 阅读 · 0 评论 -
PyTorch 加载&使用预训练模型
学习啦这篇文章,写的还是很全面滴https://zhuanlan.zhihu.com/p/25980324转载 2019-01-15 10:56:43 · 6234 阅读 · 0 评论 -
Pytorch使用tensorboardX可视化
Pytorch使用tensorboardX可视化,学习了下面这个博客https://www.jianshu.com/p/46eb3004beca 需要注意的是 如果你在谷歌浏览器上打不开的时候,可以使用 火狐浏览器,在火狐上一般都可以打开...转载 2019-01-14 17:17:18 · 377 阅读 · 0 评论 -
21个项目玩转深度学习:基于TensorFlow的实践详解06—人脸检测和识别——MTCNN人脸检测
https://www.cnblogs.com/helloworld0604/p/9831725.html模型是怎么训练的https://www.cnblogs.com/helloworld0604/p/9808795.html转载 2019-01-03 14:46:18 · 315 阅读 · 0 评论 -
ResNet 理解
最近在研究FCRN,里面用到了 ResNet-50 的结构,因此学习了一个残差网络,主要学习了下面这篇文章,总结的挺全面的https://blog.csdn.net/lanran2/article/details/79057994 下面是几种结构的对比: ...转载 2019-01-06 23:05:51 · 241 阅读 · 0 评论 -
PIL(Python Image Library)中 resize的参数
在PIL库中可以实现图形的缩放,但是 如果使用下面的写法的话,会造成部分的信息丢失 img = img.resize((width, height))但是涅,在PIL中 带ANTIALIAS滤镜缩放结果,程序如下:img = img.resize((width, height),Image.ANTIALIAS)这样的话就不会有信息丢失啦 ...原创 2019-01-02 16:33:56 · 7852 阅读 · 2 评论 -
python 中的装饰器理解(转载)
主要看了下面这位大佬写的,对python的装饰器有了理解https://blog.csdn.net/xiangxianghehe/article/details/77170585下面这篇也很有参考价值,做了更加详细的解释https://blog.csdn.net/u010358168/article/details/77773199 万能修饰器:def w_test(fu...转载 2019-01-06 15:58:02 · 107 阅读 · 0 评论 -
tensorflow中卷积神经网络中 步长stride的定义
在tensorflow中,卷积神经网络的使用方法如下:tf.nn.conv2d(input, filter, striders, padding, use_cudnn_on_gpu=None, name=None)其中,步长stride是一个一维的向量,长度为4。形式是[a,x,y,z],分别代表[batch滑动步长,水平滑动步长,垂直滑动步长,通道滑动步长] 在tensorf...原创 2019-01-01 14:36:53 · 4955 阅读 · 0 评论 -
tensorflow中的 张量(tensor)与节点操作(OP)
#所以需要注意的是 张量 不是 节点操作(OP)#tensor1 = tf.matmul(a,b,name='exampleop') #上面这个 定义的只是一个张量,是在一个静态的图(graph)中的#张量在 定义完成之后是不会进行操作的,想要进行操作就必须使用 节点操作 也就是OP来运行,才能计算出ab矩阵的乘积 #OP其实是在描述 张量 中的运算关系可以参...原创 2018-12-30 17:31:49 · 3459 阅读 · 1 评论 -
feed机制、fetch机制
两种数据的流向机制:feed机制:注入机制--通过占位符想模型传入数据fetch机制:取回机制--从模型中得到结果 feed机制举例如下:feed只在调用它的方法内有效,方法结束后feed就会消失import tensorflow as tf#feed机制a = tf.placeholder(tf.int16)b = tf.placeholder(tf.int1...原创 2018-12-29 21:40:49 · 603 阅读 · 0 评论 -
tensorflow中的session(会话)的理解
tensorflow的运行机制属于“定义”与“运行”相分离,tensorflow定义的内容都在“图”这个容器中完成,关于图有几点需要理解的。1、一个“图”代表一个计算任务2、在模型运行的环节中,“图”在会话(session)里被启动3、session将图的节点操作发布到CPU GPU上,同时提供OP的方法 也就是说在tensorflow中定义的时候,其实就只是定义了图,图是静...原创 2018-12-29 21:09:59 · 5329 阅读 · 1 评论 -
手写:逻辑回归拟合二维数据(tensorflow)
tensorflow开发的基本步骤1、定义tensorflow输入节点【3种方法】2、定义学习参数的变量【2种方法】3、定义运算4、选择优化函数,优化目标5、初始化所有变量6、迭代更新参数到最优解7、测试模型8、使用模型下面就挑前几个比较重要的说一下1、定义tensorflow输入节点【3种】 1.1使用 占位符 定义:比较常用,使用 ...原创 2018-12-29 19:11:43 · 808 阅读 · 2 评论 -
神经网络训练loss不下降原因集合
train loss与test loss结果分析train loss 不断下降,test loss不断下降,说明网络仍在学习; train loss 不断下降,test loss趋于不变,说明网络过拟合; train loss 趋于不变,test loss不断下降,说明数据集100%有问题; train loss 趋于不变,test loss趋于不变,说明学习遇到瓶颈,需要减小学习率或批...转载 2019-02-24 17:13:34 · 2184 阅读 · 0 评论