自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+

Adrianna的专栏

Stay hungry, stay foolish.

  • 博客(7)
  • 资源 (8)
  • 收藏
  • 关注

原创 tensorflow 报错 libcusolver.so.8.0: cannot open shared object file: No such file or directory

检查LD_LIBRARY_PATHecho $LD_LIBRARY_PATH/usr/local/cuda-8.0/lib64发现libcusolver.so.8.0是在cuda-8.0/lib64目录的。执行以下命令解决问题:sudo ldconfig /usr/local/cuda-8.0/lib64 Reference: https://stackoverflow.com/qu

2017-11-30 13:46:04 9584

原创 tensorflow 报错 InternalError: Blas SGEMM launch failed

报错的原因是有其他的python进程在使用GPU,可以把其他进程关掉,或者在代码中加入:if 'session' in locals() and session is not None: print('Close interactive session') session.close() Reference: https://stackoverflow.com/questi

2017-11-17 14:47:30 15557

原创 【deeplearning.ai笔记第二课】2.4 batch normalization

1. batch normalization介绍批标准化(batch normalization) 是优化深度神经网络中最激动人心的最新创新之一。实际上它并不是一个优化算法,而是一个自适应的重参数化的方法,试图解决训练非常深的模型的困难。说的通俗点,实际上就是BN就是在对每一个隐藏层的输出ZiZ^i做标准化。非常深的模型会涉及多个函数或层组合。这使得我们很难选择一个合适的学习率,因为某一层中参数更

2017-11-16 18:02:16 533

原创 【tensorflow 学习】tf.get_variable()和tf.Variable()的区别

1. tf.Variable()W = tf.Variable(<initial-value>, name=<optional-name>)用于生成一个初始值为initial-value的变量。必须指定初始化值2.tf.get_variable() W = tf.get_variable(name, shape=None, dtype=tf.float32, initializer=None,

2017-11-14 19:54:55 38460 7

原创 【deeplearning.ai笔记第二课】2.3 学习率衰减(learning rate decay),局部极小值和鞍点

1. 学习率衰减(learning rate decay) 在训练模型的时候,通常会遇到这种情况:我们平衡模型的训练速度和损失(loss)后选择了相对合适的学习率(learning rate),但是训练集的损失下降到一定的程度后就不在下降了,比如training loss一直在0.7和0.9之间来回震荡,不能进一步下降。如下图所示:遇到这种情况通常可以通过适当降低学习率(learning rate)

2017-11-03 14:55:57 1712

原创 【deeplearning.ai笔记第二课】2.2 优化算法(动量梯度下降,RMSprop,adam)

先上总结:1. 指数加权平均是一种 减少数据波动的方法。简单来说就是每个点的值都是前几个点和当前点的加权平均。公式如下: beta的值越大,数据越平稳。但是beta的值过大会使数据有一种“滞后”的感觉,如图中的绿线。1.1 理解为什么叫“指数”加权平均呢?因为根据公式,我们可以推导出以下的式子:也就是说,当前点V100V_{100} 的值可以由前99个点的加权值得到,而权重是个指数函数。1.2 平

2017-11-03 10:27:56 12702

原创 【deeplearning.ai笔记第二课】2.1 随机梯度下降,批量梯度下降和小批量梯度下降

批量梯度下降 (batch gradient descent) 每次梯度更新时,计算所有m个样本的梯度做梯度下降 小批量梯度下降 (mini-batch gradient descent) 每次梯度更新,计算n(n<m)(n<m)个样本的梯度做梯度下降 随机梯度下降(stochastic gradient descent) 每次梯度更新,计算1个样本的梯度做梯度下降 大多数用于深度

2017-11-02 21:51:51 1599

用pytorch实现基于迁移学习的图像分类

用pytorch实现基于迁移学习的图像分类代码,并在猫狗数据集上进行训练和预测。 教程见 https://adrianna.blog.csdn.net/article/details/105126368 数据集下载地址:https://www.kaggle.com/tongpython/cat-and-dog/data

2020-03-26

Tensorflow实现GAN生成mnist手写数字图片

Tensorflow实现GAN生成mnist手写数字图片。 教程见:https://blog.csdn.net/u012223913/article/details/75051516

2018-06-29

Effective python 中英文 pdf

内涵中文版,英文版两个文档, 整理自网络。 Google高级软件工程师Brett Slatkin融合自己多年Python开发实战经验,深入探讨编写高质量Python代码的技巧、禁忌和最佳实践。 涵盖Python3.x和Python2.x主要应用领域,汇聚59条优秀实践原则、开发技巧和便捷方案,包含大量实用范例代码。

2018-06-06

arduino控制180度舵机和360度舵机

arduino控制180度舵机和360度舵机。 有两个文件如下: 180servo.ino: 控制180度舵机转动角度 servo_iff.ino: 控制360度舵机和180度舵机。比较相同代码在两种舵机上的不同表现。

2018-03-15

深度卷积神经网络CNN的Theano实现(lenet)

深度卷积神经网络CNN的Theano实现(lenet),还包括一个单独的卷积层网络

2017-05-11

lenet5 的theano实现

lenet5 的theano实现

2017-05-11

C++标准程序库—自修教程与参考手册(第一版)例程

C++标准程序库—自修教程与参考手册(第一版)例程

2016-07-25

离散数学及其应用_英文第六版 奇偶数题答案全

离散数学及其应用英文第六版答案全,方便学习

2015-10-12

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除