- 博客(20)
- 资源 (9)
- 收藏
- 关注
原创 anaconda安装或者卸载工具包时,报错:OSError: [WinError 17] 系统无法将文件移到不同的磁盘驱动器
例如,报错如下:OSError: [WinError 17] 系统无法将文件移到不同的磁盘驱动器。: 'd:\\anaconda3\\scr ipts\\pip.exe' -> 'C:\\Users\\ADMINI~1.WIN\\AppData\\Local\\Temp\\2\\pip-0lozwrz w-uninstall\\anaconda3\\scripts\\pip....
2017-12-26 20:46:18 9579 9
原创 tensorflow报错:AttributeError: module 'tensorflow' has no attribute 'feature_column'
跑tensorflow第一个例子,报错AttributeError: module 'tensorflow' has no attribute 'feature_column' 查了一下,我的版本是1.0.1,这个版本还没加入feature_column module。于是pip install --upgrade tensorflow更新tensorflow。解决问题。
2017-12-26 17:30:44 10583
原创 tensorflow出现一大串 The TensorFlow library wasn't compiled to use SSE instructions, but these are ...
每次跑tensorflow,都会出这样的warning:2017-12-25 20:11:49.485908: W c:\l\work\tensorflow-1.1.0\tensorflow\core\platform\cpu_feature_guard.cc:45] The TensorFlow library wasn't compiled to use SSE instructions, bu
2017-12-25 20:34:15 3546 3
原创 mxnet中,SGD(随机梯度下降)的参数momentum的用处
momentum是mxnet包中SGD(随机梯度下降)优化器的一个参数。它是用来更新SGD优化器权值的。具体如下:rescaled_grad = lr * rescale_grad * clip(grad, clip_gradient) + wd * weightstate = momentum * state + rescaled_gradweight = weight - state 参考
2017-12-22 16:47:15 3067
原创 mxnet设置动态学习率(learning rate)
如果learning rate很大,算法会在局部最优点附近来回跳动,不会收敛; 如果learning rate太小,算法每步的移动距离很短,就会导致算法收敛速度很慢。 所以我们可以先设置一个比较大的学习率,随着迭代次数的增加慢慢降低它。mxnet中有现成的类class,我们可以直接引用。 这里有三种mxnet.lr_scheduler。 第一种是:mxnet.lr_sched
2017-12-22 16:09:07 4958
原创 tensorflow官网进不去,因为它的地址改变了。
以前的网址是https://www.tensorflow.org/,当时得fq才能打开,现在这个我fq都打不开了。 现在新网址是https://tensorflow.google.cn/这个不fq都可以打开了。总体来讲是好事,不fq就能查到资料了。
2017-12-22 10:26:45 17712 4
原创 latex实现伪代码算法(待完善)
1,不要自己去“造车轮子”,利用algorithmic, algorithmicx等宏包要省好多事。 algorithmic和algorithmicx 2,\label是放在\caption后面介绍下algorithmic和algorithmicx,这两个包很像,很多命令都是一样的,只是algorithmic的命令都是大写,algorithmicx的命令都是首字母大写。 下面是algorith
2017-12-21 11:29:22 2188
原创 mxnet的Predict with pre-trained models教程,以及一些常见的问题
问题1:要下载的模型比较大,可以手动去http://data.mxnet.io/models/imagenet-11k/下载,然后把resnet-152-0000.params; resnet-152-symbol.json; synset.txt放到该.py文件所在的文件夹。 问题2:import cv2 .但是有的人没有装这个,参考http://blog.csdn.net/xiaotao_
2017-12-18 19:25:31 1612
原创 编译bib文件,报错repeated entry
出现这个报错,表示重复的条目,说明引用入口重复了。 可以去查查是哪两个重复了,如果内容是一样的,就删掉一个,如果只是引用标志一样,就改其中一个的标志。 启示1:为了避免犯这种错误,以后加bib的时候,要先搜一下是否有这篇文章。 启示2:发现错误,一定要先解决错误,自己要学会看错误日志,不能不去管。
2017-12-18 17:17:17 14790 1
原创 win10,Anaconda(python3.6)安装opencv-python, 以及解决import cv2 失败 ImportError:DLL load fail:找不到指定模块
安装特别容易,在cmd命令窗口里面输入 pip install opencv-python 就行了。 这个时候,导入import cv2 会报错 ImportError:DLL load fail:找不到指定模块 解决办法: 1,在cmd中输入python –version 查明自己的python是32位还是64位。 2,从https://www.python.or
2017-12-18 16:02:36 3036
原创 win10的任务管理器显示所占内存,比实际占用内存小的原因
我们看这个图片,我电脑内存是8g,占用31%,也就是2.5g左右,但是下面的每项加起来只是2.5g的一半。 正确的看真实占用应该在资源监视器里面看。 打开资源监视器的方法:打开任务管理器 –>选择性能 –> 这页的左下角有打开资源监视器选项。 其页面如下: 这里显示的才是实际占用的内存。 解释一下每一列的意思: 提交:要求系统为程序保留这么多内存,如果得不到满
2017-12-16 15:21:20 42370 5
原创 mxnet利用下载好的mnist数据训练cnn
这次我们先把mnist数据集从http://yann.lecun.com/exdb/mnist/下载好了,然后利用mx.io.MNISTIter来包装数据,进而用来训练cnn。 代码如下:import mxnet as mximport osimport logginglogging.getLogger().setLevel(logging.DEBUG)# Training data# l
2017-12-15 10:52:20 1711
原创 mxnet解决AttributeError: module 'mxnet.test_utils' has no attribute 'get_mnist'这个报错
出现 AttributeError: module 'mxnet.test_utils' has no attribute 'get_mnist' 这个报错,主要是因为mxnet版本过低,有两个解决办法。 1,升级mxnet版本。2,不升级版本,利用mxnet.io.MNISTIter来加载数据。步骤如下: (1),先去http://yann.lecun.com/exdb/mni
2017-12-15 10:26:14 2706
原创 python保存log日志,并利用log日志来画图
在神经网络训练中,我们常常需要画出loss function的变化图,log日志里会显示每一次迭代的loss function的值,于是我们先把log日志保存为log.txt文档,再利用这个文档来画图。 1,先来产生一个log日志。import mxnet as mximport numpy as npimport osimport logginglogging.getLogger
2017-12-14 14:58:13 7406 1
原创 mxnet保存模型,以及用模型来预测新数据。
我们希望训练好之后的模型,可以保存下来,然后需要预测新数据的时候,就可以拿来用,可以这样做。 我们以线性回归的例子来讲: 1,训练并保存模型。import mxnet as mximport numpy as npimport logginglogging.getLogger().setLevel(logging.DEBUG)# Training datatrain_data =
2017-12-14 10:11:12 7034
原创 mxnet运行时报错:AttributeError: module 'mxnet.ndarray' has no attribute 'random'
这是因为我的mxnet版本过低导致的。解决办法有两个,一个是升级版本,一个是把random去掉,如:mx.nd.random.uniform(0, 1) 改为 mx.nd.uniform(0, 1)
2017-12-11 15:03:44 3123
原创 让你的python代码更优雅(pythonic)—— 基于PEP8
写出优雅的代码,自己调试bug更加容易,也便于别人查看,下面谈谈一下让代码更加优雅的写法,主要是基于 PEP 8。 1,缩进与换行,每级缩进使用4个空格。# yes:# 续行与其包裹元素要对齐foo = long_function_name(var_one, var_two, var_three, var_four)# No:# 这种就不好
2017-12-09 18:53:15 2663 1
原创 MXnet查看参数的权值
我们用MXnet训练好模型之后,有时想看看其中参数的权值,可以用 model.get_params()函数,具体的操作见下面的例子。import mxnet as mximport numpy as npimport logginglogging.getLogger().setLevel(logging.DEBUG)# Training datatrain_data = np.random.
2017-12-08 17:07:32 3263
转载 latex中,table的caption字母全部大写了,但是我们希望只有首字母是大写。
链接在这:https://tex.stackexchange.com/questions/166814/table-caption-in-uppercase-i-dont-know-why 第一个回答就是正解。
2017-12-08 09:35:20 14952 1
原创 手机qq的“兴趣部落”如何关闭提示(小圆点)
这个提示,对于强迫症来说,太恶心了。下面是关闭提示的方法: 1,点开“兴趣部落” 2,点开右下角“我的” 3,点自己的头像 4,点开右上角的“更多” 5,然后关掉所有的通知就行了。
2017-12-07 15:55:07 1863
MXNet_gluon中文教程
2018-06-20
tensorflow_learning.pdf
2017-12-04
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人