![](https://img-blog.csdnimg.cn/20201014180756922.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
每天八小时
加油,期待明天的自己
展开
-
深度学习基础(一)——决策树
总结一下今天的学习过程(时间仓促,简单整理)1,上午结束了python的scrapy的学习,感觉学的比较浅显,都是大致的了解,做的也是简单的实战,学习 部署工具scrapyd scrapy js的处理技巧 scrapy cookie的处理 scrapy代理IP的使用2,了解了机器学习的概念以及应用场景 语音原创 2017-09-23 22:49:07 · 532 阅读 · 0 评论 -
深度学习进阶(七)--复习(一)
总结一下今天的学习过程今天上午帮室友在win10上装了一次,不过好多问题在win7上不同,有一部分是相同的下午继续复习了近阶段对深度学习进阶深度学习概念环境配置神经网络结构梯度下降算法backpraprotion算法平凡的一天,明天加油原创 2017-10-13 00:01:33 · 202 阅读 · 0 评论 -
深度学习深理解(八)- 结构化机器学习项目
总结一下今天的学习过程昨天由于装双系统,耽误了一天,打断这周暂时学习结束吴恩达老师的前三部分的课程(因为后期两部分没有开课)幸运的是,今天学习比较努力 哈哈哈,将计划两天的课程今天一天学习完了机器学习的策略:收集更多的数据增加训练集的多样性增加使用梯度下降法的训练时间尝试其他优化算法:比如Adam算法等扩大或者缩小神经网络的规模尝试dropout或者L2正则化修改神经网原创 2017-10-22 22:44:21 · 1378 阅读 · 0 评论 -
深度学习进阶(七)--复习(二)
总结一下今天的学习今天将近阶段深度学习进阶总结完毕,并做了笔记下午继续结合笔记查看了代码,进一步理解神经网络算法原创 2017-10-13 22:31:32 · 198 阅读 · 0 评论 -
深度学习深理解(一)-logistic回归与梯度下降法
总结一下今天的学习过程感谢吴恩达老师今天看了吴恩达老师讲的的深度学习基础概念进一步理解了logistic回归与梯度下降法原创 2017-10-14 22:23:53 · 561 阅读 · 0 评论 -
深度纸质学习与实验(一)-准备
总结一下今天的学习过程上午看了TensorFlow的书籍看了两章重新在新的一台机器上安装了centos系统,准备搭建集群下午看了ICRM2017年收录的论文题目,寻找写论文的资料随后去运动,打了乒乓球、羽毛球美好的一天,明天加油原创 2017-10-23 22:15:27 · 152 阅读 · 0 评论 -
深度学习深理解(一)-logistic回归深理解与BP反向传播算法
总结一下今天的学习过程上午以及中午将吴恩达老师的第二周的视屏学习完,对logistic回归与梯度下降以及反向传播算法有了更深一层的理解,似乎有了柳暗花明的感觉,感觉前几天的学的似乎通了又似乎乱了,哈哈,继续加油吧下午以及晚上写了上学期的一门课程作业美好的一天,明天加油!原创 2017-10-15 22:51:37 · 1123 阅读 · 0 评论 -
Tensorflow学习与应用一
总结一下这几天的学习吧五天没有写博客啦,感觉生命好空虚啊也不知为啥,感觉好迷惑好迷茫前几天做的事:一直调试代码测试mnist数据集的在docker中运行TensorFlow镜像看利用TensorFlow框架的代码写的检测mnist数据集,看的一脸懵逼外加迷惑、烦躁前天和昨天听了,参加了一个会议和听了几场报告,无聊的人生--------------------原创 2017-11-01 22:11:03 · 271 阅读 · 0 评论 -
深度学习深理解(三)-浅层神经网络
总结一下今天的学习过程理解了神经网络的基本概念学习神经网络的四个激活函数以及他们的区别与用法sigmoid函数:比较适合用于二元分类中tanh函数:相比于sigmoid函数更为实用relu函数:修正性线性单元leaky Relu函数:带泄露的Relu以及梯度下降算法和反向传播算法美好的一天,明天加油!原创 2017-10-16 22:49:50 · 247 阅读 · 0 评论 -
深度纸质学习与实验(二)-真机搭建docker与kubernetes(补更)
总结一下昨天的学习过程昨天利用脚本一键式安装了docker集群与kubernetes集群bug:利用mac地址启动远程主机时命令:shell.run("wolcmd " +machine.MAC+ " 255.255.255.255 255.255.255.255 255", 1);注意三点:1,机器断电或者强制关机后,需要手动启动一次2,在使用命令关闭原创 2017-10-25 21:38:31 · 188 阅读 · 0 评论 -
深度纸质学习与实验(三)-将TensorFlow加入kubernetes初试
总结一下今天的学习过程1,今天代导师接待了机械华章的唐老师,也准备了书展,第一次看到那么多的 “黑皮书“以及这两年比较火的 “”棕色“” 的书籍,正式倍感亲切啊,重要的是和唐老师的交谈让我学到了很多很多,倍感收益颇丰2,今天看了一些TensorFlow融入到kubernetes的文章、博客。看着好多利用yaml启动服务的脚本,有点慌,还没有尝试3,在docker中pull 了Tenso原创 2017-10-25 21:52:01 · 205 阅读 · 0 评论 -
Tensorflow学习与应用二
总结一下今天的学习过程今天看了交叉熵在TensorFlow中的使用,又一次理解了交叉熵的原理,并编辑了代码进行的调试拟合的三种状况:欠拟合、正拟合、过拟合使用Dropout处理过拟合,并编辑了代码进行的调试::::收敛变得比较慢,所以需要增加训练次数,但可以很好的解决过拟合,并且在模型数据相对较少的情况下有很好的效果下午办了一些杂事晚上帮同学使用ideaIC 编辑了spark中原创 2017-11-02 22:47:35 · 158 阅读 · 0 评论 -
深度纸质学习与实验(四)-将TensorFlow加入kubernetes完成与minist数据集初试
总结一下今天的学习过程上午将TensorFlow加入kubernetes中,参考链接:http://www.cnblogs.com/xuxinkun/p/5983633.htmlregistryHostname=cloud2connect#搜索TensorFlowdocker search tensorflow#注意变量声明赋值不能有空格nic=`docker search t原创 2017-10-26 22:41:16 · 596 阅读 · 0 评论 -
Tensorflow学习与应用三
总结一下今天的学习今天主要是抄代码,看程序TensorBoard3-mnist-可视化.ipynbTensorBoard2-mnist-网络参数.ipynbTensorBoard1-mnist.ipynb简单测试mnist集.ipynb加入学习率以及Dropout.ipynb优化器1测试.ipynbDesktopTensorBoard3-mn原创 2017-11-03 23:32:28 · 168 阅读 · 0 评论 -
Tensorflow学习与应用四
总结一下今天的学习过程1,又一次理解了CNN的基本原理:卷积层操作、池化层操作传统的神经网络缺点:权值太多,计算量太大;需要大量的样本进行训练CNN通过感受野和权值共享(局部映射神经元)减少了神经网络需要训练的参数卷积核、卷积窗口、特征图、滤波器、采样池化层的三种操作:max-pooling、mean-pooling、随机池化same paddingvalid padd原创 2017-11-04 23:16:55 · 1612 阅读 · 2 评论 -
深度学习深理解(七)-改善深度神经网络-第三周
总结一下今天的学习过程超采纳数的选择原则 学习率、或者采用衰减的学习率 hidden unit num 、 mini-batch-size layers num、momentum β(默认0.9) Adam β1,β2 E(默认 0.9,0.999,10e-8) 采用随机均匀取值 根据机器的性能:采用一种照看一个模型、同时实验多中模型原创 2017-10-20 22:18:43 · 245 阅读 · 0 评论 -
深度学习进阶(六)--CNN卷积神经网络调试,错误历程总结
总结一下今天的学习过程(注:我此刻的心情与刚刚三分钟前的心情是完全不一样的)(昨天在想一些错误,今天又重拾信心重新配置GPU环境,结果很失败,不过现在好了,在寻思着今天干了什么的时候,无意间想到是不是自己方法入口不对啊。结果果然很幸运的被我猜到了,,,哈哈哈,我的心情又好了)总结最大的体会:有的时候在代码不能运行的时候,可是尝试先看看学习代码,起码从代码的入口调用看起、看清、看原创 2017-10-11 22:29:03 · 3956 阅读 · 4 评论 -
服务器见识与学习
总结一下今天的学习过程1,上午去了学院的实验室,看了浪潮的试验设备,又虚拟化、Hadoop、高性能计算 并学习了基本使用,实验室的机器设备的大致架构有了基本的了解 并做了一些登陆以及简单的操作以及试验2,中午以及下午整理,前几月做的两个项目3,下午及晚上看了人工智能、机器学习、深度挖掘的关系,看的是黄老师的一本书,一时想不起名字了,感觉讲的很基础、很透彻,非常荣原创 2017-09-27 23:45:28 · 142 阅读 · 0 评论 -
深度学习进阶(一.2)--结合GPU搭建theano貌似成功了,但是测试数据运行失败
总结一下今天的学习过程1,由于昨天的错误是英伟达驱动版本不合适,上午将测试了英伟达的显卡驱动,前前后后下载了四个,也安装的四个,或许是由于cuda本身是9.0的把,经过测试只有最新版的显卡驱动匹配cuda9.0,折腾半天又白折腾了2,尝试改变方向,将cuda换成8.0版本,按着搜索的教程,在配置为设置为gpu的时,运行测试,import theano,不报错,报出的警告和网上教程使用的结果原创 2017-10-06 22:32:39 · 543 阅读 · 0 评论 -
深度学习基础(一)——KNN与SVM
总结一下今天的学习过程1,上午继续看书,主要看了深度学习的发展历程以及主要技术介绍2,中午思考了决策树算法中的数据准备阶的矩阵装换,将类似Excel数据表格的形式数据转换为0-1矩阵 数据大致格式为:表头为特征向量名称以及输出标签名称,而特征向量的值又是多个,决策树中是将每一个特征向量多维化,形成一个0-1矩阵 将每一个特征向量多维化 本想着使用ja原创 2017-09-28 23:33:12 · 2956 阅读 · 0 评论 -
深度学习进阶(二)--神经网络结构算法以及梯度下降法
总结一下今天的学习过程注:感觉最近状态很不好,精神头有点不足,没有一开始的激情了,就比如说今天的学习,感觉不是很积极一是继续捣鼓了GPU的配置环境,还是不怎么OK,也许是测试或验证的方式不对二是看了神经网络结果以及梯度下降算法的简单原理,结合一个GitHub的项目neural-networks-and-deep-learning,学习了代码下面是在Python3中遇到的一些原创 2017-10-07 23:51:34 · 494 阅读 · 0 评论 -
深度学习基础(三)--SVM
总结一下今天的学习过程今天可以说是不充实,荒废的好多时间1,今天干一些无关学习的事,这里就不多说了2,中午和下午就感觉比较坑了,以前安装工具都是百度,这好不容易感觉上道了,说是看个文档吧,结果还安装错了,还是走了好多弯路 本意是在Anaconda3中安装numpy以及pylab,按照着Anaconda3中自带的Python3.6.1documentaction这个文档安装原创 2017-09-29 23:50:05 · 592 阅读 · 0 评论 -
深度学习深理解(四)-深度网络与深度学习第一部分完结
总结一下今天的学习过程今天看了吴恩达老师的第一部分的视屏课的最后一周以及三节的视屏采访,感觉视界开阔了好多好多美好的一天,明天加油原创 2017-10-17 23:22:54 · 212 阅读 · 0 评论 -
深度学习进阶(三)--BackPropagation算法的影响因素(补充昨天的博客更新)
总结一下昨天的学习过程学习了解了影响神经网络中的一些参数:1,层数以及每层神经元的个数(感觉层数越多BackPropagation算法效果越不怎么好)2,权重以及偏向的初始化方法,比如说均值为1的正态分布,或者除以示例平方的正太分布或者除以2n的开根号的正态分布3,目标cost函数的设置,二次cost函数以及log形式的函数公式4,正规化(Regularization)的技术解原创 2017-10-09 22:16:08 · 316 阅读 · 0 评论 -
深度学习进阶(四)--深度神经网络中梯度消失以及卷积神经网络初识
总结一下今日的学习过程1,上午学习了解了深度网络中的难点2,了解了经常听到又不知所云的梯度消失问题的概念以及原理 认识到了Rectified Liner Unit激活函数可以很好的减少梯度消失问题,但没有具体的深入的理解及学习3,认识到了卷积网络CNN,理解了其大致原理以及实现过程 结合GitHub上的neural-networks-and-deep-le原创 2017-10-09 22:28:53 · 1731 阅读 · 0 评论 -
深度学习深理解(五)-改善深度神经网络
总结一下今日的学习过程偏差方差权衡问题最有误差、贝叶斯误差正则化两种dropout训练集扩充加速训练的方法权重值得初始化梯度校验美好的一天,明天加油原创 2017-10-18 23:02:49 · 230 阅读 · 0 评论 -
深度学习基础(四)--BP神经网络和线性回归
总结一下今天的学习过程1,上午单步调试了简易的BP算法,结合算法原理,查看了每一步的求解过程 看的算法是简易版的,用的结束条件是循环次数,没有考虑error阈值以及另外一个因素(想不起来了忘记了),导致了当隐含层增加时,到时错误结果率大大增加,有待尝试结合另外两个结束条件约束增加新的判断条件 理解了初始化权重weight数组以及偏移量bairs以及权重的更新2,剩下原创 2017-10-02 23:51:54 · 1987 阅读 · 0 评论 -
深度学习深理解(六)-改善深度神经网络-第二周
总结一下今天的学习过程mini-batch梯度下降法指数加权平均数momentum梯度下降法RMSprop算法Adam算法学习率衰减法局部最优问题晚上再一台机器上安装了双系统:ubantu的美好的一天,明天加油原创 2017-10-19 22:49:30 · 288 阅读 · 0 评论 -
深度学习基础(五)--聚类
总结一下今天的学习过程(注:代码都是根据教程抄的,哈哈)1,温习了统计学中的相关度与R值有关知识,以及计算公式,以及Python代码的实现,在简单线性回归中,两个是等价的2,学习了k-means算法,感觉这个应该是理解了,并对代码进行了单步调试及逻辑的进一步理解3,学习了层次聚类方法,不过感觉代码自己不是能很好的理解,并用图片对层次聚类方法进行了尝试,得出了响应结果,也对代码进行的学习原创 2017-10-03 23:53:10 · 6483 阅读 · 0 评论 -
深度学习进阶(一.1)--结合GPU搭建theano失败(驱动不匹配,哎)
总结一下这两天的学习主要是安装theano在GPU下跑的环境,可惜最后竟然因为驱动不匹配,,,,注意换成CPU完全没有问题,也是醉了Exception: The nvidia driver version installed with this OS does not give good results for reduction.Installing the nvidia d原创 2017-10-05 22:51:44 · 852 阅读 · 3 评论 -
深度学习进阶(五)--卷积神经网络与深度置信网络以及自动编码初识(补昨天博客更新)
总结一下昨天的学习过程(注:这几天老不在状态,貌似进入了学习激情的瓶颈期,动力以及平静心严重失控,Python3.X与Python2.X之间的代码调试,尤其是环境配置搞得头昏脑胀)昨天了解接触的内容CNN卷积神经网络的基本原理以及在CPU中测试以及代码调试(又是失败)Restricted Boltzmann Machine:Deep Brief Network: 多个Restr原创 2017-10-11 22:09:44 · 4238 阅读 · 0 评论 -
Tensorflow学习与应用五
总结一下今天的学习过程学习了训练的模型的保存于使用了解了Google的inception-v3,并学习了基本原理与相关使用,以及代码的抄写与揣摩了解基本已有的模型增加自己想要的分类,这一块还没有详细学习尝试安装TensorFlow-GPU版,由于网络问题,pip install TensorFlow-GPU中途失败平凡的一天,明天加油原创 2017-11-05 22:45:42 · 190 阅读 · 0 评论