![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
hands-on Machine learning 读书笔记
文章平均质量分 74
akon_wang_hkbu
这个作者很懒,什么都没留下…
展开
-
chapter2 of OReilly.Hands-On.Machine.Learning.with.Scikit-Learn.and.TensorFlow
The process of one project: 1. Look at the big picture. 2. Get the data. 3. Discover and visualize the data to gain insights. 4. Prepare the data for Machine Learning algorithms. 5. Select a mode原创 2017-08-02 09:31:30 · 1043 阅读 · 0 评论 -
CHAPTER 11-Training Deep Neural Nets-part3
Learning Rate Scheduling(学习速率调度) 找到一个好的学习速度可能会非常棘手。 如果设置太高,训练实际上可能偏离(如我们在第4章)。 如果设置得太低,训练最终会收敛到最佳状态,但这需要很长时间。 如果将其设置得太高,开始的进度会非常快,但最终会围绕最佳方式跳舞,永远不会安顿下来(除非您使用自适应学习速率优化算法,如AdaGrad,RMSProp或Adam,但是 即原创 2017-12-05 15:56:14 · 421 阅读 · 0 评论 -
CHAPTER 11-Training Deep Neural Nets-part2
本篇文章是个人翻译的,如有商业用途,请通知本人谢谢. Reusing Pretrained Layers (重用预训练层) 从零开始训练一个非常大的DNN通常不是一个好主意,相反,您应该总是尝试找到一个现有的神经网络来完成与您正在尝试解决的任务类似的任务,然后重新使用这个较低层的 网络:这就是所谓的迁移学习。 这不仅会大大加快培训速度,还将需要更少的培训数据。 例如,假设您可以访原创 2017-11-06 13:01:56 · 399 阅读 · 0 评论 -
CHAPTER 11-Training Deep Neural Nets-part4
本篇文章是个人翻译的,如有商业用途,请通知本人谢谢. Avoiding Overftting Through Regularization 有四个参数,我可以fit一个大象,五个我可以让他摆动他的象鼻。 —John von Neumann, cited by Enrico Fermi in Nature 427 深度神经网络通常具有数以万计的参数,有时甚至是数百万。 有原创 2017-11-06 16:12:38 · 344 阅读 · 0 评论 -
CHAPTER 11-Training Deep Neural Nets-part1
本篇文章是个人翻译的,如有商业用途,请通知本人谢谢. Vanishing/Exploding Gradients Problems 正如我们在第10章中所讨论的那样,反向传播算法的工作原理是从输出层到输入层,传播错误梯度。 一旦该算法已经计算了网络中每个参数的损失函数的梯度,它就使用这些梯度来用梯度下降步骤来更新每个参数。 不幸的是,梯度往往变得越来越小,随着算法进展到下层。原创 2017-11-03 09:54:00 · 583 阅读 · 0 评论 -
Chapter 13. Convolutional Neural Networks
Convolutional Layer CNN最重要的组成部分是卷积层:第一卷积层中的神经元不是连接到输入图像中的每一个像素(就像它们在前面的章节中那样),而是仅仅连接到它们的局部感受野中的像素(参见图13-2)。 进而,第二卷积层中的每个神经元只与位于第一层中的小矩形内的神经元连接。 这种架构允许网络专注于第一隐藏层中的低级特征,然后将其组装成下一隐藏层中的高级特征,等等。 这种层次结构在原创 2017-11-08 17:39:41 · 759 阅读 · 0 评论 -
CHAPTER 10-Introduction to Artifcial Neural Networks
使用普通TensorFlow训练DNN 如果您想要更好地控制网络架构,您可能更喜欢使用TensorFlow的较低级别的Python API(在第9章中介绍)。 在本节中,我们将使用与之前的API相同的模型,我们将实施Minibatch 梯度下降来在MNIST数据集上进行训练。 第一步是建设阶段,构建TensorFlow图。 第二步是执行阶段,您实际运行计算图谱来训练模型。 Cons原创 2017-11-02 09:18:11 · 343 阅读 · 0 评论 -
CHAPTER 9 -Up and Running with TensorFlow part2
存储和回复模型 一旦你训练了你的模型,你应该把它的参数保存到磁盘,所以你可以随时随地回到它,在另一个程序中使用它,与其他模型比较,等等。 此外,您可能希望在培训期间定期保存检查点,以便如果您的计算机在训练过程中崩溃,您可以从上次检查点继续进行,而不是从头开始。 TensorFlow可以轻松保存和恢复模型。 只需在构造阶段结束(创建所有变量节点之后)创建一个Save节点; 那么在执行阶段,只原创 2017-10-30 15:45:13 · 837 阅读 · 0 评论 -
怎么启动tensorboard呢?之anaconda版(转载请声明)
网上面看了一大堆自己摸索出来了个方法: 我之前在cmd运行的时候找不到tensorboard. 后来我是直接在anaconda prompt进去的.注意这里要进去TensorFlow的环境下才行.你可以 activate TensorFlow先或者直接给TensorFlow配一个anaconda prompt.比如这样: 打开之后再输入 tensorboard --l原创 2017-10-30 20:03:09 · 1975 阅读 · 0 评论 -
CHAPTER 9 -Up and Running with TensorFlow part1
创造第一个图谱,然后运行它 import tensorflow as tf x = tf.Variable(3, name="x") y = tf.Variable(4, name="y") f = x*x*y + y + 2 这就是它的一切! 最重要的是要知道这个代码实际上并不执行任何计算,即使它看起来像(尤其是最后一行)。 它只是创建一个计算图谱。 事实上,变量都没有初始化.要评估此图,您原创 2017-10-27 15:24:07 · 895 阅读 · 0 评论 -
MSE的梯度。
原创 2017-10-28 11:27:25 · 2373 阅读 · 0 评论 -
CHAPTER 14 -Recurrent Neural Networks
Recurrent Neurons原创 2017-11-15 15:48:51 · 420 阅读 · 0 评论