![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
Hubz131
这个作者很懒,什么都没留下…
展开
-
浅谈对梯度下降的理解
浅谈梯度下降法 如果读者对方向导数和梯度的定义不太了解,请先阅读上篇文章《方向导数与梯度》。 前些时间接触了机器学习,发现梯度下降法是机器学习里比较基础又比较重要的一个求最小值的算法。梯度下降算法过程如下:1)随机初始值;2)迭代,直至收敛。表示在处的负梯度方向,表示学习率。 在这里,简单谈一下自己对梯度下降法的理解。首先,要转载 2017-10-22 13:45:01 · 584 阅读 · 0 评论 -
D:\Program Files\python3.5\lib\site-packages\h5py\__init__.py:36: FutureWarning: Conversion of the s
1.错误:D:\Program Files\python3.5\lib\site-packages\h5py\__init__.py:36: FutureWarning: Conversion of the second argument of issubdtype from `float` to `np.floating` is deprecated. In future, it will be...原创 2018-05-17 22:44:30 · 7820 阅读 · 0 评论 -
CNN部分函数解析
一、函数展示:def Weight(shape): init = tf.random_normal(shape,stddev=0.01) return tf.Variable(init) def Bias(shape): return tf.Variable(tf.random_normal(shape)) def conv2d(x, W): ...原创 2018-04-26 16:56:50 · 712 阅读 · 0 评论 -
tf.nn.conv2d是怎样实现卷积的
参考:xf_mao 雷隐隐实验环境:tensorflow版本1.6.0,python3.5——————————————————————————————————————————————————————————————介绍:从直观上看,卷积的过程相当于将图片“浓缩了”,当然在浓缩的过程中,厚度是可以变的。上图中,黑色的板子就是输入的图片,橙色的板子就是卷积“浓缩”后的图片,绿色的小色块就是卷积核,也就...原创 2018-04-25 17:31:00 · 557 阅读 · 0 评论 -
张量
在Tensorflow中,所有数据都通过张量的形式来表示,从功能上看,张量可以简单的被理解为多维数组。其中零阶张量表示标量(scalar),也就是一个数;第一阶张量为向量(vector),也就是一个一维数组;同理第n阶张量就是n维数组。 但是张量在Tensorflow中的实现并不是采用数组的形式,他只是对Tensorflow中运算结果的引用。在张量中并没有真正的保存数字,它保存的是如何得到这些数字...转载 2018-04-24 21:57:53 · 918 阅读 · 0 评论 -
机器学习算法(LDA,CNN,LR)原理简述
转自:webary1.LDALDA是一种三层贝叶斯模型,三层分别为:文档层、主题层和词层。该模型基于如下假设:1)整个文档集合中存在k个互相独立的主题;2)每一个主题是词上的多项分布;3)每一个文档由k个主题随机混合组成;4)每一个文档是k个主题上的多项分布;5)每一个文档的主题概率分布的先验分布是Dirichlet分布;6)每一个主题中词的概率分布的先验分布是Dirichlet分布。文档的生成过...转载 2018-05-01 15:10:00 · 1019 阅读 · 0 评论 -
tf.reduce_mean(tf.cast(tf.equal(tf.argmax(out, 1), tf.argmax(y_, 1)), tf.float32))解析
1.tf.argmax()返回 arr 的最大值with tf.Session() as sess: print(sess.run(tf.argmax(arr, 0)))# 返回每一列的最大值的索引 print(sess.run(tf.argmax(arr, 1)))# 返回每一行的最大值的索引2.tf.equal()比较data_1和data_2是否一样,一样返回True否...原创 2018-04-24 00:23:34 · 3080 阅读 · 0 评论 -
神经网络学习可视化工具
TensorBoard:TensorFlow 集成可视化工具GitHub 官方项目:https://github.com/tensorflow/tensorflow/tree/master/tensorflow/tensorboardTensorBoard 涉及到的运算,通常是在训练庞大的深度神经网络中出现的复杂而又难以理解的运算。为了更方便 TensorFlow 程序的理解、调试与优化,Goog...转载 2018-03-24 12:23:23 · 3239 阅读 · 0 评论 -
Logistic回归(梯度上升)
文章来自(http://blog.csdn.net/SzM21C11U68n04vdcLmJ/article/details/78221784?locationNum=10&fps=1)一、前言 本文从Logistic回归的原理开始讲起,补充了书上省略的数学推导。本文可能会略显枯燥,理论居多,Sklearn实战内容会放在下一篇文章。自己慢慢推导完公式,还是蛮开心的一件转载 2017-10-22 14:21:03 · 538 阅读 · 0 评论 -
牛顿方法
课程大纲 牛顿方法(用来代替梯度上升对logistic回归进行拟合)指数分布族(exponential family)广义线性模型 牛顿方法牛顿方法是用来代替梯度上升对logistic回归进行拟合的算法,它的优点是,针对特征种类不是很多的情况,计算速度比梯度上升算法快很多。牛顿方法如上图所示。假设要求一个函数,设定转载 2017-10-22 14:13:35 · 402 阅读 · 0 评论 -
欠拟合与过拟合
在用机器学习搭建模型时,经常会碰到这样一种情况,你的模型算法在样本数据中匹配的非常完美。但用新数据测试,发现模型结果和实际差距非常大。那么恭喜你!你掉进了机器学习中常见的一个大坑——过拟合。什么是过拟合呢?机器学习本质上是通过建立数据模型,使其和现有数据相吻合,从而找到数据中内在的规律。如下面三张图,x表示训练样本数据,蓝色线条表示建立的数据模型。第一张图:虽然模型部分转载 2017-10-22 14:09:51 · 417 阅读 · 0 评论 -
降低学习率的函数
指数衰减tf.train.exponential_decay( learning_rate, global_step, decay_steps, decay_rate, staircase=False, name=None)将指数衰减应用于学习速率。在训练模型时,经常建议在训练过程中降低学习速度。 该函数将指数衰减函数应用于提供的初始学习速率。 它...原创 2018-06-01 21:09:41 · 922 阅读 · 0 评论