![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
TensorFlow
繁华落尽梦一场
暮春者,春服既成,冠者五六人,童子六七人,浴乎沂,风乎舞雩,咏而归
展开
-
TensorFlow基础之线性回归
线性回归,我们在初中就开始接触了,二维平面给出一些点,用一条直线拟合这些点。但实际情况下,这些点中都会有一些噪点、误差,那么怎么才能找出一条拟合度最好的直线呢?比如下图是y=2x+4的点,随机加入一些误差后怎么才能得到拟合最好的直线。 要判断好还是不好,首先要有一个度量指标,其次这个指标可以容易转换成数学运算。这里引出一种方法:最小二乘...原创 2018-08-29 20:38:44 · 1899 阅读 · 0 评论 -
机器学习之损失函数
test原创 2018-12-10 21:02:52 · 138 阅读 · 0 评论 -
机器学习之激励函数
test原创 2018-12-10 21:03:38 · 447 阅读 · 1 评论 -
TensoFlow损失函数tf.layers.dropout与tf.nn.dropout的区别
TensorFlow1.0中有两个损失函数,tf.layers.dropout与tf.nn.dropout,两个函数的丢弃概率恰好相反,如果不仔细,很容易搞错。tf.nn.dropout 中参数 keep_prob :每一个元素被保存下的概率。而 tf.layer.dropout 中参数 rate :每一个元素丢弃的概率。所以,keep_prob = 1 - rate。 在 tf.layer...原创 2019-01-27 01:49:53 · 1363 阅读 · 1 评论