Lecture3 Linear and Logistic Regression

这节课里面讲了下线性回归的例子,介绍了几种常见的优化算法
优化算法

在对数据进行线性拟合后,发现error较大,因此提出了huber loss。
这里写图片描述
huber loss是在robust regress(稳健回归?)中用到的损失函数,相比平方误差而言,对离散值具有更低的敏感度。
definition
在距离均值较远的地方,是线性的。下图是Huber loss (green, δ = 1) squared error loss (blue)
这里写图片描述

那么,在tensorflow中如何完成huber loss呢?

def huber_loss(labels, predictions, delta=1.0):
    residual = tf.abs(predictions - labes)
    condition = tf.less(residual, delta)
    small_res = 0.5 * tf.square(residual)
    large_res = delta * residual - 0.5 * tf.square(delta)
    return tf.select(condition, small_res, large_res)

tensorflow会根据你所用的op,自动进行backpropagation操作。

另外在feed数据的时候,要一个batch一个batch地训练。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值