机器学习基础 损失函数 梯度下降 概念学习

损失函数:预测值(y)与标准答案(y-)的差距

损失函数可以定量判断权重w和随机初始化b的优劣,当损失函数输出最小时,w、b最优

常见损失函数:均方误差 其中n为样本个数
在这里插入图片描述
梯度下降法:沿损失函数梯度下降的方向,寻找损失函数的最小值,找到最参数的方法(w、b)
梯度下降的方向就是参数减小的方向 ,梯度:函数对各参数求偏导后的向量

目的:找到一组参数b和w,使得损失函数最小

学习率(learing rate, lr):是超参数,即开始学习过程之前设置值的参数,而不是通过训练得到的参数数据。通常情况下,需要对超参数进行优化,如果lr设置过小,收敛过程慢,如果lr设置过大,可能跳过最小值,在最优解附近来回震荡,设置无法收敛
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
例子:

import tensorflow as tf
w = tf.Variable(tf.constant(5, dtype=tf.float32))
lr = 0.5
epoch = 40

for epoch in range(epoch):
    with tf.GradientTape() as tape:
        loss = tf.square(w+1)
    grads = tape.gradient(loss, w)

    w.assign_sub(lr*grads)
    print("After %s epoch, w is %f,loss is %f" % (epoch, w.numpy(), loss))
  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值