深度学习小白——最优化问题

这篇博客探讨了深度学习中的最优化问题,旨在找到最小化损失函数的权重值W。介绍了三种方法:随机搜索、随机本地搜索和梯度下降。其中,梯度下降通过计算梯度来迭代更新参数,而在实践中,为了确保准确性,通常会进行梯度检查,比较分析梯度法和数值梯度法的结果。
摘要由CSDN通过智能技术生成

基于参数的评分函数将原始图像像素映射为分类评分值(如一个线性函数)

损失函数可以衡量某个具体参数集的质量好坏,有softmax 和 SVM 等不同实现方式


一、最优化

我们的目的就是找到能够使损失函数值最小的W值

方法一:随机搜索,随机指定W的值  准确度:7%

bestloss = float("inf") # Python assigns the highest possible float value
for num in xrange(1000):
  W = np.random.randn(10, 3073) * 0.0001 # generate random parameters
  loss = L(X_train, Y_train, W) # get the loss over the entire training set
  if loss < bestloss: # keep track of the best solution
    bestloss = loss
    bestW = W
  print 'in attempt %d the loss was %f, best %f' % (num, loss, bestloss)

方法二:随机本地搜索,W+δW,随机一个W,然后生成一个随机的扰动δW,只有当W+δW的损失值变低,我们才会更新

W = np.random.<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值