![](https://img-blog.csdnimg.cn/20201014180756919.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
tianzhiya121
这个作者很懒,什么都没留下…
展开
-
计算机视觉教程核心版(四)激活函数
目录 基础神经网络 常用非线性函数 基础神经网络 在线性分类中,我们不同视觉类别的得分函数是通过,W是权重矩阵,x是一个输入列向量。在神经网络中,我们计算的是,如图所示结构。 函数max(0,x)是一个非线性化函数,其作用于输入的每个像素。像这样的非线性化函数有许多,但这个是一个常用的选择,其将所有的输入小于零的值归零,其他不变。如上图,假设输入shape为[1*3072],最...原创 2019-05-07 14:52:44 · 328 阅读 · 0 评论 -
计算机视觉教程核心版(三)优化中篇反向传播展示
目录 介绍 简单的表达式 模块化 反向传播中的模式 多个分支梯度相加 介绍 在本节中,我们将对反向传播(这是一种通过递归的应用链式法则计算梯度表达式的方法)进行直观而专业的理解。理解反向传播的过程以及其中的细节对我们理解,有效开发、设计和调试神经网络至关重要。 问题陈述 本节核心问题是:给定一些函数f(x),x是输入向量。我们着力于计算f在x的梯度。 动机 回想最初我们...翻译 2019-05-06 16:47:35 · 235 阅读 · 0 评论 -
计算机视觉教程核心版(二)线性分类
线性分类 目录 线性分类概念 解释线性分类器 损失函数 实例 总结 线性分类概念 承上:上一节介绍了图像分类的基本概念。我们还介绍了KNN分类器,它通过比较测试集到训练集所有图像的距离来决定测试集的类别。然而KNN有着众多的缺点: 分类器必须记住所有的训练数据并且将此数据存储以用于将来和测试数据比较。这在空间上是低效率的,因为数据及大小...翻译 2019-05-01 17:03:50 · 441 阅读 · 0 评论 -
计算机视觉教程核心版(三)优化上篇梯度下降
目录 优化介绍 可视化损失函数 优化方法 计算梯度和梯度下降 总结 优化介绍 前面两节主要介绍了图像分类任务的两个关键成分 得分函数:将原生像素映射到类得分 损失函数:基于产生的得分与训练数据集真是标签的匹配程度衡量参数集合的质量。(例如softmax和SVM)。 我们从前面已经看到,预测越精准的参数集同样有着更低的损失。我们将引进第三个也是最后一个关键组成成分: ...翻译 2019-05-04 08:47:13 · 328 阅读 · 0 评论