2019/6/1CS231n课程笔记(线性分类器)

作业:

k-最近邻法

线性分类器,svm和softmax

两层卷积神经网络

numpy,向量化张量计算。

第二章

semectic gap

intraclass

CIFAR10数据集。

对单个像素进行比较,L1 distance,L1对坐标有依赖,各个向量中的每一个元素都有意义的时候,L1的效果会更好。

使用numpy的向量运算。使得程序很简洁。

N个example,训练和预测的时候的时间复杂度分别为1和n,训练时只进行存储,在预测阶段需要把每个数据进行比较。

所以由此看出最近邻法比较落后,

k近邻法,算k个邻居的距离,对分类进行投票,最后将其归为票数最高的一类。使得决策边界更平滑

L2diatance(欧氏距离),计算平方和之后再开方。

k和距离计算的公式分选择都属于超参数的选择问题。

将数据分成三组,train、validation、test。

交叉验证集:

验证集和训练集的区别是什么?训练集是有了标签的数据,拿来对图像做训练的时候,计算图像和训练点最接近点的标签作为结果,把验证集的内容和训练集的进行比较,将其作为依据,判定分类器的准确率。验证集中的标签是用来查看我们现在做出的分类器的准确率的。

最近邻和K近邻法不常用在图像处理上,视觉感知差异

维度灾难:一维的时候需要4个元素将

线性分类:

f(x,W)=Wx,W叫做参数或是说权重。不使用原来的数据而是用这些W来表示数据。

W是10*3072的矩阵,偏好值bias。

有了训练矩阵,任何新训练的得分,怎么得到新的权重。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值